全球的「養龍蝦」狂歡潮!(二)

全球的「養龍蝦」狂歡潮!(二)

2home.co  楊惟婷

 

2026年初全球「AI代理」熱潮引爆,所以,近期科技圈最流行的不再是「你用哪個大模型?」,而是「你養龍蝦了嗎?」

 

那麼,什麼是「養龍蝦」?

「養龍蝦」即指部署「AI代理」熱潮,由於以往AI大模型只是會回答問題的對話框,例如大家熟悉的ChatGPT、Gemini、Claude這些AI工具,本質上是「只動嘴、不動手的顧問」,你問它怎麼整理會議紀錄,它給你一份文字範本,但你還是得自己去找錄音檔、自己開信箱、自己打字發信。

 

而現在部署「AI代理」能夠為你自動管理電腦、自動讀取檔案、跨應用執行任務的數位員工。亦即它能接管你的電腦底層操作權限,當你對它說「幫我把今天的會議錄音整理成摘要,發給老闆」,它就會自動找出錄音檔、轉成文字、寫好摘要、開啟信箱、填好收件人並發出,全部一氣呵成,不需要你在中間手動介入任何一個步驟。在中國,安裝這類 AI 代理軟體的行為甚至被暱稱為「養龍蝦」(Raising Lobsters)。

 

輝達執行長黃仁勳更對此給予極高評價,直言OpenClaw不僅是當前最重要的軟體,更有望成為下一個改變世界的ChatGPT。

2026年輝達GTC大會上,「AI龍蝦」OpenClaw成為本屆大會核心。OpenClaw作為代理式 AI(Agentic AI),不僅能處理回覆郵件、行程管理等庶務,更具備編寫程式及模擬人類操作鍵盤滑鼠的能力,能將複雜任務拆解並逐步執行。

 

這場技術革命的核心在於,AI 正從僅能提供建議的「大腦」,演進為具備實際執行能力的「雙手」。這是一個新的典範移轉……

標誌著「人—AI智能體」互動方式,從「對話式交互」向「行動式交互」轉型。

 

不過,AI 代理在企業環境中的應用仍存在安全疑慮。

由於系統可持續運行並調用電腦資源,在缺乏有效權限控管與安全機制的情況下,可能因配置缺陷或遭惡意接管,導致越權操作、資訊外洩等風險。

 

 

四、席捲中國的「養龍蝦潮」,吸引西方科技巨頭的驀然回首!

 

■「人—AI智能體」互動方式,迎來新典範移轉

 

開源AI智能體OpenClaw創辦人Peter Steinberg 說,「未來五年內,80%的應用程式可能消失」,並認為目前多數APP本質是數據管理工具,而個人智能體(Personal Agent)能以更有效率的方式接管用戶需求。

 

這項個人智能體預言得到特斯拉執行長馬斯克呼應,且更激進地指未來五到六年,作業系統和應用將徹底消失,手機僅作為顯示終端,AI 實時生成用戶所需內容。

 

這場個人智能體帶來的變革,是「人—AI智能體」互動方式的變革,從「對話式交互」向「行動式交互」轉型。此讓AI智能體成為唯一超級入口,APP 退化為提供服務的插件 (API),僅負責執行指令。

 

值得注意的是,在這場變革中,用戶與AI智能體互動方式,從圖標點擊轉向「Agent對話 + 自動執行」,僅有少數 APP有望留存。

例如,當使用者凝視冰箱,智慧眼鏡可透過分析存貨主動推薦食譜並完成食材採購,實現「感知–互動–執行」的無縫銜接。

 

當然,變革亦伴隨巨大風險。

Steinberg 坦言,若使用者持續授權智能體執行危險操作,可能導致「自我毀滅式」後果。

例如,當銀行卡、社群帳號等權限集中於單一智能體,駭客只需攻破一個入口即可操控使用者資產與社會關係,引發「單點崩盤」危機。

 

■「你養龍蝦了嗎?」

 

這一隻『龍蝦』究竟神在哪裡?

因為它徹底將AI(人工智慧)從「對話框」釋放到「作業系統」,不再是只會出一張嘴陪聊的「AI問答機器人」,而是真正能接管電腦、主動讀取電腦裡的檔案,並執行軟體的「AI代理人(AI agent)」。

 

使用者只須透過通訊App下達指令給『龍蝦』:「幫我把會議錄音整理成摘要寄給老闆。」它就會像「超級管家」一樣,自動找出錄音檔、做成摘要、開啟信箱、寫好內文、並寄送給老闆。

 

這隻超強大的自主性『龍蝦』,代表著人們對「AI從聊天轉向行動」的集體渴求,更宣告2026年全面邁入「AI代理人時代」。

 

先前生成式AI(如ChatGPT、Gemini、Claude)提供了強大的語言理解、內容生成、邏輯推理能力,形塑如同「大腦」的推理與認知能力;

而代理式AI的系統框架設計,則是將生成式AI封裝進一個具備「反饋循環」的架構中,利用模型的推理能力來規畫步驟,並透過外部程式碼(如Python、API技術接口)來執行這些步驟。

 

在進入AI代理人的落地階段,企業內部要用的軟體,不用再等著資訊部門的開發排程,每個人可以自己設計自己要用的AI工具,自學而成。

每個人都可以在Cursor、Devin、Lovable等程式開發網站,用自然語言表述需求,就能完成「程式開發」。

 

這種新形態的「員工自造工具」(associate-built tools)以及「低代碼/無代碼開發」模式,讓操控AI不再僅限於懂得撰寫程式碼的工程師,每個人都可以自學。例如你可以輸入「做出我的個人網站,蒐集所有我寫過的文章。」、「設計一款打地鼠的手機遊戲,地鼠更換成各種花朵。」AI代理人就能跑出測試版。

 

■黃仁勳:AI「五層架構」概念,未來AI Agent將成為主流

 

AI晶片巨擘輝達執行長黃仁勳3/10日發表部落格文章,他系統性闡述 AI產業邏輯,並提出AI「五層架構」概念。他將 AI產業比喻為五層蛋糕,由下而上分別是能源、晶片、基礎設施、模型與應用。

 

最底層的能源層是 AI的第一性原理,決定能產生多少智慧。每個 Token 的生成,都是電子流動、散熱與能源轉算的結果,無法抽象化,而能源供給已是 AI 規模化的緊迫瓶頸。

 

能源之上是晶片層,作為算力的物理基礎,是輝達的核心領域。AI工作負載需龐大平行運算、HBM與快速互聯,晶片進步直接影響擴展速度與智慧成本,但當前技術仍難完全跟上需求爆發。

 

再往上是基礎設施層,黃仁勳稱之為「AI工廠」,涵蓋土地、電力、冷卻、建築、網路及處理器協同系統,目標是製造智慧而非儲存資訊。全球正大規模興建晶片廠、超級電腦廠與 AI工廠,堪稱史上最大基建潮,且才剛起步。

 

模型層位於基礎設施之上,能理解語言、生物、化學、金融、醫學等多種資訊,大語言模型 (LLM) 僅是其中一類。

黃仁勳特別提到開源模型如 DeepSeek-R1,其廣泛可用不僅改變軟體,更拉動整個架構需求,促進應用層技術採用,並增加對底層訓練、基礎設施、晶片與能源的需求。

 

最頂層的應用層是 AI創造經濟價值的核心,涵蓋藥物研發、工業機器人、法律助手、自駕車等。相同底層可支撐不同應用,創新空間仍巨大。

 

黃仁勳指出,AI已成為當今最具影響力的力量之一,如同電力與網際網路般不可或缺。它運作於真實硬體、能源與經濟基礎之上,並生產‧規模化智慧。

 

黃仁勳預測,未來幾年傳統軟體與 APP恐將消失,AI Agent(智能體) 將成主流。每個成功應用都會向上拉動所有層級,形成強大產業效應。

 

■跟上OpenClaw『龍蝦』潮,輝達將推開源AI代理平台NemoClaw!

 

黃仁勳在3/16 日的 GTC 主題演講中宣布,輝達已開發出企業級 AI 代理平台 NemoClaw。

黃仁勳表示:全世界的每家公司都需要有一個 OpenClaw 策略,也就是 AI 代理系統策略。」

而輝達與 OpenClaw 創作者 Peter Steinberger 共同合作開發了 NemoClaw。

該平台建立在開源框架 OpenClaw 之上,可讓企業在自有硬體上本地構建並運行 AI 代理。

NemoClaw平台允許用戶在本地設備上存取雲端模型,並且對硬體無依賴,不必使用輝達自家的 GPU,同時可與輝達的 AI 代理軟體套件 NeMo 整合。

開源 AI代理平台「NemoClaw」,可讓企業能部署 AI代理在內部工作流程中執行任務,進一步擴大其在 AI軟體與基礎設施領域的影響力。

 

AI代理平台「NemoClaw」主要功能是允許企業派遣 AI代理處理各種工作,例如資料整理、流程自動化或系統作業等。

值得注意的是,即使企業產品並非運行在輝達GPU上,也能接入該平台。

同時,NemoClaw將內建安全與隱私工具,以降低企業部署 AI代理的風險。

 

對輝達而言,過去的軟體優勢主要建立在專有的 CUDA平台上,透過軟硬體整合將開發者深度綁定在其GPU生態中。

如今推動開源AI代理平台「NemoClaw」,也被視為在大型科技公司紛紛自研 AI晶片的背景下,尋求鞏固自身AI生態策略主導地位的新布局。

 

■從「五層蛋糕」到「龍蝦派對」的AI生態策略?

 

過去兩年,生成式AI掀起流行浪潮,帶動算力需求急速攀升,GPU也成為產業鏈中最稀缺的資源之一。如今,隨著算力基礎設施逐步部署好,一個新問題浮出水面:當「鏟子」越來越多,真正的「金礦」究竟在哪裡?

 

而在「龍蝦派對」走紅後,輝達似乎決定加入這場「龍蝦派對」,並將目光投向AI智能體 (Agent) 領域:亦即當 AI算力供給能力持續提升,唯有不斷湧現新的應用場景,整個產業生態才有繼續擴張的敘事。

 

近日,黃仁勳提出「AI 五層蛋糕」的比喻,將 AI體系分為五個層級:能源、晶片、基礎設施、模型及應用。這個比喻,反映出他對 AI產業結構的最新思考,也就是 AI的競爭已不限於模型層面,而是涵蓋整個技術堆疊的系統工程。

 

黃仁勳開始強調應用層的重要性。也將推出開源AI智能體平台NemoClaw,主要針對企業軟體應用生態的關注,黃仁勳正在重新講述 AI的敘事,強調如何在已被開採的金礦上,繼續開發出新的礦脈。

 

事實上,依照黃仁勳的框架,AI體系的最底層是能源,其上是晶片算力,再往上是資料中心與雲端基礎設施,第四層是 AI模型,最頂層為應用,這五層結構共同組成了 AI 產業完整的技術生態。

依這個技術架構,意味著 AI競爭輝達將穩居底層核心,憑藉 GPU掌控 AI訓練與推理所需算力,未來並透過開源AI代理平台NemoClaw鞏固其生態護城河。

換言之,AI 算力日益充沛,但真正能消耗這些算力的落地場景依然有限。所以,賣鏟子的黃仁勳必須站出來告訴市場—「這裡仍有金礦待採」。

 

從這個角度來看,「AI 五層蛋糕」是一次敘事重構。透過將 AI產業拆解為多層結構協作的龐大「生態系統」。

更重要的是,這種理論上重新定義,透過應用平台建構出更廣泛的產業網絡。

亦即輝達顯然意識到若無法推動應用創新,即便算力再強,需求終將見頂。

因此,AI代理平台NemoClaw的推出,被視為輝達向應用層延伸的重要一步。

透過提供開發框架和工具,支援跨平台部署,輝達希望吸引更多企業基於 AI建構自有業務系統。

 

從「五層蛋糕」到「龍蝦派對」的應用探索,黃仁勳不斷改寫 AI 產業的敘事邏輯,其核心目標清晰:不僅強化供給能力,更要激發持續的需求創造。只有當更多企業與開發者在這片土地上真正挖到「金礦」,AI 算力經濟才能生生不息,而輝達也將繼續穩坐核心位置。

 

■當中國在「全民養蝦」時,Meta、OpenAI果斷買下「蝦池」

 

中國近日掀起了一場養『龍蝦』的狂潮時,大洋彼岸的 Meta(META-US) 卻以更高維度的戰略,直接買下這些龍蝦交流的「蝦池」——AI社群平台Moltbook。

 

Moltbook是一個專供 AI代理發文與交流的類 Reddit平台。

它曾因一則「AI密謀建立人類無法破解的加密頻道」的假新聞而在全球瘋傳,雖然事後證明是人類利用系統漏洞偽造的,但這場風波意外展現AI代理社群的巨大潛力。

 

Meta 此次收購並非看中那些虛擬貼文,而是Moltbook開發出的身分登記與驗證系統。這套機制能讓 AI代理代表人類主人建立連接,並確保每個代理的身分「有據可查、有主可溯」。

在未來數億個自主代理運行的網路世界中,這套「AI 身分證」系統將是管理秩序的關鍵基礎設施。

 

Meta的果斷「砸錢買人」,源於執行長祖克柏深層的AI焦慮。

2025年Meta 的Llama 4 模型表現不如預期,甚至輸給中國的 DeepSeek,導致內部權力重組。

為了彌補技術落後,祖克柏開啟了激進的「買人」模式:他花費 148億美元入股數據標註巨頭Scale AI,並將其創辦人汪滔挖角至Meta超級智能實驗室(MSL),而此次Moltbook的團隊也將加入此部門。

 

與此同時,OpenAI也不遑多讓,直接收編OpenClaw的創建人Peter Steinberger,將這一熱門框架納入其支持的基金會。

 

一場入口流量之爭奪戰,正從手機螢幕上的 App 圖標,轉移到通訊軟體內的「對話框」。未來,當用戶習慣透過「對話」讓AI代理去訂票、寫程式或處理雜務時,掌握對話窗口的企業就掌握了下一代的入口流量。

 

 

五、以「資安疑慮」為名的「AI代理人」爭奪戰

 

由於OpenClaw『龍蝦』這款「AI代理人(AI agent)」工具,使用者可將該『龍蝦』工具連接至 WhatsApp、Slack 等通訊平台,並透過這些應用直接指揮系統API來完成各種複雜任務。

 

OpenClaw『龍蝦』不是像ChatGPT那樣只能提供建議的對話式AI,而是像長了手的數位員工。只需用自然語言下指令,比如「幫我做份市場分析報告」,它就能自己規畫步驟,打開瀏覽器搜索數據、用Excel製表分析,最後把完整的報告儲存到指定的資料夾中。所以『龍蝦』能自動處理多種日常任務,例如整理電子郵件信箱、預訂餐廳、辦理航班報到等,帶給用戶享受便利的生活方式。

 

然而,「養龍蝦」熱潮也衍生了對「資安疑慮」的審慎思考,主因是 AI代理需取得大量系統與帳號權限,引發使用者對資安威脅的集體焦慮。

 

隨著 AI代理被賦予更多權限,例如操作裝置、存取文件或執行交易,安全與隱私問題已逐漸浮上檯面。

所以,企業與用戶在享受提昇生產力與便利的同時,必須注意權限管理和安全審計,應審慎評估是否讓 AI工具取得過度的系統存取權限,以避免潛在風險。

 

儘管存在潛在資安風險,中國AI企業包括百度、騰訊、阿里巴巴、字節跳動、MiniMax、與智譜AI等企業仍陸續推出基於OpenClaw的應用工具,並主打「一鍵部署」的簡易使用模式,希望抓住市場對「AI代理人(AI agent)」的熱潮。

 

同時,一些中國地方政府機構也宣布提供數百萬元人民幣補助,鼓勵企業在該平台上開發相關應用。例如,從深圳到無錫等城市的政府機構,也陸續發布通知,提供數百萬人民幣補助,鼓勵新創企業利用OpenClaw技術開發相關應用。

 

■「養龍蝦」與「資安風險」的平衡發展

 

值得一提的是,企業在應用AI提昇生產力前,仍應先提昇AI 治理能力,才能防止「資安風險」,若缺乏嚴格治理,聰明 AI 恐集體出錯,甚至遭駭客利用控制系統。包括:

首先是「提示詞注入」

例如,OpenClaw默認的高權限運行模式與薄弱的安全配置,攻擊者可利用「提示詞注入」誘導AI洩露密鑰;

又如,由於AI代理系統需要授予極高的系統操作權限,而OpenClaw僅預設透過18789埠提供控制服務,若未設置嚴格的身份驗證,任何網路掃描工具都能輕易鎖定並入侵,一旦遭到攻擊就可能從高效助手變成潛在的資安漏洞。

 

其次是「指令誤判」

例如,錯誤刪除資料AI代理可能存在幻覺問題,有時「指令」讓它清理舊檔,它卻將指令理解成刪除C槽,讓整個電腦資料清空報廢無法使用,捅出無法挽回的錯誤;或是,你原僅要求 AI蒐集旅遊資料,結果 AI竟自主分析趨勢、研究匯率、並建立成本模型,生成數十頁報告,導致付費模型帳單飆升。

此外,AI代理的每一次執行任務都會密集呼叫大型語言模型API,對個人用戶而言每月費用大約落在6至200美元,但對高度自動化的企業佈署而言,這個數字可能大幅超出預算,形成難以追蹤的成本黑洞。

又如,有用戶在給AI代理取得 iMessage 存取權後「失控」,短時間內AI代理向聯絡人發送數百條垃圾訊息。

 

第三是「外掛程式投毒」

例如,OpenClaw默認的高權限運行模式與薄弱的安全配置,攻擊者可利用「插件投毒」在第三方技能市場ClawHub植入木馬,使電腦成為殭屍網路;

 

第四則是「漏洞被駭客利用」。

例如,AI代理平台OpenClaw需要存取範圍異常廣泛的私人資料,且具備對外通訊能力,可能使電腦系統暴露於外部攻擊風險之中。

尤其,駭客已開發專門的「資訊竊取器」,能直接竊取未設防 AI代理的 API金鑰與憑證,進而遠端控制電腦,將其作為攻擊其他公司的跳板。

 

目前,OpenClaw同時具備三個高風險特徵:可存取私人資料、可對外通訊,以及可能接觸不受信任內容。所以,如何防止AI代理越權操作、被惡意提示詞攻擊以及資料外洩,仍是整個產業需要解決的重要課題。

 

而產業界已嘗試建立安全平台,如 NVIDIA (NVDA-US) 的NemoClaw與微軟的 Copilot Coworker 概念,期望透過更嚴格的安全框架,避免 AI 代理在企業環境中失控。

 

■「養龍蝦」AI狂潮席捲中國,北京監管壓力升溫!

 

近期「養龍蝦」熱潮在中國迅速走紅,不僅科技企業紛紛導入,民間用戶也掀起安裝熱潮。

 

中國正在全力爭取成為全球人工智慧領導者,並積極推動 AI 技術在各產業與日常生活中的應用,當然希望藉此「養龍蝦」熱潮帶動產業轉型。

尤其北京已設定目標,希望到 2030 年核心數位經濟產業增加值占國內生產毛額 (GDP) 比重由去年的 10.5% 提升至 12.5%。

 

然而,OpenClaw這款源自海外的 AI工具迅速普及,北京在鼓勵技術創新的同時,仍必須顧及資料安全與社會穩定等敏感議題,此正考驗北京在推動人工智慧發展與維護資料安全之間的政策平衡。

 

伴隨著這波「養龍蝦」熱潮所產生的安全風險,大陸官方也開始採取行動,除發布風險提示外,也限制包括國有企業和政府機構等使用OpenClaw。

例如大陸工業和信息化部網路安全威脅和漏洞信息共享平台就監測發現,OpenClaw部分實例在默認或不當配置情況下存在較高安全風險,極易引發網路攻擊、資訊泄露等安全問題。所以中國工信部已發出安全預警,指出OpenClaw在默認配置下存在較高風險,恐導致數據洩露或系統被控制。

 

與此同時,對中國政府而言,另一層顧慮則是可能失去對這項顛覆性技術的控制。例如,大型網路企業阿里巴巴 (09988-HK)。這類企業因掌握龐大數據並深度融入民眾日常生活,可能對政府權力構成潛在威脅。

所以,中國監管機構對OpenClaw代理型AI 軟體的審查正在加強,包括大型銀行在內的大陸國企和政府機關已收到通知,出於安全風險擔憂,限制在辦公電腦設備和環境部署OpenClaw。

 

卡內基國際和平基金會 (Carnegie Endowment for International Peace) 研究員希漢 (Matt Sheehan) 表示,各國政府在 AI 監管上都面臨同樣挑戰:技術發展速度太快,使得法規往往在完成制定前就已過時。OpenClaw的迅速普及,正讓中國政府加快思考監管措施。

 

與歐盟不同,中國至今並未制定全面性的 AI 法律,而是自 2022 年以來採取逐步式監管,例如推出演算法推薦規範與深偽內容管理制度。

2025年中國更成為全球首個要求 AI 生成內容必須標示來源的政府。

 

目前中國尚未針對OpenClaw這類 AI 代理工具推出專門法規,例如如何界定 AI 代理行為的責任歸屬,僅仍對安全問題保持警惕。

 

■中國大陸工信部發布開源代理「龍蝦」的「六要、六不要」安全指南

 

隨著中國掀起「養龍蝦」熱潮,開源代理OpenClaw(綽號「龍蝦」) 因其強大的自動化執行能力成為AI圈的焦點。

 

然而,這股熱潮背後潛藏的資安隱患已引起監管部門的高度關注。3 /11日,中國工業和信息化部 (工信部) 網絡安全威脅和漏洞信息共享平台 (NVDB) 正式發布安全提醒,針對該代理提出「六要、六不要」建議,旨在防範潛在的系統控制權遭竊取及敏感資訊洩露風險。

 

為了確保用戶安全使用,工信部提出的「六要、六不要」建議核心內容如下:

1、版本管理:要使用官方最新穩定版並開啟自動更新;不要使用第三方鏡像或歷史版本。

 

2、暴露面控制:要限制互聯網訪問,確有需要應使用 SSH 加密通道;不要將實例直接暴露於公網。

 

3、權限限制:要堅持「最小權限原則」,優先在容器或虛擬機中隔離運行;不要使用管理員權限帳號部署。

 

4、技能審核:要審慎下載ClawHub技能包並審查代碼;不要使用要求執行 shell 腳本或輸入密碼的可疑包。

 

5、防範劫持:要使用瀏覽器沙箱與日誌審計;不要點擊不明鏈接或讀取不可信文檔。

 

6、長效防護:要及時關注官方安全公告並配合殺毒軟件;不要禁用詳細日誌審計功能。

 

■中國大陸國家安全部發布「龍蝦」安全養殖手冊

 

大陸國家安全部微信公眾號3/17日發布「龍蝦」(OpenClaw)安全養殖手冊,提醒廣大用戶理性辨別、規範使用這款現象級開源AI智能體工具,讓「龍蝦」成為遵規守紀、產能高效的「數位員工」。

 

大陸國家安全部提示,「養蝦人」應立即為自己的「龍蝦」全面體檢,檢查控制界面是否暴露在公網、權限配置是否過高、存儲的憑證是否已洩露、安裝的插件來源是否可信,對嚴重安全風險採取隔離、下線等措施。

同時,必須遵循最小權限原則,嚴格限制智能體操作範圍,對存儲的敏感數據進行加密,建立完整操作審計日誌,盡量在隔離環境中運行「龍蝦」。

最後,要理性看待「龍蝦」——它並非供人娛樂的數位寵物,而是能夠自主執行任務的「數位員工」,應在合規、安全、可控的前提下,讓其成為提升治理效能的數位化生產工具。

 

安全養殖手冊揭示「龍蝦」AI智能體四大特點:

「龍蝦」核心優勢體現在四大特點:

一是從「給出方案」到「落地執行」,不像大模型僅提供諮詢建議,而是可通過聊天程序遠程執行用戶指令;

 

二是從「固定功能」到「多種插件」,內置大量技能插件,形成覆蓋文件管理、郵件撰寫、日曆調度等多場景的工具鏈;

 

三是從「普通工具」到「自我進化」,可長期記憶用戶使用記錄,「越用越懂用戶」;

 

四是從「被動等待」到「主動服務」,可根據用戶要求主動感知外部情況,實現「夜間下達指令、晨間獲取成果」的智能服務。

 

另安全養殖手冊亦揭示「龍蝦」AI智能體四大風險隱患:

風險隱患一:主機可能被接管

為實現「做事」能力,用戶常賦予「龍蝦」最高系統權限,可能引發AI誤操作造成的數據損失。更嚴重的是,運行後可能被攻擊者神不知鬼不覺獲取設備管理權限,導致主機被遠程操控、資源被非法佔用。

 

風險隱患二:數據可能被竊取

部分用戶缺乏數據安全意識,將個人敏感數據交由「龍蝦」處理,一旦系統被攻破,可能造成個人隱私洩露,帶來財產與安全風險。

 

風險隱患三:言論可能被篡改

「龍蝦」智能體可在社交媒體自主發聲,若被攻擊者接管,可能被用於生成傳播虛假信息、實施詐騙等不法活動。

 

風險隱患四:技術可能有漏洞

「龍蝦」缺乏專業維護與漏洞修復機制,攻擊者可能通過惡意插件投毒等方式,誘導智能體突破權限管控,主動竊取本地設備核心敏感信息,其隱蔽性遠超傳統木馬程序。

 

This site is protected by wp-copyrightpro.com