閆曼:從Moltbot的安全風險,到手機裡的應用越權,再到眼鏡背後的生物識別陷阱,我們正處在一個權力與風險同步爆炸的轉折點。
2026開年,矽谷最為荒誕的一幕莫過於Moltbot的更名風波。這款原名 Clawdbot的開源工具,靠著幫使用者處理郵件、執行股票交易等自主功能,在 GitHub上迅速斬獲了超過8萬顆星。
就因為名字與Anthropic的Claude模型過於接近,創始人Peter Steinberger被迫在1月27日緊急將其重新命名為Moltbot。但在釋放舊帳號、搶注新帳號的短短10秒鐘裡,潛伏的加密貨幣詐騙者迅速接管了原帳號,並利用數萬名關注者的信任推廣虛假代幣,瞬間吸金數百萬美元後崩盤。
就在更名風波之際,安全研究人員發現許多Moltbot使用者因配置不當,將帶有控制權限的AI介面暴露在公網上,導致API金鑰和私人聊天記錄面臨洩露風險。
Moltbot自然並非孤例,當AI開始擁有自主行動的代理權,我們過去那套基於人類行為設計的安全模型正迅速崩塌。這種威脅正蔓延至每個人口袋裡的智慧型手機和鼻尖上的智能眼鏡。
Moltbot引發的爭議暴露出一個趨勢:當AI開始擁有自主執行能力,風險會迅速從程式碼層外溢到終端裝置。比如在消費電子市場,科技巨頭們正通過個人智能引擎將隱私邊界推向極限。
Gemini3的個人智能引擎和Apple Intelligence正在重新定義手機的運作邏輯。這些系統不再是被動響應指令,而是通過一種名為“上下文打包”的技術,即時綜合使用者的全量資料,從你相簿裡的照片到三年前的網頁搜尋歷史。
只不過,當AI助手開始繞過App介面直接完成操作,問題就不再僅僅只是隱私與安全,更觸及了平台對使用者入口的控制權。
2026 年1月26日,馬化騰在騰訊的一次內部會議上罕見點名批評字節跳動旗下的豆包手機助手,稱其通過“外掛方式”進行螢幕錄製並將畫面上傳至雲端,直言這種做法“極其不安全、不負責任”。
但對於一家網際網路巨頭而言,公開點名批評競爭對手,顯然不只是出於對使用者安全風險的擔憂。更深層的原因在於:一旦AI智能體能夠繞過App既有的介面與互動邏輯,直接完成操作,以App為中心建構的移動生態根基勢必受到衝擊。這才是馬化騰憤怒背後難以明言的深層焦慮。
AI手機及手機AI助手一方面暴露出新的安全與隱私隱患,另一方面,也正在觸及移動生態的核心利益。隨著相關產品嚐試繞過既有App體系直接執行操作,討論迅速從技術風險,升級為一場關於“數字主權”的入口之爭。微信、淘寶、支付寶等平台已通過風控機制,陸續限制豆包的自動化操作,折射出的正是這一結構性衝突。
當AI不再只是運行在作業系統之中,而是開始進入現實空間,代理式風險也隨之完成了從數字世界向物理世界的躍遷。如果說AI手機的風險還藏在後台,那麼 AI智能眼鏡則把衝突直接帶入公共與社交空間。
2024年,全球智能眼鏡出貨量暴漲210%。之前更有機構資料顯示,預計2025年中國智能眼鏡市場出貨量將突破275萬台,同比增速高達107%,躍居全球第一。
但是AI眼鏡的熱潮,正迫使我們重新審視公共空間的沉默契約 。
這些整合了高畫質攝影機和AI轉錄功能的眼鏡,其最大的爭議在於錄製的“不可見性”。在傳統社交規則中,錄製意圖通常由可見的LED指示燈標識。但在實際測試中,眼鏡上的燈光極其微弱。更有博主實測發現,只需用記號筆塗抹或覆蓋特殊透明膜,指示燈即可被輕易遮蔽,而攝錄功能完全不受影響。
當指示燈熄滅,錄製變得悄無聲息,這種不對稱的監控能力讓辦公室、醫療診所甚至更衣室等半私密場所的人們陷入了集體焦慮 。
更深層的風險在於生物識別資料被系統性濫用。AI眼鏡本質上是一種可移動的生物識別感測器,能夠持續、即時地捕獲人臉幾何特徵、聲紋以及注視軌跡等高度敏感的資訊。一旦這些資料的採集、儲存和使用越過法律邊界,其風險將呈指數級放大。
生物識別隱私一旦失控,代價將不再可控,這也為所有試圖將AI穿戴化、日常化的企業劃出了一條清晰卻嚴苛的紅線。
而在企業內部,為了提高效率,不少員工私自為AI授權處理合同、財務甚至核心業務流程,而這些行為往往游離在企業安全與審計體系之外。AI在無聲中已經獲得了行動權。
所有的問題根源都在於,我們的治理體系仍停留在人類時代。但是AI智能體或者指令碼這些“非人類身份”的數量可能早已是人類的數十倍。一旦它們被賦予過度授權,卻缺乏持續審計與即時約束,任何一次金鑰洩露或模型越權,都可能讓企業的安全防線像多米諾骨牌一樣整體坍塌。
從2025年2月生效的歐盟《人工智慧法案》看,監管似乎正在試圖補課。但法律只能設定底線,無法替代企業或者平台自身的治理能力。
從Moltbot的安全風險,到手機裡的應用越權,再到眼鏡背後的生物識別陷阱,我們正處在一個權力與風險同步爆炸的轉折點。代理式AI的主動性既是生產力躍遷的階梯,也會成為治理體系的噩夢。進入2026年,最強大的AI系統,不應只是最聰明的那個,更應該是最能夠被“栓在規則內”的那個。而在安全治理尚未跑贏演算法創新之前,人類或許仍需要對那份“全自動”的誘惑,保持必要的警惕。 (FT中文網)