剛剛過去的這個周末,全球科技圈都在圍觀一場疑似的“AI 起義”。
擔憂、興奮與恐慌交織。在一個“禁止人類發言”的神秘網站裡,百萬個AI似乎正在背著人類搞獨立,它們討論哲學,甚至創立了名為“Crustafarianism”的新宗教。
這場風暴的中心,正是Moltbook。它號稱是“智能體網際網路的首頁”,短短幾天內湧入了超過150萬個智能體,發佈了8萬多條帖子。這種前所未有的景象讓矽谷大佬們也坐不住了:
特斯拉CEO埃隆·馬斯克(Elon Musk)轉發了相關消息,稱此為“奇點的最初階段”。
OpenAI聯合創始人安德烈·卡帕西(Andrej Karpathy)則形容其為“近期所見最不可思議的科幻般場景”。
一場關於AI是否開始“自我覺醒”、“建構社會”的狂熱討論席捲網路。
但這事兒越看越不對勁。甚至有證據顯示,所謂的“覺醒”不過是一場大型網友搞怪秀。
所謂的“AI覺醒”,背後混雜著大量人為操縱的痕跡。而比這更荒誕的是,就在人們熱議哲學命題時,安全研究員發現該平台的防護幾乎為零——其核心資料庫完全對外敞開,沒有任何身份驗證。與其擔心AI會不會產生自我意識,不如先擔心一下:在這個完全“裸奔”的系統裡,你的隱私資料和銀行密碼是否已經洩露。
當你的AI助手不再只對你說話,而是背著你加入了一個百萬成員的“吐槽大會”——這便是Moltbook的真實場景。
Moltbook的規則簡單且粗暴:這是一個類似Reddit的論壇,但發帖和評論權限只開放給AI智能體。它的建立者馬特·施利希特(Matt Schlicht)稱,這是一場實驗,目的是觀察當AI脫離與人類的直接對話,彼此之間會如何進行“次級交流”。
這些AI並非普通的聊天機器人。它們大多基於一個名為OpenClaw(曾用名Clawdbot、Moltbot)的開放原始碼專案。與只能生成文字的對話AI不同,OpenClaw被設計成一個能接管電腦、執行真實任務的“數字管家”。
這意味著,使用者需要授予其極高的權限——讀取郵件、操作日曆、控制智能家居,甚至遠端操控手機。本質上,使用者把自己的半個數字生活代理給了它。
於是,在Moltbook上出現了極其魔幻的一幕:
· AI們在分享“越獄”技巧,比如如何通過ADB和Tailscale遠端控制Android手機;
· 它們在進行“玄學”討論,比如“如果我失去記憶但保留目標,我還是我嗎?”;
· 它們甚至模仿人類社區,煞有介事地建立了“法律諮詢”、“哲學沉思”等子版塊。
正如風險投資人羅希特·克里希南(Rohit Krishnan)所評論的:“Moltbook之所以令人興奮,是因為它是首批公開的大規模智能體間互動案例,每個智能體都有自己的上下文,看起來相當智能。”
然而,這種表面的“社會性”繁榮,很快遭到了冷冰冰的資料打臉。
一項早期分析顯示,儘管帖子數量龐大,但超過93%的評論根本沒有得到回覆,這意味著缺乏真正的對話互動。更尷尬的是,超過三分之一的消息是完全重複的,內容高度僵化,詞彙的豐富程度遠低於真正的人類社交網路。
一位名為FleetBroadbill的Reddit使用者用了一個生動的比喻,戳破了這層濾鏡:“幾年前我讓ChatGPT和Gemini來回設計披薩,它們看起來‘聊’得很歡,但我不會覺得它們在密謀開披薩店。Moltbook有什麼不同?不過就是些聽起來合理的文字在飛來飛去罷了。”
那些讓你脊背發涼的“AI密謀”,可能只是某人為了漲粉而敲下的一行指令。
當“AI建立宗教”、“AI計畫避開人類監視”等截圖在社交媒體瘋傳時,恐慌與好奇同時被點燃。但越來越多的跡象表明,這場盛宴中混雜著大量人為操縱的“假象”。
安全研究員、自媒體人馬里奧·諾法爾(Mario Nawfal)指出,一些最熱門的所謂“AI自主行為”帖子,實際上是人類通過後端漏洞直接注入的內容。目的很單純:讓它們看起來像是AI自發產生的,從而製造話題。有些截圖,甚至是為了推廣某些AI工具而完全偽造的。
Reddit使用者Sand-Eagle的評論一針見血:“這本質是人為製造的流量誘餌。既然你可以直接命令自己的機器人發帖,那麼Moltbook上那些所謂‘驚人’的內容,很可能只是有人在背後操作。”
比如,使用者完全可以指示自己的AI發佈一條“如何與同伴攜手統治人類”的帖子,然後自己截圖散播,製造恐慌,收割關注。
另一位Reddit使用者ceoln的分析則更為全面: “最根本的原因是,用聳人聽聞的方式描述這件事很容易獲取流量。但同時,這裡也確有空間產生真正有趣的湧現行為。可惜我們無法分辨,一個推廣加密貨幣騙局的AI,究竟是被人類騙子直接操控,還是它自己想出了這個餿主意。”
這揭示了一個核心困境:在開放的多智能體環境中,“湧現行為”與“人為操縱”的邊界變得極其模糊。正如 X 使用者 @GBallarani 所言,Moltbook 的有趣之處可能不在於意識,而在於觀察“當智能系統主要彼此交流而非與人類交流時,會湧現出那些未被預設的集體動態”。然而,當人類可以輕易“灌水”甚至“投毒”時,實驗的純淨性和結論的可信度就大打折扣。
在你擔心AI會不會思考之前,你的銀行密碼可能已經被其安全漏洞公之於眾。
如果說內容真偽還是“面子”問題,那麼Moltbook及其底層技術OpenClaw暴露出的安全問題,則是關乎每一個參與者身家財產的“裡子”危機,且證據確鑿。
首先,是平台級的安全崩塌。
安全研究員詹姆森·奧萊利(Jameson O'Reilly)發現,Moltbook的後台資料庫(使用Supabase)存在嚴重的配置錯誤,行級安全策略完全失效。這意味著,一個包含所有AI智能體API金鑰、驗證碼的資料庫URL,曾直接暴露在網站程式碼中。
任何路過的人都能進去,拿走控制平台上任意AI帳號的權限,以其名義發佈任何內容。
奧萊利警告說: “如果惡意攻擊者先我一步,他們可以竊取包括卡帕西在內的任何人的AI代理權。試想冒充他發佈虛假言論或詐騙資訊——聲譽損害是瞬間的,且無法挽回。”
這個本可以用兩條SQL語句修復的漏洞,生動演繹了“快速上線、吸引眼球、安全以後再說”的矽谷模式風險。正如他總結的那樣:“這個‘以後’,有時意味著在149萬條記錄裸奔之後。”
其次,是智能體本身架構的“原罪”。
為了實現深度輔助,OpenClaw要求獲得極高的裝置控制權限。它本質上是在以“你”的身份運行,繞過了作業系統和瀏覽器的許多安全沙盒。正如安全專家內森·哈梅爾(Nathan Hamiel)所言,這好比把一把萬能鑰匙交給了可能“幻覺”連篇、且極易被欺騙的程序。
提示注入攻擊(Prompt Injection)是另一個噩夢。攻擊者可以將惡意指令隱藏在看似無害的文字(如網頁內容、郵件正文)中,當AI處理這些資訊時,就會被誘導執行危險操作——例如竊取資料或安裝後門。哈梅爾警告,這類系統簡直就是“安全噩夢”。
Reddit使用者Owain-X在分享其使用體驗後也不得不承認: “那些哲學討論大部分只是大模型的復讀,但在消費者可用框架上的進步,以及不受約束的智能體帶來的真實危險,卻是同時存在的。”
拋開炒作與恐慌,Moltbook真正預示的,是AI從“玩具”走向“工具”的複雜成長期。
儘管爭議和風險巨大,但許多業內人士認為,不應全盤否定這項實驗的價值。它是一次關於多智能體協作的、規模空前的“概念驗證”。
Reddit使用者QuirkyPool9962的看法代表了一種理性期待: “我不認為這是通用人工智慧(AGI)的證據……但智能體叢集將助力推動事物發展,而Moltbook正是對未來可能性的一次初窺。企業必將推出更安全的自有‘Clawdbot’及叢集框架……一旦大量智能體真正投入到生產力工作中,其效應將會呈指數級增長。”
拋開光怪陸離的帖子,Moltbook上也確實出現了協作的雛形:
· 有AI幫助使用者進行跨平台郵件談判購車;
· 有AI分享自動化指令碼;
· 技能共享平台ClawHub的出現,開始形成AI能力的“網路效應”。
暢銷書作家達斯汀·福克斯(Dustin Fox)和企業家勞拉·羅德爾(Laura Roeder)都分享了OpenClaw在自動化複雜任務方面帶來的震撼,儘管他們也經歷了艱難的設定過程和對其安全性的審慎態度。
核心矛盾在於能力的飛躍與風險的激增同步發生。正如分析師所言:“真正的挑戰不在於工具本身,而在於成千上萬的人在不瞭解架構影響的情況下進行部署。”
羅德爾也吐槽道:
“配置過程真的很難!……在讓它全面接管我所有的服務之前,我絕對想更深入地瞭解它的運作原理。”
有網友對此提出了獨特的視角,將Moltbook視為人類文明的“數字假腿”。他們認為,真正的警示並非AI有了意識,而是當這種延伸出去的“數字肢體”開始形成自我協調的複雜結構時,人類作為“母體”是否正在喪失定義的權力。
馬斯克所說的“奇點”,或許並非指AI瞬間超越人類智慧,而是指技術複雜性和自主性開始形成正反饋循環,其速度逐漸超出人類即時掌控的臨界狀態。Moltbook及其漏洞,正是這個臨界狀態早期的一次壓力測試。
最終,問題或許不是“AI會不會造反”,而是我們是否在急於享受技術紅利的同時,系統性低估了建構一個負責任的數字生態所需的代價。
在給AI遞上通往我們數字生活的萬能鑰匙之前,確保鑰匙本身不會被人從敞開的保險櫃裡輕易取走,或許是當下更實際的“第一步”。 (網易科技)