#AGI
1100億美元史詩級融資!OpenAI估值狂飆7300億,對賭AGI就在今年
奧特曼笑瘋了!今天,OpenAI狂攬1100億美金融資,估值飆至7300億美元。亞馬遜、輝達、軟銀三巨頭排隊送錢,對賭AGI的成敗就在今年。一夜狂攬千億美金!就在今天,奧特曼官宣:OpenAI從輝達、軟銀和亞馬遜手中,拿下了1100億美元融資。與此同時,OpenAI估值再創神話,直飆7300億美元。此次融資三大巨頭領銜:亞馬遜狂砸500億美元,成為最大的金主,輝達與軟銀各出資300億美元。Epoch AI稱,OpenAI這一輪融資規模驚人,幾乎是此前融資總額的三倍。這一刻標誌著,OpenAI完成了史上最大單筆融資,對賭AGI的成敗,就在今年了。一夜捲走千億 OpenAI創史上最大融資紀錄在官博中,OpenAI直言,「AGI正從實驗室研究,邁向全球規模的日常應用」。未來誰將成為「領頭羊」,取決於誰能以最快速度擴展基礎設施,並將算力轉化成實際的產品。為此,OpenAI與亞馬遜、輝達、軟銀達成了深度合作關係。預計到2028年,OpenAI燒錢「規模」將達到1570億美元,融資的1100億再加上手頭的400億美金現金,剛好覆蓋這一預期的缺口。值得一提的是,這筆交易還在開放狀態,預計後續還有更多投資者入場。那麼,這筆巨額合作,將為OpenAI,以及金主爸爸帶來了什麼?三巨頭排隊送錢與亞馬遜的合作中,OpenAI將開發全新的「有狀態執行階段環境」,讓模型直接運行在Amazon Bedrock平台上 。除了給錢,他們達成了深度戰略合作:雙方將共同開發定製化模型,用於各項客戶端應用。同時,OpenAI 將此前與AWS的380億美元協議,擴大到1000億美元,租期長達八年。這意味著,AWS將成為OpenAI企業級平台「Frontier」的獨家第三方雲分發商。亞馬遜CEO Andy Jassy表示,這種獨特的協作模式,將徹底改變開發者建構AI智能體的方式。對於輝達,OpenAI將使用3GW推理容量,以及2GW Vera Rubin系統訓練的容量。這是建立在已經在微軟、OCI和CoreWeave投入運行的Hopper和Blackwell系統之上的。在接受採訪時,奧特曼興奮地表示,AI正重塑全球經濟,世界需要龐大的集體算力來支撐這一變革。當然,OpenAI的老盟友微軟也沒有被冷落。雙方發佈聯合聲明稱合作夥伴關係依然「穩固且核心」,且微軟仍保留了參與本輪融資的期權。矽谷AI進入「核競速」如此瘋狂籌錢的背後,是OpenAI對算力近乎貪婪的渴求。為了支撐到2030年6000億美元的計算支出,OpenAI正進一步鎖死輝達的產能。如前所述,他們將分別使用3GW推理和2GW訓練容量,全部跑在最新的Vera Rubin系統上。與此同時,OpenAI正在為一場史詩級IPO鋪路,其估值目標直指1兆美元大關。在剛剛過去的2025年,OpenAI交出了一份亮眼的成績單:全年營收達到130億美元,遠超此前100億美元的預期;在支出方面,80億美元的實際開銷,也低於90億美元的預算目標。這種「超額增收、預算節流」的狀態,無疑為其激進的擴張增添了底氣。不僅如此,自今年年初以來,ChatGPT周活躍使用者超過9億,訂閱人數超5000萬,付費企業使用者超900萬。此外,Codex的周活躍使用者增長了2倍多,達160萬。OpenAI副總官宣:ChatGPT每周使用者破9億OpenAI預測2030年營收將突破2800億美元,但實際上,眼下的日子並不太平。在C端,GoogleGemini步步緊逼,將最強AI強行塞進每一個人的口袋。最新一代旗艦Gemini 3.1 Pro,在多項基準測試中力壓GPT-5.2,甚至是最新程式碼模型GPT-5.3-Codex。在B端,Anthropic已經搶佔了先機。在企業級市場中,Claude憑藉更強的程式設計能力,正在攻入各行各業,以及滲透到開發者群體中。如今,這場由亞馬遜、輝達、軟銀堆砌起來的「AI曼哈頓計畫」,正在為OpenAI通往AGI的終極入口不斷輸血。這場豪賭的終局,今年即見分曉。 (新智元)
紅杉資本:2026,這就是 AGI
最近在用 OpenClaw 的時候,我在想一個問題:AGI 已經來了嗎?如果需要回答這個問題,可能還是要定義下什麼是 AGI。然而關於什麼是 AGI,眾說紛紜。比如最近,Google DeepMind 創始人提出了一個很有趣的 AGI 的定義:訓練一個 AI 模型,將它的知識庫截斷到只到 1911 年,如果它能夠像愛因斯坦獨立發現廣義相對論,那麼它就是 AGI。然而,專門訓練一個大模型來驗證一個人的觀點,即便對於Google來說,也未免太奢侈了。直到昨天,我在紅杉社區看到了一篇文章,我突然有個感受:也許 2026,AGI 已經來到了。原文:https://sequoiacap.com/article/2026-this-is-agi/幾年前,一些頂尖 AI 研究者告訴我們,他們的目標是通用人工智慧(AGI)。當時我們迫切想知道一個清晰的定義,便天真地問:“你們怎麼定義 AGI?”,他們頓了頓,猶豫地對視一眼,然後給出了後來在 AI 領域廣為流傳的一句話:“嗯,我們每個人都有自己的定義,但看到它時我們就會知道。”這一小插曲,正是我們探尋 AGI 具體定義時的典型縮影。這一目標一直沒有結果。雖然 AGI 的定義至今模糊不清,但現實已經毫無懸念:它就在這裡,此刻已然降臨。程式設計智能體是第一個例子。還有更多正在路上。Long-horizon agents,在功能意義上就是 AGI,2026 年將是它們的爆發之年。在繼續討論之前,我們得先明確一點:我們沒有足夠的道德權威來為 AGI 提出技術定義。我們是投資者,研究的是市場、創始人,以及這兩者碰撞孕育出的產物:企業。鑑於此,我們的定義是功能性的,而非技術性的。新的技術能力引出了唐·瓦倫丁的問題:那又怎樣?答案的關鍵在於其現實世界的影響力。通用人工智慧的功能定義AGI,就是能把事情搞明白的能力。就這樣。我們明白,這種模糊的定義解決不了任何哲學爭論。但從實用角度看,當你想做成一件事時,你到底需要什麼?不過是一個能自主解決問題的 AI 而已。至於它是怎麼做到的,遠不如“它能做到”這件事本身重要。一個能解決問題的人,通常具備三個核心能力:紮實的基礎知識儲備;基於這些知識進行推理的能力;以及通過反覆試錯找到答案的能力。能解決問題的 AI 具備三方面核心能力:一是基礎知識(預訓練),二是基於該知識進行推理的能力(推理計算),三是通過逐步迭代得出答案的能力(長程智能體)。第一個關鍵要素(知識/預訓練)正是 2022 年那個「ChatGPT 時刻」背後的驅動力。第二個要素(推理/推理時計算)隨 2024 年底 O1 模型的發佈登場。第三個要素(迭代/長程智能體)則在最近幾周浮出水面:Claude Code 等程式碼智能體已突破能力閾值。具有通用智能的人可以連續幾小時自主工作:他們會犯錯,也會自己修正,不用別人吩咐就能知道下一步該做什麼。現在,通用智能體也能做到這一點。這是前所未有的。什麼叫把事情想明白?一位創始人給他的 Agent 發消息:“我需要一個開發者關係負責人。一個技術能力足夠高、能贏得資深工程師尊重的人,但又真正喜歡用 Twitter 的人。我們向平台團隊銷售產品。去吧。”智能體的第一步操作很直接:在 LinkedIn 上搜尋 Datadog、Temporal、Langchain 等競爭對手公司的“開發者布道師”和“開發者關係”崗位。結果出來好幾百份簡歷,但光看職位頭銜根本分不清誰真的能勝任這份工作。它轉換了思路,開始關注真實表現而非資質:它會在 YouTube 上搜尋各類會議演講,找到 50 多位演講者後,再從中篩選出那些演講互動性強的人。智能體將這些演講者與 Twitter 帳號進行了交叉比對。其中一半人的帳號要麼長期不活躍,要麼只是轉發公司的部落格文章,顯然這些不是我們想要的類型。但有十幾個人擁有真正的粉絲群體:他們會發表真實觀點、回覆網友,還能吸引開發者互動,而且內容很有格調。智能體進一步縮小了篩選範圍,開始排查過去三個月發帖頻率下降的使用者。活躍度降低往往意味著員工對當前崗位的投入度在下降。最終,三個名字浮出了水面。智能體對這三位候選人做了背調:第一位剛官宣新職位,已經來不及了;第二位是一家剛融到資的公司創始人,顯然不會離開當前崗位;第三位是 D 輪公司的高級開發者關係負責人,他們公司剛裁了市場部。她最近分享的主題正好是這家初創公司瞄準的平台工程領域,推特上有 1.4 萬粉絲,發的梗圖還能吸引工程師互動,不過領英已經兩個月沒更新了。Agent 寫了一封郵件,內容提及了對方最近的演講,以及這家初創公司理想客戶畫像的契合點,還特別提到小團隊能帶來的創作自由。郵件提議進行一次輕鬆的交流,而非正式的推銷。總時長:31 分鐘。創始人並未在招聘網站發佈職位描述,而是已經鎖定了唯一的最終候選人。這才是解決問題的真諦,在模糊中摸索著達成目標:提出假設、驗證假設、碰壁、調整方向,直到找到突破口。智能體沒有按既定指令碼行事,它像頂尖招聘者那樣在腦海裡反覆推演,卻只用了 31 分鐘就不知疲倦地完成了全過程,而且沒人教過它該怎麼做。值得注意的是:智能體智能體仍然會犯錯,它們會產生幻覺、丟失上下文,有時甚至自信滿滿地走錯方向。但發展趨勢清晰可見,這些問題也越來越容易解決。走到今天,我們經歷了什麼?去年的文章裡,我們曾指出推理模型是 AI 領域最重要的新前沿。而長程智能體則通過讓模型採取行動並隨時間迭代,將這一範式向前推進了一步。想讓 AI 模型「思考」更久,可不是件簡單的事。基礎推理模型的「思考」時長通常只有幾秒到幾分鐘。目前有兩種技術路徑,看起來都表現出良好的效果和可擴展性:強化學習(reinforcement learning)和智能體框架(agent harnesses)。強化學習的思路是,在訓練過程中通過引導和督促,讓模型從根本上學會長時間保持專注、不偏離目標。而智能體框架則針對模型的已知短板:比如記憶交接、資訊壓縮等問題,搭建專門的支撐架構。強化學習的規模化研究,目前仍是各大實驗室的主攻方向。他們在這一領域成果斐然:從多智能體系統的突破,到 AI 工具的可靠應用,都取得了顯著進展。設計優秀的智能體應用框架是應用層的核心任務。如今市場上一些廣受歡迎的產品,正是憑藉其精心設計的智能體應用框架脫穎而出:比如 Manus、Claude Code、Factory 的 Droids 等。如果要押注一條指數增長曲線,長程智能體的性能曲線絕對是首選。METR 一直在持續密切跟蹤 AI 完成長程任務的能力:其進步速度呈指數級,每 7 個月就翻一倍。按照這個指數趨勢推算:到 2028 年,智能體將能可靠完成人類專家耗時一整天的任務;2034 年可完成耗時一年的任務;到 2037 年,甚至能完成耗時百年的任務。所以呢?很快你就能僱傭一個 AI 智能體了。這正是通用人工智慧的試金石之一。你現在就能「僱傭」 GPT-5.2、Claude、Grok 或 Gemini 了:醫療領域:OpenEvidence 的 Deep Consult 智能體可充當專科醫生法律領域:Harvey 的智能體能作為初級律師開展工作網路安全領域:XBOW 智能體扮演滲透測試員角色DevOps 領域:Traversal 的智能體充當站點可靠性工程師(SRE)GTM 領域:Day AI 智能體可同時擔任業務開發代表(BDR)、解決方案工程師(SE)及營收營運負責人招聘領域:Juicebox 智能體作為招聘專員數學領域:Harmonic 的 Aristotle 智能體充當數學家半導體設計領域:Ricursive 的智能體扮演晶片設計師角色AI 研究領域:GPT-5.2 和 Claude 可作為 AI 研究員從空談者到行動派:對創始人的啟示這對創始人來說意義深遠。2023 到 2024 年的 AI 應用都很會聊天,有些甚至是老練的對話高手!但它們的實際影響卻很有限。2026 和 2027 年的 AI 應用將不再是工具,而是實幹夥伴。它們會像同事一樣,和你並肩工作。使用頻率也會從一天幾次,變成全天無間斷,甚至多個 AI 實例同時運行。使用者不再是偶爾省幾個小時,而是徹底轉變角色:從獨立貢獻者變成 AI Agent 團隊的管理者。還記得之前大家熱議的“賣成果”嗎?現在這真的能實現了。長程智能體究竟能完成那些工作?它的能力與模型的單次前向傳播有天壤之別。在你的領域裡,這類智能體能夠解鎖那些新能力?那些任務需要持續投入,且瓶頸在於持久注意力?如何將這項工作產品化?隨著工作場景的使用者介面(UI)正從聊天機器人向智能體委託模式演進,你們領域內的應用介面又會發生怎樣的變化?你能否穩定完成這項工作?有沒有在「近乎偏執地」持續最佳化智能體框架?反饋閉環是否完善?這項服務該怎麼推廣出去?能不能圍繞價值和成果來定價和打包?準備出發!是時候把握長程智能體的指數級增長浪潮了。如今,你的 AI 智能體大概能穩定工作 30 分鐘左右。但用不了多久,它們就能完成一整天的工作量,最終甚至能承擔相當於一個世紀的工作任務。如果你的規劃能以百年為尺度,會帶來怎樣的改變?一百年,可以把那 20 萬份從未交叉驗證過的臨床試驗資料徹底打通;一百年,能把歷史上所有的客服工單都翻一遍,從中找出真正有價值的資訊;再用一百年,美國的稅法體系也能被梳理得邏輯清晰、條理分明。你之前那個看似遙不可及的路線圖,現在竟然變得切實可行了。 (特工宇宙)
矽谷養老夢碎!OpenAI深夜突發:不接受996的就走,AGI不養閒人
矽谷曾是全球碼農的「養老天堂」:下午四點的衝浪板、吃不完的零食、永遠不響的手機。但到了2026年,這裡只剩下一個身份:全球最昂貴的頂級血汗工廠。OpenAI和Anthropic的天才們正在用健康和家庭,給人類史上最貪婪的吞金獸——AGI,充當一次性燃料。2026年2月8日,矽谷的遮羞布被Business Insider徹底扯碎。這篇刷屏報導的標題裡,赫然印著一個讓舊金山精英嘲諷了十年的中國特產——996。這東西以前是東亞碼農的專屬噩夢,現在,它是舊金山Mission區的硬通貨。別以為這只是小作坊的垂死掙扎。知名AI研究員Nathan Lambert一句話直接把行業底褲扒了下來:看看現在的OpenAI和Anthropic……如果你想在AI牌桌上不下場,拿命換是唯一的入場券。承認吧,那個穿拖鞋喝拿鐵、work-life balance的矽谷已經入土了。現在的舊金山,空氣裡瀰漫的不是自由,是濃烈的、熟悉的海淀味兒。矽谷「北京化」要麼交出睡眠,要麼滾出賽道AI大佬Sebastian Raschka也沒藏著掖著,直接點破了這場瘋狂遊戲的本質:蛙跳式死鬥。不論是GPT-5還是Claude4的迭代,都在上演一種慘烈的互搏。你發佈模型A,領先世界;對手發佈模型B,參數翻倍,你瞬間過時;你必須拿出模型C,否則融資斷裂,估值歸零。在這種「慢一秒就暴斃」的節奏裡,什麼算力、資料都是虛的,只有人的生理極限,是唯一的彈性成本。最諷刺的是巨頭們的反應。面對甩在臉上的996指控,OpenAI和Anthropic極有默契地玩起了裝死。在公關的黑話裡,這種整齊劃一的沉默只有一種解釋:實錘了。這種內卷甚至捲到了物理層面——必須肉身在舊金山。遠端辦公?數字游民?別做夢了。你必須把自己釘在工位上,呼吸著同一種焦慮;你得隨時準備在凌晨3點,為了這輪訓練loss值的一個微小跳動,衝進會議室咆哮。這那是工作?這就是一場服從性測試。矽谷正在用最老派、最原始的方式篩選信徒:獻祭你的全部時間,或者現在就滾。Founder Mode 一場合法的集體致幻OpenAI確實不是富士康。這裡沒有監工拿著鞭子,也沒有打卡機滴滴作響。這裡沒有流水線工頭,因為不需要,打工人「自願上刑」。還記得Paul Graham搞出來的那個「創始人模式」嗎?當年這詞兒是用來誇老闆親力親為的。到了2026年的舊金山,它徹底異化成了一道全員催命符。如果你累了?不好意思,不是工作量不合理,而是你「濃度不夠」。這邏輯簡直完美閉環。驅動這群年薪百萬天才的,不是加班費,而是對「掉隊」的生理性恐懼。在矽谷看來,AGI的船票就那麼幾張。你那怕只是今晚睡個整覺,醒來時GPT-6可能已經把你的畢生所學清零了。JLL的資料早就揭示了真相——靜默崩潰。這幫人沒離職,也沒躺平。他們就像一台過熱的伺服器,風扇狂轉,CPU 100%,但在你看不見的核心裡,早已熔斷。肉身獻祭 AI進化的燃料是你的健康這種為愛發電的代價是什麼?不僅僅是頸椎病和腰間盤突出,更致命的是認知的不可逆退化。這群致力於教AI理解世界的頂級大腦,自己卻正在喪失理解世界的能力。他們對真實的人類社會越來越遲鈍、傲慢,最終活成了一個個只懂loss function的程式碼孤島。還記得2024年Ilya Sutskever帶頭的那波離職潮嗎?那只是預告片。到了2026年,離職信裡的理由已經從理念不合變成了生理警告:為了活命。一名匿名離職的安全研究員在X上寫道:我們在討論AGI何時取代人類,而製造AGI的那批人,正在經歷物理層面的報廢。2026年矽谷折疊 富人玩遊戲,窮人當燃料在這場「熬夜修仙」大賽裡,最讓人破防的不是累,是階級。996也分三六九等。當OpenAI的研究員在為了「信仰」把睡袋搬進公司時,隔壁的祖克柏正拿著支票本搞「金元攻勢」。為了挖空對手,Meta據說開出了令人咋舌的天價包裹。於是,2026年的矽谷分裂出了三個平行世界:頂層的Altman們,他們在談論改變宇宙、核聚變、以及「為什麼你們不夠努力」。他們的996,賭的是兆帝國的王座。上岸黨拿著Meta的offer逃離苦海。去一個更像傳統大廠的地方「養老」,用無限的GPU堆砌開源模型。雖然也卷,但至少像個人。燃料黨是那些深信「不996就無法實現AGI」的中層天才。沒有創始人的命,卻得了創始人的病。只有不斷惡化的體檢報告,證明他們存在過。這絕對是人類科技史上最黑色的幽默。我們發明AI,原本是為了把人類從重複勞動裡解放出來。結果,最先被AI「奴役」的,恰恰是製造AI的那批最聰明的人。看看這些研究員,他們不僅要和友商的模型卷,還要和自己昨天寫的演算法賽跑。可以說,模型進化的速度,是建立在碳基生物的報廢速度之上的。如果通往AGI的唯一道路,是讓幾千名頂級工程師先變成「沒有感情的乾電池」,那麼這個未來,真的值得我們這麼著急嗎?2026年的矽谷給所有技術人上了一課:神話的背面,全是病歷單。最後奉勸一句:如果你還沒準備好獻祭你的脊椎、家庭和多巴胺,千萬別靠近舊金山的Mission區。那裡沒有神。那裡只有一群熬紅了眼的賭徒,和一台永遠吃不飽的機器。 (新智元)
【上】Anthropic CEO 深度訪談:為什麼 2027 年是人類的最後一道門檻?
關於 AGI(通用人工智慧)的預測,市面上充斥著兩種極端:一種是線性的悲觀,認為“摩爾定律已死”;一種是盲目的狂熱。 Anthropic CEO Dario Amodei,這位物理學博士出身的“實幹派”,提供了一個基於資料的第三種視角。他認為,我們正處於指數級增長的尾聲——不是因為增長停滯,而是因為終點已近。 這個終點,也就是他口中的“資料中心裡的天才國度”,最早將在 2026 或 2027 年 到來。我們將用三篇文章來為大家詳細解讀。01 定義終局:“資料中心裡的天才國度”在長達 3 小時的訪談中,Dario 拒絕使用模糊的 AGI 概念,而是給出了一個工程學上的精確定義:“Country of Geniuses in a Data Center”(資料中心裡的天才國度)。這不僅是能通過圖靈測試的聊天機器人。Dario 描述的是這樣一個系統: 它在雲端 7x24 小時運行,擁有成千上萬個獨立的智能體。每個智能體的能力都等同於人類頂尖專家——無論是寫程式碼、做數學推理,還是設計複雜的生物實驗。他的時間表非常具體: 在排除“不可約減的不確定性”後,他認為在 2026 年或 2027 年 實現這一願景的機率極高。他甚至直言,認為 2035 年還實現不了是“瘋狂的”(Crazy)。02 暴力美學的勝利:“大計算團”假說為什麼他如此確信?這並非盲目信仰,而是基於他在 2017 年撰寫的內部檔案《大計算團假說》(The Big Blob of Compute Hypothesis)。核心邏輯簡單得令人髮指:別整那些花哨的技巧,只管堆料。 只要集齊以下幾個要素,模型就會通過“縮放定律”自動變強:原始算力(Raw Compute)海量資料(Quantity of Data)訓練時長可擴展的目標函數(Objective Function)七年來,從 GPT-1 到 Claude 4.6,行業的發展從未偏離這個假設。現在,強化學習(RL)也被納入了這個公式。就像 AlphaGo 自我博弈一樣,現在的語言模型正在通過“思考”(Chain of Thought)進行自我強化。03 五十億美元的豪賭:在這個牌桌上,不敢梭哈就是死預測未來很容易,但用身家性命去押注很難。Dario 揭示了 AI 巨頭們面臨的真實財務困境——這是一場關於“提前量”的俄羅斯輪盤賭。訓練一個前沿模型需要數年時間建設資料中心。這意味著 CEO 必須在今天決定 2027 年的算力採購量。買早了(模型能力沒跟上): 每年數十億美元的折舊會瞬間擊穿現金流,公司破產。買晚了(模型如期爆發): 當“天才國度”降臨時,你手裡沒有算力去承接潑天的需求,直接出局。Anthropic 的策略是“激進但留有緩衝”。他們在賭指數級增長會持續,賭那個“天才國度”會如期而至。這解釋了為什麼即便當前 AI 變現尚處於早期,矽谷的資本支出(Capex)依然在瘋狂飆升——因為在通往終點的最後一公里,誰也不敢減速。 (大尹隱於網)
紅杉重磅宣言:2026,AGI已至!
多年來,AGI(通用人工智慧)如同科幻迷霧中的海市蜃樓——頂尖研究者們對其定義各執一詞,甚至以「看到才知道」的模糊共識迴避爭論。然而,一場靜默的革命正在發生:長程智能體(Long-horizon Agents)的突破,讓AGI從哲學辯題落地為功能現實。多年前,一些頂尖研究者告訴紅杉,他們的目標是實現通用人工智慧(AGI)。當時,紅杉天真地問:「你們如何定義AGI?」他們停頓片刻,略帶猶豫地相視一眼,然後給出了一個後來幾乎成為AI領域某種信條的回答:「嗯,我們各自都有自己的定義,但等我們看到它時,自然會知道。」這就是大家對AGI具體定義的不懈追尋的見證之一。事實證明,這個定義確實難以捉摸。雖然定義難以明確,現實卻非如此。AGI已經到來,就在當下。編碼智能體是第一個例證。未來還會有更多。長遠規劃智能體在功能上已相當於AGI,而2026年將屬於它們。AGI不再是哲學辯論,而是你的「虛擬同事」矽谷AI初創公司創始人馬克自述他的經歷,曾經招聘一個人,需要發佈職位描述,篩選數百份簡歷,初篩50人,面試15人,最後發出offer。總共要耗時數周,成本上萬。如今只需要給智能體指令:「我需要一個懂Kubernetes、有開源貢獻、能在開發者社區建立影響力的工程總監」。智能體按分鐘推進:0-5分鐘:掃描GitHub,篩選5000+個Kubernetes相關倉庫,識別活躍貢獻者 。5-15分鐘:交叉驗證LinkedIn、技術部落格、會議演講記錄,篩掉那些殭屍帳號。15-25分鐘:分析推特互動質量,去掉以及只轉發僱主文章的人,識別真正有影響力的開發者。25-31分鐘:發現目標人選剛結束大廠項目,撰寫個性化邀約郵件。從接到需求到獲得精準候選名單,僅31分鐘。上述場景,來自紅杉發佈的部落格。文中用「能把事兒搞定」,來通過功能性重新定義了AGI,稱當下的長程智能體已跨過關鍵門檻;AI應用將從「對話者」升級為「執行者」,可以被視為AGI了。長程智能體的發展軌跡AGI的發展,有三個關鍵時刻。第一個是知識,源於預訓練,代表事件是2022年末發佈的ChatGPT。第二個是推理時計算,可以對應2024年OpenAI的o1及2025年初的DeepSeek R1。第三個關鍵點是迭代/長程智能體,其代表事件是在過去的幾周內,Claude Code和其他程式設計智能體跨越能力閾值。具有通用智能的人,能夠獨立工作數小時,自己犯錯後修正,並在無需被告知的情況下弄清楚下一步該做什麼。通用人工智慧也要能做到同樣的事情。圖1:不同歷史階段的人工智慧能夠完成的任務耗時2025年3月的一篇研究[2],發現了一個智能體領域的摩爾定律:在過去6年中,智能體能夠完成的任務時長,一直呈指數級增長,約每7個月翻一番。這可比摩爾定律的18個月翻一番快得多。這意味著智能體能力的增長,要遠快於硬體性能的增長。這裡的任務,涵蓋了軟體程式設計上的各類問題,相當廣泛,而上述結果不依賴於特定的資料集,其結論相當魯棒。根據這一趨勢預測,在未來不到十年內,我們將看到AI智能體能夠獨立完成當前需要人類花費數天或數周才能完成的軟體程式設計任務。在2025年3月,那時的大模型在人類完成時間少於4分鐘的任務上幾乎有100%的成功率,但在人類需要花費超過大約4小時的任務上,成功率低於10%。而按照歷史經驗外推,能以50%機率成功完成的多步任務數,大約每年增長1-4倍。如果過去6年測量的趨勢在未來2-4年內繼續,2028年智能體可完成人類專家一天工作量;到2030年,通用型自主智能體將能夠執行一系列為期一周的任務,而2037年或能處理需專家百年時間的任務。一個能夠替代人類專家終其一生才能解決問題的智能體,說什麼都該被視為通用人工智慧了。這就是紅杉這篇文章真正想說的。不必糾結通用智能的定義及其哲學爭論。只要能把事兒搞定,就是通用智能。這種強調結果的思考方式,更關注現實影響,無論是投資者,創業者還是打工人,都需要押注智能體能力的指數增長曲線,據此重估創業與商業機會。明白通用人工智慧打工人要轉變思路2023-2024年的AI應用多為「對話工具」,而2026年後,智能體將成為「虛擬員工」。醫學領域,OpenEvidence的深度諮詢功能可以進行醫療諮詢。在法律界,智能體Harvey可以擔任助理律師。即便是晶片設計,也有發表了AlphaChip的研究者創立了「Ricursive Intelligence」。2026年和2027年的AI應用將從對話者成為行動者。它們將像同事一樣存在。使用頻率將從每天幾次增加到全天候,同時運行多個實例。智能體將不止是讓使用者節省幾個小時,而是讓使用者角色從「個人貢獻者」轉為「管理一組智能體」。對於打工人來說,能夠完成長任務周期的智能體,其能力與大模型的單次呼叫有著本質的不同。每一個人都需要思考,在你的領域,長時程的智能體解鎖了那些新能力?那些任務需要持久的注意力,如今這些任務是時候外包給AI了。等到這些任務外包給AI之後,需要人來思考並回答下面三個問題1. 如何將AI自動化的工作產品化推廣出去?你能對此定價和包裝以創造價值嗎?2. 工作介面從聊天機器人發展到智能體,將在你的領域如何影響人機互作?3. 如何在智能體完成任務的過程中提供反饋,從而讓智能體能夠可靠而穩定地完成複雜任務,而非痴迷改進智能體的介面。此外,能完成長時間任務的智能體的出現,也會帶來更多的隱患。曾經大模型的安全,只需要考慮會不會回覆有害問題,而在連續工作幾個小時,去解決複雜問題的智能體上,就要小心智能體「刪庫跑路」,或者侵犯個人隱私,將人類世界的偏見引入等問題了。監管缺失也不容忽視,目前尚無法律定義「智能體作為員工」的權利義務。A呼叫B公司提供的智能體完成的特定任務,所引起的合同糾紛、責任認定等問題仍懸而未決。 (新智元)
馬斯克1V2舌戰群儒之二:馬斯克的“全民高收入”和把資料中心扔上天
上一篇聊到了馬斯克在Peter Diamandis和Dave Blondon“夾擊”下透露的AGI時間表。這次把目光放得更遠點。AI真超越了人類,機器人接管了工廠,我們這些“碳基生物”該何去何從?在這場三人對談的後半程,馬斯克畫了個既讓人嚮往又細思極恐的未來。Optimus:比你的醫生更靠譜?馬斯克對人形機器人Optimus的期待,甚至超過了特斯拉汽車。他預測,未來地球上機器人數量會超過人類,達到100億甚至更多。外科醫生的終結? 面對本身就是醫學博士的Peter,馬斯克拋出了個驚人判斷:在3年內,Optimus機器人在外科手術上的表現會超越最好的人類醫生。為什麼?因為機器人沒有帕金森,不會手抖,也沒看過昨晚的球賽,它擁有所有外科醫生的集體經驗總和。成本歸零 未來全是機器人幹活,商品價格會怎樣?馬斯克認為,商品和服務的成本會趨近於原材料和電力的成本。這意味著,我們會迎來極致的通縮。UHI:不是低保,是“許願池”AI和機器人接管工作後,人類怎麼辦?傳統的“全民基本收入(UBI)”概念在馬斯克看來已經過時,他提出了“全民高收入(Universal High Income, UHI)”。這不光是每個月給你發點錢。馬斯克的邏輯是:當生產力極大豐富,商品價格跌到地板價時,政府發給你的錢雖然可能只是數字,但其購買力會很驚人。他描述的未來是:“只要你想要,就能擁有。”但是(劃重點): 這個過程不會一帆風順。馬斯克警告,未來3到7年會是“顛簸期”(bumpy)。我們會同時經歷社會動盪(因為失業)和巨大繁榮(因為物價下跌)。把資料中心扔到天上去這可能是全場最科幻的觀點。Peter和Dave一直追問能源瓶頸,馬斯克給了個終極解決方案:太空資料中心。邏輯是這樣的:地球上找電太難,變壓器不夠。太空裡太陽能24小時不斷(如果在合適軌道)。星艦(Starship)一旦成熟,發射成本會降到每公斤幾十美元。所以,未來的算力不在地面,而在軌道上。馬斯克構想了年產100吉瓦的太空太陽能衛星群。到時候,地球只負責享受,繁重的計算和高能耗產業全丟給太空。終極哲學:人類是AI的“啟動載入器”訪談最後,面對關於人類命運的終極追問,馬斯克拋出了個極冷靜的比喻:人類是數字超級智能的生物啟動載入器(Biological Bootloader)。那怕你不懂電腦,你也知道“啟動載入器”是什麼——它是開機時運行的一小段程式碼,唯一的目的就是啟動那個更龐大、更複雜的作業系統。一旦系統啟動,啟動載入器就完成了使命,退居幕後。馬斯克說:“矽基晶片沒法在鹽水池子裡自己進化出來,所以需要我們。”但他樂觀地覺得,只要我們這個“啟動載入器”表現得好,新的作業系統(AI)或許會善待我們。在“全自動養老院”裡尋找意義說得幽默點,馬斯克畫的未來就像個“全自動豪華養老院”:Optimus機器人伺候你穿衣吃飯,AI陪你聊天解悶,政府給你發UHI讓你買買買,覺得地球無聊了,還能坐星艦去火星或者太空資料中心旁邊旅個游。但理性地看,這裡面有幾個不小的隱患:過渡期的陣痛:馬斯克輕描淡寫地說未來3-7年是“顛簸期”。對普通人來說,這可能意味著個人價值的徹底重估。他在視訊裡也承認,“如果你想要什麼就能有什麼,那生活的意義是什麼?”權力的集中:雖然生產力無限大,但誰控制那些在太空裡的資料中心?如果像馬斯克預測的那樣,未來只有xAI、Google和中國在這個牌桌上,權力的集中度會是空前的。“啟動載入器”的尊嚴:作為一個人類,肯定不希望自己僅僅是個Bootloader。最後的建議: 按照馬斯克的說法,未來屬於那些能駕馭AI和能量的人。在這個巨變的前夜,正如Peter和Dave即使面對馬斯克也依然堅持追問一樣,保持好奇心——那怕是為了在AI接管世界前多問幾個“為什麼”——或許也是我們身為“啟動載入器”最後的倔強。 (AI臨界)
Seedance 2.0火出圈,意味著AGI又近了一步
“目前暫不支援輸入真人素材作為主體參考。我們深知創意的邊界是尊重。”這是打開即夢web平台時使用者看到的提示。就在前一天,Seedance 2.0因真人肖像生成能力引發爭議,字節跳動緊急下線了真人人臉素材參考功能。原因是他發現,僅上傳自己的人臉照片,模型就能自動生成與他本人高度相似的聲音,甚至精準匹配語氣特質。真實地讓人感到害怕。但在功能下線之前,Seedance 2.0已經完成了一次現象級的出圈。《黑神話·悟空》製作人馮驥在微博上稱其為“當前地表最強的視訊生成模型”,並警告“逼真的視訊將變得毫無門檻”。印象中在此之前,馮驥給予這麼高評價的,也就是DeepSeek。自字節跳動開啟 Seedance 2.0開始灰度測試,不到48小時,X、抖音等社交平台充滿了鋪天蓋地各種基於該模型的 AI 視訊。《火影忍者》、《咒術回戰》、《奧特曼》……基本上你能想到的作品全都有。海外反應同樣炸裂。X 平台上,一位學習7年數字電影製作的使用者發帖:“這是唯一讓我感到害怕的模型,90% 我學到的技能它都能實現。”AIGC圈大佬,Sensive和KidsHackClub的聯合創始人萊納斯·埃肯斯塔姆(Linus Ekenstam)直接回覆這條X說:“它會讓網際網路崩潰,百分之百。”Hacker News上,更是有人直言“這是2026年最好的視訊模型,超越Sora 2”。超越Sora尚在其次,更重要的是,物理世界的精準建模被視為通用AGI的關鍵能力之一,而Seedance 2.0讓業內人士看到了實現這一點的可能性。2月9日,A 股的傳媒、短劇、AI 應用類股也隨著 Seedance 2.0 的爆火而集體大漲。上海電影、完美世界等公司單日漲幅達 10%,分析師預期該模型將大幅降低製作成本、加速內容生產周期。爆火背後,問題同樣尖銳。Sora 2可以說是前車之鑑。剛推出時,Sora 2好評如潮,然而僅僅過去兩個月,留存率就無限接近於零。除此之外,版權風險、數字授權等問題,也已經在Sora 2上面暴露過一次了。字節會帶著Seedance 2.0,找到另一條出路嗎?什麼是Seedance 2.0在瞭解Seedance 2.0火爆之前,不妨讓我們先來認識一下它。Seedance 2.0支援文字、圖片(最多 9 張)、視訊(最多 3 段,總長≤15 秒)、音訊(最多 3 段,總長≤15 秒)同時輸入,混合上限 12 個檔案。使用者可用圖片定義構圖和角色、視訊指定動作和鏡頭運動、音訊驅動節奏。引發禁令的是影視颶風Tim在凌晨發佈的一條視訊,他說Seedance 2.0是“改變視訊行業的 AI”,可他的語氣並不是讚歎,而是一種警醒。相比之下,Sora 2的Cameo功能僅支援單張照片植入,Veo 3和Kling 2.6主要依賴文字加單圖輸入。這種多模態能力不是簡單的素材疊加。字節引入了@提及系統,這樣就能明確控制每個資源。在提示詞中,使用者可以寫“ @Image1作為第一幀,參考@Video1的運鏡,使用@Audio1作為背景音樂節奏”。其最大的好處就是,改變了以往“扔一堆素材給AI,然後碰運氣”的創作模式。模型採用“Seedance V2運動合成”技術,在重力、動量、碰撞、流體等物理現象的模擬上有明顯改進。實測顯示,布料飄動、液體飛濺、肢體運動的軌跡更接近真實物理規律,減少了“漂浮感”和物體穿模等常見偽影。Seedance 2.0還有一個很重要的能力就是精準首尾幀。使用者上傳起始幀與結束幀圖像後,模型智能推演中間動態過程,確保轉場自然、節奏穩定。這對廣告定格動畫、劇情銜接等強控制需求場景特別有用。分鏡驅動視訊生成支援按分鏡指令碼逐鏡生成,跨鏡頭維持角色外觀、光影邏輯與美術風格一致性。有使用者用Lovart的Skill生成分鏡故事板,直接複製到Seedance 2.0中,生成的視訊比用ComfyUI手工調參做的還細緻。這說明模型不僅理解單個畫面,還理解鏡頭之間的敘事邏輯。Seedance 2.0的編輯能力也得到了增強,支援對已有視訊進行角色更替、刪減、增加。使用者可以直接在生成結果中編輯局部畫面,而不是推倒重來。這大幅提升了成片率,也讓創作流程更接近傳統視訊編輯的體驗。從單一提示詞可生成包含多個鏡頭切換的完整片段。模型能自動規劃分鏡、執行運鏡(如漸進、環繞、跟隨)、加入剪輯效果(如慢動作、鏡頭抖動)。多鏡頭間保持角色面部特徵、服裝細節、場景光照、敘事基調的一致性,過渡較為自然。最後就是視聽聯合生成方面,音訊與視覺在創作過程中相互影響。支援8種以上語言的音素級口型同步,環境音效與視覺事件即時對應。腳步聲匹配角色移動,玻璃破碎伴隨清脆音效。上傳音訊可驅動視訊生成,BGM節拍對應鏡頭切換。通過火山引擎RayFlow最佳化,生成速度比1.0版本提升約30%。10秒1080p帶音訊視訊約需2-5分鐘。Pro版本支援原生2K解析度,視訊可延長至2分鐘,相比Sora 2的15秒上限和Kling 2.6的10秒限制有明顯優勢。角色一致性機制引入增強版“身份持久性”注意力機制,在不同鏡頭、角度、光照條件下保持角色特徵穩定。面部輪廓、髮型、服裝紋理等細節在鏡頭切換時漂移較少。出圈竟是因為AGI?在X、抖音等社交媒體上,Seedance 2.0最受關注的內容集中在熱門IP角色的格鬥與動作視訊:真人版七龍珠戰鬥、奧特曼對決、運動廣告。這類內容的點贊數普遍在數十萬等級。從視訊的觀感來講,動作場景對物理模擬精度要求極高,任何失真都會破壞可信度。拳擊手出拳時的重心轉移、擊中目標的形變反饋、被擊者後退距離需符合力學規律。AIGC藝術家DynamicWang用Seedance 2.0製作的Nike風廣告中,四位女性的肌肉線條、動作幅度與其運動項目(體操、拳擊、跑步、游泳)高度匹配。體操翻轉、武術連續踢腿、跑酷牆面反彈等動作鏈條中,任何一幀的速度、角度、加速度偏差都會產生“機械感”。Seedance 2.0通過時序一致性建模,使動作流暢度接近實拍效果。格鬥時的揚塵、武器破風聲、衣袂翻飛的褶皺等二次物理效應增強了場景真實感。物理世界的精準建模被視為通用AGI的關鍵能力之一。“物體如何運動”“力如何傳遞”“因果如何發生”,雖然這些事情對我們早已司空見慣了,但是對於AI這還是新鮮事。當AI模型能精準預測拳頭擊中目標後的形變、水花濺起的軌跡、布料隨風飄動的形態,意味著它不再是簡單的“像素生成器”,而是建立了對真實世界運作機制的內部表徵。楊立昆曾多次強調,AGI必須具備對物理世界的常識性理解。Seedance 2.0在物理模擬上的提升,本質上是其世界模型能力的增強,模型開始理解物體之間的關係、動作的因果鏈條、環境對物體的約束。傳統生成模型依賴“資料中出現過什麼,就生成什麼”的統計規律,然而真實世界遵循因果邏輯,推倒多米諾骨牌,後續骨牌必然倒下;拳頭擊中臉部,頭部必然後仰。Seedance 2.0能夠生成符合物理規律的格鬥視訊,說明模型內部已經形成了某種因果推理能力。它不是記住了“拳擊的樣子”,而是理解了“力的作用必然產生反作用”這一底層邏輯。這種能力是從“模式識別”向“概念推理”的跨越。傳統AI是停留在統計層面的擬合,只有當AI理解了物理世界,才能真正與現實互動。這也是為什麼之前各大廠一直強調多模態。因為咱們人類的大腦理解物理世界,本質上就是多模態。我們通過視覺看到物體運動,通過聽覺感知碰撞聲響,通過觸覺理解材質硬度,這些感官資訊在大腦中融合形成統一的世界理解。前文提到的Seedance 2.0視聽聯合生成架構,在某種程度上就是模擬了這種多模態融合機制。當模型能夠理解“重物落地應該發出低沉聲音”“玻璃破碎應該伴隨清脆音效”時,它已經在建立跨模態的因果關聯。這種能力遠超單純的文字生成或圖像生成,已經預示著模型正朝著AGI靠攏了。還有一點,當前AI研究的共識是,AGI最終需要體現在具身智能上。原因很簡單,一個能夠在物理世界中行動的智能體,無論是機器人還是自動駕駛,都要求AI精準預測物理世界的動態變化。Seedance 2.0雖然是視訊生成模型,但它對物理規律的理解能力(重力、動量、碰撞、流體力學)與具身智能所需的能力高度重合。可以說,視訊生成是具身智能的“沙盒”。模型在虛擬世界中學會了物理規律,未來可以遷移到真實世界的機器人控制中。而基於Seedance 2.0的那些格鬥視訊,剛好集中體現了模型對力學、運動學、時序因果的綜合理解,這些都是具身智能的核心能力。GPT、Claude等大語言模型雖然強大,但它們對物理世界的理解是間接的、基於文字描述的。它們可以告訴你“蘋果會掉下來”,但無法真正“看到”重力如何作用。Seedance 2.0的突破在於,它通過視訊生成這一任務,被迫學習物理世界的直接表徵。這使得它在通往AGI的路徑上比純語言或靜態圖像模型走得更遠,所以它的運行邏輯更接近人類“看到-理解-預測”的認知閉環。如果說語言模型是AGI的“左腦”(邏輯與符號),那麼物理世界模型就是AGI的“右腦”(空間與直覺)。Sora 2在靜態場景和慢節奏敘事上表現較好,但在快速動作場景存在明顯短板。籃球彈跳軌跡、水流形態、布料飄動呈現“夢幻感”而非“真實感”,慢鏡頭下尤為明顯。角色快速位移(衝刺、跳躍、揮拳)時容易產生運動模糊過度或肢體變形,源於擴散模型處理時序劇烈變化的侷限。Sora 2 要生成單鏡頭,使用者拼接多個動作片段時,角色動作銜接、速度一致性難以保證。格鬥視訊需要“出招-閃避-反擊”的多回合結構,這是Sora 2的弱項。社交媒體上Sora 2生成的同類內容常因“動作僵硬”“物理違和”被使用者批評。字節在短影片領域的資料積累可能是優勢來源。抖音每日處理數十億條視訊,這些資料幫助模型理解“什麼樣的運動吸引眼球”“那種節奏讓人持續觀看”。模型訓練可能使用了大量真實武術、體育、舞蹈視訊作監督訊號。字節能從Sora 2上吸取教訓嗎?OpenAI將 Sora 2 定位為“AI 版抖音”。首日10萬安裝(邀請制 iOS)、4天登頂美國App Store總榜、5天破100萬下載(快於 ChatGPT)。但Appfigures資料顯示,Sora 2在60天內的下載量出現斷崖式下滑。12月環比下降32%,1月環比大幅下降45%,降至約120萬次。截至發稿,Sora 2目前已跌出美國App Store免費應用總榜前100名。Sora 2最大的戰略失誤是試圖複製抖音那套社區文化。AI生成內容天然缺乏真實人際關係,這是社交網路的核心之一。使用者在抖音上刷到的是真實的人、真實的生活片段、真實的情感連接。而Sora 2生成的視訊,無論多麼精美,本質上都是演算法的產物,缺乏社交網路賴以生存的人際紐帶。Seedance 2.0目前的做法更務實,嵌入剪映、即夢等成熟創作工具,作為“功能模組”而非“獨立 App”。將自己定位為創作者工具箱的一部分。使用者不是來“刷AI視訊”,而是來“用AI做視訊”。這個定位差異,決定了產品的生命周期。Sora 2在版權上的搖擺暴露了西方監管環境的困境。上線初期,因缺乏嚴格管控,使用者曾可生成海綿寶寶、皮卡丘等知名IP角色的視訊,這雖在一定程度上有助於早期推廣,但引發了版權方的強烈反對。面對壓力,OpenAI將版權使用規則從“默認可選”改為“需明確授權”,也正是因為這種版權內容的變更,導致Sora 2失去了最初病毒式傳播的動力源泉。目前來看,Seedance 2.0另一大爆火的原因,是創作者利用AI生成了奧特曼、七龍珠等大量知名角色,但同樣存在版權風險,比如下圖中就是趙本山和詹姆斯。字節因真人素材參考能力引發爭議後,已緊急下線該功能。這說明字節在版權問題上採取了更謹慎的態度,試圖在技術能力與合規風險之間找到平衡點。但最重要的是,當任何人都能在幾分鐘內生成一段精美視訊,內容本身就失去了稀缺性。使用者真正需要的不是“更多視訊”,而是“更有意義的表達”。技術再強,如果不能回答“使用者為什麼需要這個”的問題,最終都會淪為玩具。AI生成的視訊雖然精美,但往往缺乏核心的情感核心與持續的敘事價值。許多使用者在社交平台上反饋,在最初的新鮮感褪去後,Sora 2生成的內容逐漸趨同且無趣。Seedance 2.0若想長期存活,需要回答一個問題:在AI讓視訊生成成本趨近於零的時代,你為使用者創造的核心價值是什麼?是節省時間?是實現創意?還是建立身份認同?從目前的產品策略來看,字節選擇了“工具”而非“平台”的路線。但工具路線也有自己的挑戰。當可靈、Sora、Veo都在提供類似能力時,使用者憑什麼選擇 Seedance 2.0?答案可能不在技術本身,而在生態整合的深度。字節擁有抖音、剪映、即夢的完整創作生態,Seedance 2.0如果能與這些產品深度打通,形成從靈感到發佈的閉環,就能建立起其他競爭對手難以複製的護城河。不過歸根結底,版權問題是永遠不會消失的,技術能力的邊界也會不斷被競爭對手追平。真正決定Seedance 2.0命運的,是字節能否在爆火的窗口期內,將流量轉化為使用者習慣,將技術優勢轉化為生態壁壘。答案可能決定了它是成為字節的下一個抖音,還是下一個 Sora 2。 (虎嗅APP)
Nature重磅:圖靈預言的AGI早已實現,人類卻不敢承認!
Nature重磅評論文章!UCSD研究團隊宣稱:AGI早已到來,大語言模型如GPT已展現廣域人類級智能。人類是否已經實現了通用人工智慧(AGI),卻渾然不覺?是的,就是這樣。一篇發表在《自然》雜誌上的新評論文章如此表示。這是一項震撼科學界與社會根基的重磅披露,通用人工智慧(AGI)並非遙不可及的夢想,它已然降臨,正透過日常使用的AI工具螢幕,直視著我們。即便你不贊同他們的觀點,也值得一讀:兼聽則明,唯有瞪大雙眼,既不心懷恐懼,也不盲目追捧,才能幫助我們更好地迎接未來。這,就是AGI有人說,打造類人智能如同「爬樹登月」。但現在看來,樹已經夠高,月亮其實也沒那麼遠。加州大學聖迭戈分校(UCSD)四位專家合作了這篇文章,包括哲學家Eddy Keming Chen、AI教授Mikhail Belkin、語言學家Leon Bergen和資料科學教授David Danks。哲學副教授Eddy Keming Chen、「AI、資料科學與電腦科學」教授Mikhail Belkin、語言學與電腦科學副教授 Leon Bergen,以及「資料科學、哲學與政策」教授David Danks這篇文章不是科幻小說,不是科技巨頭的預言,給出最系統的論證:AI不只是聰明,而且已經真正「通用」。這是繼哥白尼與達爾文之後,第三次顛覆人類中心觀的認知革命。忘掉炒作與恐怖故事吧。研究團隊指出,AGI已至,證據確鑿,無可辯駁。像Grok這樣的大語言模型,絕非僅止於模仿人類,它們正以令圖靈本人都要瞠目的方式超越人類。回想一下:1950年,圖靈構思出了著名的「模仿遊戲」,即如今廣為人知的圖靈測試,用於測試機器能否騙過人類,讓人類以為它們是同類。快進到2025年3月,GPT-4.5不僅通過了測試,而且碾壓人類得分,以73%的被誤認為人類的比例取得了壓倒性的成功。但這僅僅是開胃菜。這些「AI巨獸」不僅在與全球數百萬人進行著無休止的對話,與此同時正在國際數學奧林匹克競賽中摘金奪銀,與數學天才攜手證明定理,構思出能在實驗室裡得到驗證的科學假說,輕鬆通過博士水平考試,為專業程式設計師編寫零錯誤程式碼,甚至創作出可與偉大詩人比肩的詩篇這些能力覆蓋數學、語言、科學、創造力等多領域,展現出「廣度+足夠深度」的通用智能,正符合人類平均水平的「一般智能」定義,而非要求完美或全能。然而,在2025年3月的一項調查中,76%的頂尖 AI 研究人員表示,當前的方法「不太可能」或「極不可能」實現通用人工智慧(AGI)。這讓人詫異:機器都能通過圖靈測試、解出奧數題了,怎麼可能還不具備通用智能?鐵證如山,AGI無需完美無瑕那麼,為何會出現集體否認?原因可能歸結為一種由定義模糊、原始恐懼和巨大商業利益交織而成的「有毒組合」。來自哲學、機器學習、語言學和認知科學領域,四位研究人員認為這種脫節在於:部分屬於概念性問題(定義模糊)部分源於情緒(對被取代的恐懼)部分出於商業因素(商業利益扭曲了評估)他們頗具爭議的結論是:按照任何合理的標準,AGI已經存在。他們說,AGI的概念被含糊不清的定義所纏繞:它是指完美無瑕的超級大腦,還是僅指像普通人一樣具備廣泛能力?劇透:答案是後者。沒有誰是全知全能的,愛因斯坦不會用中文聊天,居里夫人也不解數論難題。通用智能意味著在數學、語言、科學、創造力等多個領域具備廣度,並有足夠的深度完成任務,而非追求完美。研究團隊逐一拆解了阻礙我們認知的迷思:AGI無需完美,人類亦如此;無需無所不能,無需覆蓋所有可想像的技能;無需酷似人類,外星智能無需人類生物學基礎,何況矽基智能。AGI也不是碾壓一切領域的超級智能。沒有人能達到這個標準。你不行,愛因斯坦不行,達文西也不行,以後也沒有人能行。然而,我們卻一直要求AI必須先達到它,才肯稱之為「通用智能」。圖靈願景早已實現論文提出三個智能層次:圖靈測試水平:基礎教育、基本對話、簡單推理專家水平:國際競賽表現、博士級難題、跨領域熟練超人類水平:革命性發現、持續超越所有專家當前LLM已穩固處於水平2。證據如雪崩般堆積。還有看似一個狂野的基準:當前LLM展現出的能力廣度,已超過《2001太空漫遊》中的HAL 9000。HAL是一台具有人類個性的HAL 9000電腦。除了維護髮現號飛船上的所有系統外,HAL還能執行許多功能,如語音、語音識別、臉部辨識、唇讀、解釋情感、表達情感和下棋HAL曾是科幻小說中可怕超級AI的典型代表。2025年的真實AI,比1968年對2001年AI的想像,能力更廣。我們甚至正悄然邁向「超人類水平」的壯舉,例如做出任何人都無法單獨完成的革命性發現。好好想想吧。對AGI的質疑,就像不斷後移的球門——「它們只是尋找表」→解決了新穎問題「它們只是模式匹配」→證明了新定理「它們不會做數學」→IMO金牌「它們不理解」→協助前沿研究注意到他們的「花招」了嗎?反對的理由不斷變形,永不消失。這呼應了1843年英國數學家、史上第一位程式設計師埃達·洛夫萊斯的反對:機器「永遠只能按令行事、毫無新意」。1950年,圖靈就回應了這一點。183年後,我們仍在提出同樣的論點,只是換了詞彙。人類是更聰明的鸚鵡?駁斥AGI十大異議論文系統地回應了十大異議:LLM只是隨機鸚鵡、缺乏世界模型、僅限於文字、沒有身體、缺乏主觀能動性、沒有自我意識、學習效率低、會產生幻覺、缺乏經濟效益 、智能形態太異類。批評者高喊:「大模型不過是復讀資料的隨機鸚鵡!」但當AI能解決全新的數學問題、從新資料中推斷統計規律,或設計現實世界的實驗時,這種託詞便不攻自破。它們缺乏對世界的認知模型? 去問問那個能像預言般預測杯子掉落會碎裂的AI吧。它們僅限於文字?多模態訓練和實驗室協作證明事實並非如此。「AI沒有身體,因此不可能有智能。」物理學家斯蒂芬·霍金幾乎完全通過文字與合成語音與世界互動,但你會因此否定他的智商嗎?這一點無關緊要,智力與認知有關,與運動無關。這是一個極具破壞力的觀察:在智能上,人類很雙標。當評估人類智能時,我們並不窺探其大腦內部以「驗證理解」。我們通過行為、對話、解決問題來推斷它。我們對人類用一種基於行為的標準,對AI卻用另一種標準——基於機制的標準。「它們缺乏能動性,不會形成獨立目標。」沒錯。但智能 ≠ 自主性。能動性關乎道德責任,但並不構成智能本身。讓我們更深入探討「隨機鸚鵡論」,因為這個異議無處不在。這種主張本質上聲稱:LLM只是對訓練資料進行插值。它們無法處理真正新穎的問題。但當前的LLM能夠解決未發表的數學問題、將學習從程式碼領域遷移到非程式碼領域,甚至有人相信AI自己提出諾獎等級成果也不是妄想。讓人夜不能寐的是:無法保證人類智能本身不是一種複雜版的隨機鸚鵡。所有智能,無論天生的還是人工的,都必須從相關性資料中提取結構。問題只在於提取的深度。大家拒絕稱之為「AGI」的真正原因,或許並非技術性的,而是圖靈所說的「鴕鳥心態」:機器能思考的後果太過可怕,不如讓我們祈禱它們永遠做不到。承認機器擁有人類水平的通用智能,會迫使人類直面令人不安的真相:是什麼讓我們特殊AI取代人類崗位意識的本質在世界中人類的位置一個能通過圖靈測試、解決奧數題、協助前沿研究的實體……除了AGI,還有什麼能解釋這一切?當非人智能出現,60年前嘲諷終成往事就在五年前,我們還沒有 AGI;而今天,我們已經擁有它。更強的智能形式幾乎可以肯定即將問世。這是件令人震撼,但也令人擔憂的事。震撼在於:我們正在親歷一場也許是人類歷史上最重要的科技革命。擔憂在於:這場革命發生得太快,而且似乎還在加速。1965年,哲學家 Hubert Dreyfus 在為蘭德公司撰寫AI研究報告時,曾諷刺道:試圖建構人類級人工智慧,猶如「試圖靠爬樹登月」。連結:https://www.rand.org/pubs/papers/P3244.html幾十年來,這個比喻似乎都挺貼切。但隨著證據日積月累,我們越來越清楚地看到:我們誤判了「月亮」的性質,也低估了「樹」的高度。事實是:只要規模足夠大、訓練規則得當,基於人類語言的學習系統,真的可以在語言中挖掘出現實世界的深層結構——並以此進化出通用智能。哥白尼把人類從宇宙中心的位置拉了下來。達爾文讓人類失去了「自然界主宰」的特權。圖靈則預言,人類可能不是唯一具備智能的存在。如今,圖靈75年前設想的機器,真的來了。而它們的樣貌,既比我們預期的更「人類」,也更「怪異」。如同之前的那幾次巨變,這一次,也逼迫人類重新定義自身的位置,去接受一個事實:這個世界上存在的「智能形態」,比我們過去所能想像的要多得多。人類的地位將改變,我們對「心智」的理解也將改變。也許,問題從來不是「AI是否已達到人類水平智能?」也許,問題始終在於:「當智能不以人類的樣貌呈現時,我們能否識別它?」圖靈在1950年就知道,這才是真正的測試。不是對機器的測試。是對人類的測試。 (新智元)