#AGI
紅杉資本:2026,這就是 AGI
最近在用 OpenClaw 的時候,我在想一個問題:AGI 已經來了嗎?如果需要回答這個問題,可能還是要定義下什麼是 AGI。然而關於什麼是 AGI,眾說紛紜。比如最近,Google DeepMind 創始人提出了一個很有趣的 AGI 的定義:訓練一個 AI 模型,將它的知識庫截斷到只到 1911 年,如果它能夠像愛因斯坦獨立發現廣義相對論,那麼它就是 AGI。然而,專門訓練一個大模型來驗證一個人的觀點,即便對於Google來說,也未免太奢侈了。直到昨天,我在紅杉社區看到了一篇文章,我突然有個感受:也許 2026,AGI 已經來到了。原文:https://sequoiacap.com/article/2026-this-is-agi/幾年前,一些頂尖 AI 研究者告訴我們,他們的目標是通用人工智慧(AGI)。當時我們迫切想知道一個清晰的定義,便天真地問:“你們怎麼定義 AGI?”,他們頓了頓,猶豫地對視一眼,然後給出了後來在 AI 領域廣為流傳的一句話:“嗯,我們每個人都有自己的定義,但看到它時我們就會知道。”這一小插曲,正是我們探尋 AGI 具體定義時的典型縮影。這一目標一直沒有結果。雖然 AGI 的定義至今模糊不清,但現實已經毫無懸念:它就在這裡,此刻已然降臨。程式設計智能體是第一個例子。還有更多正在路上。Long-horizon agents,在功能意義上就是 AGI,2026 年將是它們的爆發之年。在繼續討論之前,我們得先明確一點:我們沒有足夠的道德權威來為 AGI 提出技術定義。我們是投資者,研究的是市場、創始人,以及這兩者碰撞孕育出的產物:企業。鑑於此,我們的定義是功能性的,而非技術性的。新的技術能力引出了唐·瓦倫丁的問題:那又怎樣?答案的關鍵在於其現實世界的影響力。通用人工智慧的功能定義AGI,就是能把事情搞明白的能力。就這樣。我們明白,這種模糊的定義解決不了任何哲學爭論。但從實用角度看,當你想做成一件事時,你到底需要什麼?不過是一個能自主解決問題的 AI 而已。至於它是怎麼做到的,遠不如“它能做到”這件事本身重要。一個能解決問題的人,通常具備三個核心能力:紮實的基礎知識儲備;基於這些知識進行推理的能力;以及通過反覆試錯找到答案的能力。能解決問題的 AI 具備三方面核心能力:一是基礎知識(預訓練),二是基於該知識進行推理的能力(推理計算),三是通過逐步迭代得出答案的能力(長程智能體)。第一個關鍵要素(知識/預訓練)正是 2022 年那個「ChatGPT 時刻」背後的驅動力。第二個要素(推理/推理時計算)隨 2024 年底 O1 模型的發佈登場。第三個要素(迭代/長程智能體)則在最近幾周浮出水面:Claude Code 等程式碼智能體已突破能力閾值。具有通用智能的人可以連續幾小時自主工作:他們會犯錯,也會自己修正,不用別人吩咐就能知道下一步該做什麼。現在,通用智能體也能做到這一點。這是前所未有的。什麼叫把事情想明白?一位創始人給他的 Agent 發消息:“我需要一個開發者關係負責人。一個技術能力足夠高、能贏得資深工程師尊重的人,但又真正喜歡用 Twitter 的人。我們向平台團隊銷售產品。去吧。”智能體的第一步操作很直接:在 LinkedIn 上搜尋 Datadog、Temporal、Langchain 等競爭對手公司的“開發者布道師”和“開發者關係”崗位。結果出來好幾百份簡歷,但光看職位頭銜根本分不清誰真的能勝任這份工作。它轉換了思路,開始關注真實表現而非資質:它會在 YouTube 上搜尋各類會議演講,找到 50 多位演講者後,再從中篩選出那些演講互動性強的人。智能體將這些演講者與 Twitter 帳號進行了交叉比對。其中一半人的帳號要麼長期不活躍,要麼只是轉發公司的部落格文章,顯然這些不是我們想要的類型。但有十幾個人擁有真正的粉絲群體:他們會發表真實觀點、回覆網友,還能吸引開發者互動,而且內容很有格調。智能體進一步縮小了篩選範圍,開始排查過去三個月發帖頻率下降的使用者。活躍度降低往往意味著員工對當前崗位的投入度在下降。最終,三個名字浮出了水面。智能體對這三位候選人做了背調:第一位剛官宣新職位,已經來不及了;第二位是一家剛融到資的公司創始人,顯然不會離開當前崗位;第三位是 D 輪公司的高級開發者關係負責人,他們公司剛裁了市場部。她最近分享的主題正好是這家初創公司瞄準的平台工程領域,推特上有 1.4 萬粉絲,發的梗圖還能吸引工程師互動,不過領英已經兩個月沒更新了。Agent 寫了一封郵件,內容提及了對方最近的演講,以及這家初創公司理想客戶畫像的契合點,還特別提到小團隊能帶來的創作自由。郵件提議進行一次輕鬆的交流,而非正式的推銷。總時長:31 分鐘。創始人並未在招聘網站發佈職位描述,而是已經鎖定了唯一的最終候選人。這才是解決問題的真諦,在模糊中摸索著達成目標:提出假設、驗證假設、碰壁、調整方向,直到找到突破口。智能體沒有按既定指令碼行事,它像頂尖招聘者那樣在腦海裡反覆推演,卻只用了 31 分鐘就不知疲倦地完成了全過程,而且沒人教過它該怎麼做。值得注意的是:智能體智能體仍然會犯錯,它們會產生幻覺、丟失上下文,有時甚至自信滿滿地走錯方向。但發展趨勢清晰可見,這些問題也越來越容易解決。走到今天,我們經歷了什麼?去年的文章裡,我們曾指出推理模型是 AI 領域最重要的新前沿。而長程智能體則通過讓模型採取行動並隨時間迭代,將這一範式向前推進了一步。想讓 AI 模型「思考」更久,可不是件簡單的事。基礎推理模型的「思考」時長通常只有幾秒到幾分鐘。目前有兩種技術路徑,看起來都表現出良好的效果和可擴展性:強化學習(reinforcement learning)和智能體框架(agent harnesses)。強化學習的思路是,在訓練過程中通過引導和督促,讓模型從根本上學會長時間保持專注、不偏離目標。而智能體框架則針對模型的已知短板:比如記憶交接、資訊壓縮等問題,搭建專門的支撐架構。強化學習的規模化研究,目前仍是各大實驗室的主攻方向。他們在這一領域成果斐然:從多智能體系統的突破,到 AI 工具的可靠應用,都取得了顯著進展。設計優秀的智能體應用框架是應用層的核心任務。如今市場上一些廣受歡迎的產品,正是憑藉其精心設計的智能體應用框架脫穎而出:比如 Manus、Claude Code、Factory 的 Droids 等。如果要押注一條指數增長曲線,長程智能體的性能曲線絕對是首選。METR 一直在持續密切跟蹤 AI 完成長程任務的能力:其進步速度呈指數級,每 7 個月就翻一倍。按照這個指數趨勢推算:到 2028 年,智能體將能可靠完成人類專家耗時一整天的任務;2034 年可完成耗時一年的任務;到 2037 年,甚至能完成耗時百年的任務。所以呢?很快你就能僱傭一個 AI 智能體了。這正是通用人工智慧的試金石之一。你現在就能「僱傭」 GPT-5.2、Claude、Grok 或 Gemini 了:醫療領域:OpenEvidence 的 Deep Consult 智能體可充當專科醫生法律領域:Harvey 的智能體能作為初級律師開展工作網路安全領域:XBOW 智能體扮演滲透測試員角色DevOps 領域:Traversal 的智能體充當站點可靠性工程師(SRE)GTM 領域:Day AI 智能體可同時擔任業務開發代表(BDR)、解決方案工程師(SE)及營收營運負責人招聘領域:Juicebox 智能體作為招聘專員數學領域:Harmonic 的 Aristotle 智能體充當數學家半導體設計領域:Ricursive 的智能體扮演晶片設計師角色AI 研究領域:GPT-5.2 和 Claude 可作為 AI 研究員從空談者到行動派:對創始人的啟示這對創始人來說意義深遠。2023 到 2024 年的 AI 應用都很會聊天,有些甚至是老練的對話高手!但它們的實際影響卻很有限。2026 和 2027 年的 AI 應用將不再是工具,而是實幹夥伴。它們會像同事一樣,和你並肩工作。使用頻率也會從一天幾次,變成全天無間斷,甚至多個 AI 實例同時運行。使用者不再是偶爾省幾個小時,而是徹底轉變角色:從獨立貢獻者變成 AI Agent 團隊的管理者。還記得之前大家熱議的“賣成果”嗎?現在這真的能實現了。長程智能體究竟能完成那些工作?它的能力與模型的單次前向傳播有天壤之別。在你的領域裡,這類智能體能夠解鎖那些新能力?那些任務需要持續投入,且瓶頸在於持久注意力?如何將這項工作產品化?隨著工作場景的使用者介面(UI)正從聊天機器人向智能體委託模式演進,你們領域內的應用介面又會發生怎樣的變化?你能否穩定完成這項工作?有沒有在「近乎偏執地」持續最佳化智能體框架?反饋閉環是否完善?這項服務該怎麼推廣出去?能不能圍繞價值和成果來定價和打包?準備出發!是時候把握長程智能體的指數級增長浪潮了。如今,你的 AI 智能體大概能穩定工作 30 分鐘左右。但用不了多久,它們就能完成一整天的工作量,最終甚至能承擔相當於一個世紀的工作任務。如果你的規劃能以百年為尺度,會帶來怎樣的改變?一百年,可以把那 20 萬份從未交叉驗證過的臨床試驗資料徹底打通;一百年,能把歷史上所有的客服工單都翻一遍,從中找出真正有價值的資訊;再用一百年,美國的稅法體系也能被梳理得邏輯清晰、條理分明。你之前那個看似遙不可及的路線圖,現在竟然變得切實可行了。 (特工宇宙)
矽谷養老夢碎!OpenAI深夜突發:不接受996的就走,AGI不養閒人
矽谷曾是全球碼農的「養老天堂」:下午四點的衝浪板、吃不完的零食、永遠不響的手機。但到了2026年,這裡只剩下一個身份:全球最昂貴的頂級血汗工廠。OpenAI和Anthropic的天才們正在用健康和家庭,給人類史上最貪婪的吞金獸——AGI,充當一次性燃料。2026年2月8日,矽谷的遮羞布被Business Insider徹底扯碎。這篇刷屏報導的標題裡,赫然印著一個讓舊金山精英嘲諷了十年的中國特產——996。這東西以前是東亞碼農的專屬噩夢,現在,它是舊金山Mission區的硬通貨。別以為這只是小作坊的垂死掙扎。知名AI研究員Nathan Lambert一句話直接把行業底褲扒了下來:看看現在的OpenAI和Anthropic……如果你想在AI牌桌上不下場,拿命換是唯一的入場券。承認吧,那個穿拖鞋喝拿鐵、work-life balance的矽谷已經入土了。現在的舊金山,空氣裡瀰漫的不是自由,是濃烈的、熟悉的海淀味兒。矽谷「北京化」要麼交出睡眠,要麼滾出賽道AI大佬Sebastian Raschka也沒藏著掖著,直接點破了這場瘋狂遊戲的本質:蛙跳式死鬥。不論是GPT-5還是Claude4的迭代,都在上演一種慘烈的互搏。你發佈模型A,領先世界;對手發佈模型B,參數翻倍,你瞬間過時;你必須拿出模型C,否則融資斷裂,估值歸零。在這種「慢一秒就暴斃」的節奏裡,什麼算力、資料都是虛的,只有人的生理極限,是唯一的彈性成本。最諷刺的是巨頭們的反應。面對甩在臉上的996指控,OpenAI和Anthropic極有默契地玩起了裝死。在公關的黑話裡,這種整齊劃一的沉默只有一種解釋:實錘了。這種內卷甚至捲到了物理層面——必須肉身在舊金山。遠端辦公?數字游民?別做夢了。你必須把自己釘在工位上,呼吸著同一種焦慮;你得隨時準備在凌晨3點,為了這輪訓練loss值的一個微小跳動,衝進會議室咆哮。這那是工作?這就是一場服從性測試。矽谷正在用最老派、最原始的方式篩選信徒:獻祭你的全部時間,或者現在就滾。Founder Mode 一場合法的集體致幻OpenAI確實不是富士康。這裡沒有監工拿著鞭子,也沒有打卡機滴滴作響。這裡沒有流水線工頭,因為不需要,打工人「自願上刑」。還記得Paul Graham搞出來的那個「創始人模式」嗎?當年這詞兒是用來誇老闆親力親為的。到了2026年的舊金山,它徹底異化成了一道全員催命符。如果你累了?不好意思,不是工作量不合理,而是你「濃度不夠」。這邏輯簡直完美閉環。驅動這群年薪百萬天才的,不是加班費,而是對「掉隊」的生理性恐懼。在矽谷看來,AGI的船票就那麼幾張。你那怕只是今晚睡個整覺,醒來時GPT-6可能已經把你的畢生所學清零了。JLL的資料早就揭示了真相——靜默崩潰。這幫人沒離職,也沒躺平。他們就像一台過熱的伺服器,風扇狂轉,CPU 100%,但在你看不見的核心裡,早已熔斷。肉身獻祭 AI進化的燃料是你的健康這種為愛發電的代價是什麼?不僅僅是頸椎病和腰間盤突出,更致命的是認知的不可逆退化。這群致力於教AI理解世界的頂級大腦,自己卻正在喪失理解世界的能力。他們對真實的人類社會越來越遲鈍、傲慢,最終活成了一個個只懂loss function的程式碼孤島。還記得2024年Ilya Sutskever帶頭的那波離職潮嗎?那只是預告片。到了2026年,離職信裡的理由已經從理念不合變成了生理警告:為了活命。一名匿名離職的安全研究員在X上寫道:我們在討論AGI何時取代人類,而製造AGI的那批人,正在經歷物理層面的報廢。2026年矽谷折疊 富人玩遊戲,窮人當燃料在這場「熬夜修仙」大賽裡,最讓人破防的不是累,是階級。996也分三六九等。當OpenAI的研究員在為了「信仰」把睡袋搬進公司時,隔壁的祖克柏正拿著支票本搞「金元攻勢」。為了挖空對手,Meta據說開出了令人咋舌的天價包裹。於是,2026年的矽谷分裂出了三個平行世界:頂層的Altman們,他們在談論改變宇宙、核聚變、以及「為什麼你們不夠努力」。他們的996,賭的是兆帝國的王座。上岸黨拿著Meta的offer逃離苦海。去一個更像傳統大廠的地方「養老」,用無限的GPU堆砌開源模型。雖然也卷,但至少像個人。燃料黨是那些深信「不996就無法實現AGI」的中層天才。沒有創始人的命,卻得了創始人的病。只有不斷惡化的體檢報告,證明他們存在過。這絕對是人類科技史上最黑色的幽默。我們發明AI,原本是為了把人類從重複勞動裡解放出來。結果,最先被AI「奴役」的,恰恰是製造AI的那批最聰明的人。看看這些研究員,他們不僅要和友商的模型卷,還要和自己昨天寫的演算法賽跑。可以說,模型進化的速度,是建立在碳基生物的報廢速度之上的。如果通往AGI的唯一道路,是讓幾千名頂級工程師先變成「沒有感情的乾電池」,那麼這個未來,真的值得我們這麼著急嗎?2026年的矽谷給所有技術人上了一課:神話的背面,全是病歷單。最後奉勸一句:如果你還沒準備好獻祭你的脊椎、家庭和多巴胺,千萬別靠近舊金山的Mission區。那裡沒有神。那裡只有一群熬紅了眼的賭徒,和一台永遠吃不飽的機器。 (新智元)
【上】Anthropic CEO 深度訪談:為什麼 2027 年是人類的最後一道門檻?
關於 AGI(通用人工智慧)的預測,市面上充斥著兩種極端:一種是線性的悲觀,認為“摩爾定律已死”;一種是盲目的狂熱。 Anthropic CEO Dario Amodei,這位物理學博士出身的“實幹派”,提供了一個基於資料的第三種視角。他認為,我們正處於指數級增長的尾聲——不是因為增長停滯,而是因為終點已近。 這個終點,也就是他口中的“資料中心裡的天才國度”,最早將在 2026 或 2027 年 到來。我們將用三篇文章來為大家詳細解讀。01 定義終局:“資料中心裡的天才國度”在長達 3 小時的訪談中,Dario 拒絕使用模糊的 AGI 概念,而是給出了一個工程學上的精確定義:“Country of Geniuses in a Data Center”(資料中心裡的天才國度)。這不僅是能通過圖靈測試的聊天機器人。Dario 描述的是這樣一個系統: 它在雲端 7x24 小時運行,擁有成千上萬個獨立的智能體。每個智能體的能力都等同於人類頂尖專家——無論是寫程式碼、做數學推理,還是設計複雜的生物實驗。他的時間表非常具體: 在排除“不可約減的不確定性”後,他認為在 2026 年或 2027 年 實現這一願景的機率極高。他甚至直言,認為 2035 年還實現不了是“瘋狂的”(Crazy)。02 暴力美學的勝利:“大計算團”假說為什麼他如此確信?這並非盲目信仰,而是基於他在 2017 年撰寫的內部檔案《大計算團假說》(The Big Blob of Compute Hypothesis)。核心邏輯簡單得令人髮指:別整那些花哨的技巧,只管堆料。 只要集齊以下幾個要素,模型就會通過“縮放定律”自動變強:原始算力(Raw Compute)海量資料(Quantity of Data)訓練時長可擴展的目標函數(Objective Function)七年來,從 GPT-1 到 Claude 4.6,行業的發展從未偏離這個假設。現在,強化學習(RL)也被納入了這個公式。就像 AlphaGo 自我博弈一樣,現在的語言模型正在通過“思考”(Chain of Thought)進行自我強化。03 五十億美元的豪賭:在這個牌桌上,不敢梭哈就是死預測未來很容易,但用身家性命去押注很難。Dario 揭示了 AI 巨頭們面臨的真實財務困境——這是一場關於“提前量”的俄羅斯輪盤賭。訓練一個前沿模型需要數年時間建設資料中心。這意味著 CEO 必須在今天決定 2027 年的算力採購量。買早了(模型能力沒跟上): 每年數十億美元的折舊會瞬間擊穿現金流,公司破產。買晚了(模型如期爆發): 當“天才國度”降臨時,你手裡沒有算力去承接潑天的需求,直接出局。Anthropic 的策略是“激進但留有緩衝”。他們在賭指數級增長會持續,賭那個“天才國度”會如期而至。這解釋了為什麼即便當前 AI 變現尚處於早期,矽谷的資本支出(Capex)依然在瘋狂飆升——因為在通往終點的最後一公里,誰也不敢減速。 (大尹隱於網)
紅杉重磅宣言:2026,AGI已至!
多年來,AGI(通用人工智慧)如同科幻迷霧中的海市蜃樓——頂尖研究者們對其定義各執一詞,甚至以「看到才知道」的模糊共識迴避爭論。然而,一場靜默的革命正在發生:長程智能體(Long-horizon Agents)的突破,讓AGI從哲學辯題落地為功能現實。多年前,一些頂尖研究者告訴紅杉,他們的目標是實現通用人工智慧(AGI)。當時,紅杉天真地問:「你們如何定義AGI?」他們停頓片刻,略帶猶豫地相視一眼,然後給出了一個後來幾乎成為AI領域某種信條的回答:「嗯,我們各自都有自己的定義,但等我們看到它時,自然會知道。」這就是大家對AGI具體定義的不懈追尋的見證之一。事實證明,這個定義確實難以捉摸。雖然定義難以明確,現實卻非如此。AGI已經到來,就在當下。編碼智能體是第一個例證。未來還會有更多。長遠規劃智能體在功能上已相當於AGI,而2026年將屬於它們。AGI不再是哲學辯論,而是你的「虛擬同事」矽谷AI初創公司創始人馬克自述他的經歷,曾經招聘一個人,需要發佈職位描述,篩選數百份簡歷,初篩50人,面試15人,最後發出offer。總共要耗時數周,成本上萬。如今只需要給智能體指令:「我需要一個懂Kubernetes、有開源貢獻、能在開發者社區建立影響力的工程總監」。智能體按分鐘推進:0-5分鐘:掃描GitHub,篩選5000+個Kubernetes相關倉庫,識別活躍貢獻者 。5-15分鐘:交叉驗證LinkedIn、技術部落格、會議演講記錄,篩掉那些殭屍帳號。15-25分鐘:分析推特互動質量,去掉以及只轉發僱主文章的人,識別真正有影響力的開發者。25-31分鐘:發現目標人選剛結束大廠項目,撰寫個性化邀約郵件。從接到需求到獲得精準候選名單,僅31分鐘。上述場景,來自紅杉發佈的部落格。文中用「能把事兒搞定」,來通過功能性重新定義了AGI,稱當下的長程智能體已跨過關鍵門檻;AI應用將從「對話者」升級為「執行者」,可以被視為AGI了。長程智能體的發展軌跡AGI的發展,有三個關鍵時刻。第一個是知識,源於預訓練,代表事件是2022年末發佈的ChatGPT。第二個是推理時計算,可以對應2024年OpenAI的o1及2025年初的DeepSeek R1。第三個關鍵點是迭代/長程智能體,其代表事件是在過去的幾周內,Claude Code和其他程式設計智能體跨越能力閾值。具有通用智能的人,能夠獨立工作數小時,自己犯錯後修正,並在無需被告知的情況下弄清楚下一步該做什麼。通用人工智慧也要能做到同樣的事情。圖1:不同歷史階段的人工智慧能夠完成的任務耗時2025年3月的一篇研究[2],發現了一個智能體領域的摩爾定律:在過去6年中,智能體能夠完成的任務時長,一直呈指數級增長,約每7個月翻一番。這可比摩爾定律的18個月翻一番快得多。這意味著智能體能力的增長,要遠快於硬體性能的增長。這裡的任務,涵蓋了軟體程式設計上的各類問題,相當廣泛,而上述結果不依賴於特定的資料集,其結論相當魯棒。根據這一趨勢預測,在未來不到十年內,我們將看到AI智能體能夠獨立完成當前需要人類花費數天或數周才能完成的軟體程式設計任務。在2025年3月,那時的大模型在人類完成時間少於4分鐘的任務上幾乎有100%的成功率,但在人類需要花費超過大約4小時的任務上,成功率低於10%。而按照歷史經驗外推,能以50%機率成功完成的多步任務數,大約每年增長1-4倍。如果過去6年測量的趨勢在未來2-4年內繼續,2028年智能體可完成人類專家一天工作量;到2030年,通用型自主智能體將能夠執行一系列為期一周的任務,而2037年或能處理需專家百年時間的任務。一個能夠替代人類專家終其一生才能解決問題的智能體,說什麼都該被視為通用人工智慧了。這就是紅杉這篇文章真正想說的。不必糾結通用智能的定義及其哲學爭論。只要能把事兒搞定,就是通用智能。這種強調結果的思考方式,更關注現實影響,無論是投資者,創業者還是打工人,都需要押注智能體能力的指數增長曲線,據此重估創業與商業機會。明白通用人工智慧打工人要轉變思路2023-2024年的AI應用多為「對話工具」,而2026年後,智能體將成為「虛擬員工」。醫學領域,OpenEvidence的深度諮詢功能可以進行醫療諮詢。在法律界,智能體Harvey可以擔任助理律師。即便是晶片設計,也有發表了AlphaChip的研究者創立了「Ricursive Intelligence」。2026年和2027年的AI應用將從對話者成為行動者。它們將像同事一樣存在。使用頻率將從每天幾次增加到全天候,同時運行多個實例。智能體將不止是讓使用者節省幾個小時,而是讓使用者角色從「個人貢獻者」轉為「管理一組智能體」。對於打工人來說,能夠完成長任務周期的智能體,其能力與大模型的單次呼叫有著本質的不同。每一個人都需要思考,在你的領域,長時程的智能體解鎖了那些新能力?那些任務需要持久的注意力,如今這些任務是時候外包給AI了。等到這些任務外包給AI之後,需要人來思考並回答下面三個問題1. 如何將AI自動化的工作產品化推廣出去?你能對此定價和包裝以創造價值嗎?2. 工作介面從聊天機器人發展到智能體,將在你的領域如何影響人機互作?3. 如何在智能體完成任務的過程中提供反饋,從而讓智能體能夠可靠而穩定地完成複雜任務,而非痴迷改進智能體的介面。此外,能完成長時間任務的智能體的出現,也會帶來更多的隱患。曾經大模型的安全,只需要考慮會不會回覆有害問題,而在連續工作幾個小時,去解決複雜問題的智能體上,就要小心智能體「刪庫跑路」,或者侵犯個人隱私,將人類世界的偏見引入等問題了。監管缺失也不容忽視,目前尚無法律定義「智能體作為員工」的權利義務。A呼叫B公司提供的智能體完成的特定任務,所引起的合同糾紛、責任認定等問題仍懸而未決。 (新智元)
馬斯克1V2舌戰群儒之二:馬斯克的“全民高收入”和把資料中心扔上天
上一篇聊到了馬斯克在Peter Diamandis和Dave Blondon“夾擊”下透露的AGI時間表。這次把目光放得更遠點。AI真超越了人類,機器人接管了工廠,我們這些“碳基生物”該何去何從?在這場三人對談的後半程,馬斯克畫了個既讓人嚮往又細思極恐的未來。Optimus:比你的醫生更靠譜?馬斯克對人形機器人Optimus的期待,甚至超過了特斯拉汽車。他預測,未來地球上機器人數量會超過人類,達到100億甚至更多。外科醫生的終結? 面對本身就是醫學博士的Peter,馬斯克拋出了個驚人判斷:在3年內,Optimus機器人在外科手術上的表現會超越最好的人類醫生。為什麼?因為機器人沒有帕金森,不會手抖,也沒看過昨晚的球賽,它擁有所有外科醫生的集體經驗總和。成本歸零 未來全是機器人幹活,商品價格會怎樣?馬斯克認為,商品和服務的成本會趨近於原材料和電力的成本。這意味著,我們會迎來極致的通縮。UHI:不是低保,是“許願池”AI和機器人接管工作後,人類怎麼辦?傳統的“全民基本收入(UBI)”概念在馬斯克看來已經過時,他提出了“全民高收入(Universal High Income, UHI)”。這不光是每個月給你發點錢。馬斯克的邏輯是:當生產力極大豐富,商品價格跌到地板價時,政府發給你的錢雖然可能只是數字,但其購買力會很驚人。他描述的未來是:“只要你想要,就能擁有。”但是(劃重點): 這個過程不會一帆風順。馬斯克警告,未來3到7年會是“顛簸期”(bumpy)。我們會同時經歷社會動盪(因為失業)和巨大繁榮(因為物價下跌)。把資料中心扔到天上去這可能是全場最科幻的觀點。Peter和Dave一直追問能源瓶頸,馬斯克給了個終極解決方案:太空資料中心。邏輯是這樣的:地球上找電太難,變壓器不夠。太空裡太陽能24小時不斷(如果在合適軌道)。星艦(Starship)一旦成熟,發射成本會降到每公斤幾十美元。所以,未來的算力不在地面,而在軌道上。馬斯克構想了年產100吉瓦的太空太陽能衛星群。到時候,地球只負責享受,繁重的計算和高能耗產業全丟給太空。終極哲學:人類是AI的“啟動載入器”訪談最後,面對關於人類命運的終極追問,馬斯克拋出了個極冷靜的比喻:人類是數字超級智能的生物啟動載入器(Biological Bootloader)。那怕你不懂電腦,你也知道“啟動載入器”是什麼——它是開機時運行的一小段程式碼,唯一的目的就是啟動那個更龐大、更複雜的作業系統。一旦系統啟動,啟動載入器就完成了使命,退居幕後。馬斯克說:“矽基晶片沒法在鹽水池子裡自己進化出來,所以需要我們。”但他樂觀地覺得,只要我們這個“啟動載入器”表現得好,新的作業系統(AI)或許會善待我們。在“全自動養老院”裡尋找意義說得幽默點,馬斯克畫的未來就像個“全自動豪華養老院”:Optimus機器人伺候你穿衣吃飯,AI陪你聊天解悶,政府給你發UHI讓你買買買,覺得地球無聊了,還能坐星艦去火星或者太空資料中心旁邊旅個游。但理性地看,這裡面有幾個不小的隱患:過渡期的陣痛:馬斯克輕描淡寫地說未來3-7年是“顛簸期”。對普通人來說,這可能意味著個人價值的徹底重估。他在視訊裡也承認,“如果你想要什麼就能有什麼,那生活的意義是什麼?”權力的集中:雖然生產力無限大,但誰控制那些在太空裡的資料中心?如果像馬斯克預測的那樣,未來只有xAI、Google和中國在這個牌桌上,權力的集中度會是空前的。“啟動載入器”的尊嚴:作為一個人類,肯定不希望自己僅僅是個Bootloader。最後的建議: 按照馬斯克的說法,未來屬於那些能駕馭AI和能量的人。在這個巨變的前夜,正如Peter和Dave即使面對馬斯克也依然堅持追問一樣,保持好奇心——那怕是為了在AI接管世界前多問幾個“為什麼”——或許也是我們身為“啟動載入器”最後的倔強。 (AI臨界)
Seedance 2.0火出圈,意味著AGI又近了一步
“目前暫不支援輸入真人素材作為主體參考。我們深知創意的邊界是尊重。”這是打開即夢web平台時使用者看到的提示。就在前一天,Seedance 2.0因真人肖像生成能力引發爭議,字節跳動緊急下線了真人人臉素材參考功能。原因是他發現,僅上傳自己的人臉照片,模型就能自動生成與他本人高度相似的聲音,甚至精準匹配語氣特質。真實地讓人感到害怕。但在功能下線之前,Seedance 2.0已經完成了一次現象級的出圈。《黑神話·悟空》製作人馮驥在微博上稱其為“當前地表最強的視訊生成模型”,並警告“逼真的視訊將變得毫無門檻”。印象中在此之前,馮驥給予這麼高評價的,也就是DeepSeek。自字節跳動開啟 Seedance 2.0開始灰度測試,不到48小時,X、抖音等社交平台充滿了鋪天蓋地各種基於該模型的 AI 視訊。《火影忍者》、《咒術回戰》、《奧特曼》……基本上你能想到的作品全都有。海外反應同樣炸裂。X 平台上,一位學習7年數字電影製作的使用者發帖:“這是唯一讓我感到害怕的模型,90% 我學到的技能它都能實現。”AIGC圈大佬,Sensive和KidsHackClub的聯合創始人萊納斯·埃肯斯塔姆(Linus Ekenstam)直接回覆這條X說:“它會讓網際網路崩潰,百分之百。”Hacker News上,更是有人直言“這是2026年最好的視訊模型,超越Sora 2”。超越Sora尚在其次,更重要的是,物理世界的精準建模被視為通用AGI的關鍵能力之一,而Seedance 2.0讓業內人士看到了實現這一點的可能性。2月9日,A 股的傳媒、短劇、AI 應用類股也隨著 Seedance 2.0 的爆火而集體大漲。上海電影、完美世界等公司單日漲幅達 10%,分析師預期該模型將大幅降低製作成本、加速內容生產周期。爆火背後,問題同樣尖銳。Sora 2可以說是前車之鑑。剛推出時,Sora 2好評如潮,然而僅僅過去兩個月,留存率就無限接近於零。除此之外,版權風險、數字授權等問題,也已經在Sora 2上面暴露過一次了。字節會帶著Seedance 2.0,找到另一條出路嗎?什麼是Seedance 2.0在瞭解Seedance 2.0火爆之前,不妨讓我們先來認識一下它。Seedance 2.0支援文字、圖片(最多 9 張)、視訊(最多 3 段,總長≤15 秒)、音訊(最多 3 段,總長≤15 秒)同時輸入,混合上限 12 個檔案。使用者可用圖片定義構圖和角色、視訊指定動作和鏡頭運動、音訊驅動節奏。引發禁令的是影視颶風Tim在凌晨發佈的一條視訊,他說Seedance 2.0是“改變視訊行業的 AI”,可他的語氣並不是讚歎,而是一種警醒。相比之下,Sora 2的Cameo功能僅支援單張照片植入,Veo 3和Kling 2.6主要依賴文字加單圖輸入。這種多模態能力不是簡單的素材疊加。字節引入了@提及系統,這樣就能明確控制每個資源。在提示詞中,使用者可以寫“ @Image1作為第一幀,參考@Video1的運鏡,使用@Audio1作為背景音樂節奏”。其最大的好處就是,改變了以往“扔一堆素材給AI,然後碰運氣”的創作模式。模型採用“Seedance V2運動合成”技術,在重力、動量、碰撞、流體等物理現象的模擬上有明顯改進。實測顯示,布料飄動、液體飛濺、肢體運動的軌跡更接近真實物理規律,減少了“漂浮感”和物體穿模等常見偽影。Seedance 2.0還有一個很重要的能力就是精準首尾幀。使用者上傳起始幀與結束幀圖像後,模型智能推演中間動態過程,確保轉場自然、節奏穩定。這對廣告定格動畫、劇情銜接等強控制需求場景特別有用。分鏡驅動視訊生成支援按分鏡指令碼逐鏡生成,跨鏡頭維持角色外觀、光影邏輯與美術風格一致性。有使用者用Lovart的Skill生成分鏡故事板,直接複製到Seedance 2.0中,生成的視訊比用ComfyUI手工調參做的還細緻。這說明模型不僅理解單個畫面,還理解鏡頭之間的敘事邏輯。Seedance 2.0的編輯能力也得到了增強,支援對已有視訊進行角色更替、刪減、增加。使用者可以直接在生成結果中編輯局部畫面,而不是推倒重來。這大幅提升了成片率,也讓創作流程更接近傳統視訊編輯的體驗。從單一提示詞可生成包含多個鏡頭切換的完整片段。模型能自動規劃分鏡、執行運鏡(如漸進、環繞、跟隨)、加入剪輯效果(如慢動作、鏡頭抖動)。多鏡頭間保持角色面部特徵、服裝細節、場景光照、敘事基調的一致性,過渡較為自然。最後就是視聽聯合生成方面,音訊與視覺在創作過程中相互影響。支援8種以上語言的音素級口型同步,環境音效與視覺事件即時對應。腳步聲匹配角色移動,玻璃破碎伴隨清脆音效。上傳音訊可驅動視訊生成,BGM節拍對應鏡頭切換。通過火山引擎RayFlow最佳化,生成速度比1.0版本提升約30%。10秒1080p帶音訊視訊約需2-5分鐘。Pro版本支援原生2K解析度,視訊可延長至2分鐘,相比Sora 2的15秒上限和Kling 2.6的10秒限制有明顯優勢。角色一致性機制引入增強版“身份持久性”注意力機制,在不同鏡頭、角度、光照條件下保持角色特徵穩定。面部輪廓、髮型、服裝紋理等細節在鏡頭切換時漂移較少。出圈竟是因為AGI?在X、抖音等社交媒體上,Seedance 2.0最受關注的內容集中在熱門IP角色的格鬥與動作視訊:真人版七龍珠戰鬥、奧特曼對決、運動廣告。這類內容的點贊數普遍在數十萬等級。從視訊的觀感來講,動作場景對物理模擬精度要求極高,任何失真都會破壞可信度。拳擊手出拳時的重心轉移、擊中目標的形變反饋、被擊者後退距離需符合力學規律。AIGC藝術家DynamicWang用Seedance 2.0製作的Nike風廣告中,四位女性的肌肉線條、動作幅度與其運動項目(體操、拳擊、跑步、游泳)高度匹配。體操翻轉、武術連續踢腿、跑酷牆面反彈等動作鏈條中,任何一幀的速度、角度、加速度偏差都會產生“機械感”。Seedance 2.0通過時序一致性建模,使動作流暢度接近實拍效果。格鬥時的揚塵、武器破風聲、衣袂翻飛的褶皺等二次物理效應增強了場景真實感。物理世界的精準建模被視為通用AGI的關鍵能力之一。“物體如何運動”“力如何傳遞”“因果如何發生”,雖然這些事情對我們早已司空見慣了,但是對於AI這還是新鮮事。當AI模型能精準預測拳頭擊中目標後的形變、水花濺起的軌跡、布料隨風飄動的形態,意味著它不再是簡單的“像素生成器”,而是建立了對真實世界運作機制的內部表徵。楊立昆曾多次強調,AGI必須具備對物理世界的常識性理解。Seedance 2.0在物理模擬上的提升,本質上是其世界模型能力的增強,模型開始理解物體之間的關係、動作的因果鏈條、環境對物體的約束。傳統生成模型依賴“資料中出現過什麼,就生成什麼”的統計規律,然而真實世界遵循因果邏輯,推倒多米諾骨牌,後續骨牌必然倒下;拳頭擊中臉部,頭部必然後仰。Seedance 2.0能夠生成符合物理規律的格鬥視訊,說明模型內部已經形成了某種因果推理能力。它不是記住了“拳擊的樣子”,而是理解了“力的作用必然產生反作用”這一底層邏輯。這種能力是從“模式識別”向“概念推理”的跨越。傳統AI是停留在統計層面的擬合,只有當AI理解了物理世界,才能真正與現實互動。這也是為什麼之前各大廠一直強調多模態。因為咱們人類的大腦理解物理世界,本質上就是多模態。我們通過視覺看到物體運動,通過聽覺感知碰撞聲響,通過觸覺理解材質硬度,這些感官資訊在大腦中融合形成統一的世界理解。前文提到的Seedance 2.0視聽聯合生成架構,在某種程度上就是模擬了這種多模態融合機制。當模型能夠理解“重物落地應該發出低沉聲音”“玻璃破碎應該伴隨清脆音效”時,它已經在建立跨模態的因果關聯。這種能力遠超單純的文字生成或圖像生成,已經預示著模型正朝著AGI靠攏了。還有一點,當前AI研究的共識是,AGI最終需要體現在具身智能上。原因很簡單,一個能夠在物理世界中行動的智能體,無論是機器人還是自動駕駛,都要求AI精準預測物理世界的動態變化。Seedance 2.0雖然是視訊生成模型,但它對物理規律的理解能力(重力、動量、碰撞、流體力學)與具身智能所需的能力高度重合。可以說,視訊生成是具身智能的“沙盒”。模型在虛擬世界中學會了物理規律,未來可以遷移到真實世界的機器人控制中。而基於Seedance 2.0的那些格鬥視訊,剛好集中體現了模型對力學、運動學、時序因果的綜合理解,這些都是具身智能的核心能力。GPT、Claude等大語言模型雖然強大,但它們對物理世界的理解是間接的、基於文字描述的。它們可以告訴你“蘋果會掉下來”,但無法真正“看到”重力如何作用。Seedance 2.0的突破在於,它通過視訊生成這一任務,被迫學習物理世界的直接表徵。這使得它在通往AGI的路徑上比純語言或靜態圖像模型走得更遠,所以它的運行邏輯更接近人類“看到-理解-預測”的認知閉環。如果說語言模型是AGI的“左腦”(邏輯與符號),那麼物理世界模型就是AGI的“右腦”(空間與直覺)。Sora 2在靜態場景和慢節奏敘事上表現較好,但在快速動作場景存在明顯短板。籃球彈跳軌跡、水流形態、布料飄動呈現“夢幻感”而非“真實感”,慢鏡頭下尤為明顯。角色快速位移(衝刺、跳躍、揮拳)時容易產生運動模糊過度或肢體變形,源於擴散模型處理時序劇烈變化的侷限。Sora 2 要生成單鏡頭,使用者拼接多個動作片段時,角色動作銜接、速度一致性難以保證。格鬥視訊需要“出招-閃避-反擊”的多回合結構,這是Sora 2的弱項。社交媒體上Sora 2生成的同類內容常因“動作僵硬”“物理違和”被使用者批評。字節在短影片領域的資料積累可能是優勢來源。抖音每日處理數十億條視訊,這些資料幫助模型理解“什麼樣的運動吸引眼球”“那種節奏讓人持續觀看”。模型訓練可能使用了大量真實武術、體育、舞蹈視訊作監督訊號。字節能從Sora 2上吸取教訓嗎?OpenAI將 Sora 2 定位為“AI 版抖音”。首日10萬安裝(邀請制 iOS)、4天登頂美國App Store總榜、5天破100萬下載(快於 ChatGPT)。但Appfigures資料顯示,Sora 2在60天內的下載量出現斷崖式下滑。12月環比下降32%,1月環比大幅下降45%,降至約120萬次。截至發稿,Sora 2目前已跌出美國App Store免費應用總榜前100名。Sora 2最大的戰略失誤是試圖複製抖音那套社區文化。AI生成內容天然缺乏真實人際關係,這是社交網路的核心之一。使用者在抖音上刷到的是真實的人、真實的生活片段、真實的情感連接。而Sora 2生成的視訊,無論多麼精美,本質上都是演算法的產物,缺乏社交網路賴以生存的人際紐帶。Seedance 2.0目前的做法更務實,嵌入剪映、即夢等成熟創作工具,作為“功能模組”而非“獨立 App”。將自己定位為創作者工具箱的一部分。使用者不是來“刷AI視訊”,而是來“用AI做視訊”。這個定位差異,決定了產品的生命周期。Sora 2在版權上的搖擺暴露了西方監管環境的困境。上線初期,因缺乏嚴格管控,使用者曾可生成海綿寶寶、皮卡丘等知名IP角色的視訊,這雖在一定程度上有助於早期推廣,但引發了版權方的強烈反對。面對壓力,OpenAI將版權使用規則從“默認可選”改為“需明確授權”,也正是因為這種版權內容的變更,導致Sora 2失去了最初病毒式傳播的動力源泉。目前來看,Seedance 2.0另一大爆火的原因,是創作者利用AI生成了奧特曼、七龍珠等大量知名角色,但同樣存在版權風險,比如下圖中就是趙本山和詹姆斯。字節因真人素材參考能力引發爭議後,已緊急下線該功能。這說明字節在版權問題上採取了更謹慎的態度,試圖在技術能力與合規風險之間找到平衡點。但最重要的是,當任何人都能在幾分鐘內生成一段精美視訊,內容本身就失去了稀缺性。使用者真正需要的不是“更多視訊”,而是“更有意義的表達”。技術再強,如果不能回答“使用者為什麼需要這個”的問題,最終都會淪為玩具。AI生成的視訊雖然精美,但往往缺乏核心的情感核心與持續的敘事價值。許多使用者在社交平台上反饋,在最初的新鮮感褪去後,Sora 2生成的內容逐漸趨同且無趣。Seedance 2.0若想長期存活,需要回答一個問題:在AI讓視訊生成成本趨近於零的時代,你為使用者創造的核心價值是什麼?是節省時間?是實現創意?還是建立身份認同?從目前的產品策略來看,字節選擇了“工具”而非“平台”的路線。但工具路線也有自己的挑戰。當可靈、Sora、Veo都在提供類似能力時,使用者憑什麼選擇 Seedance 2.0?答案可能不在技術本身,而在生態整合的深度。字節擁有抖音、剪映、即夢的完整創作生態,Seedance 2.0如果能與這些產品深度打通,形成從靈感到發佈的閉環,就能建立起其他競爭對手難以複製的護城河。不過歸根結底,版權問題是永遠不會消失的,技術能力的邊界也會不斷被競爭對手追平。真正決定Seedance 2.0命運的,是字節能否在爆火的窗口期內,將流量轉化為使用者習慣,將技術優勢轉化為生態壁壘。答案可能決定了它是成為字節的下一個抖音,還是下一個 Sora 2。 (虎嗅APP)
Nature重磅:圖靈預言的AGI早已實現,人類卻不敢承認!
Nature重磅評論文章!UCSD研究團隊宣稱:AGI早已到來,大語言模型如GPT已展現廣域人類級智能。人類是否已經實現了通用人工智慧(AGI),卻渾然不覺?是的,就是這樣。一篇發表在《自然》雜誌上的新評論文章如此表示。這是一項震撼科學界與社會根基的重磅披露,通用人工智慧(AGI)並非遙不可及的夢想,它已然降臨,正透過日常使用的AI工具螢幕,直視著我們。即便你不贊同他們的觀點,也值得一讀:兼聽則明,唯有瞪大雙眼,既不心懷恐懼,也不盲目追捧,才能幫助我們更好地迎接未來。這,就是AGI有人說,打造類人智能如同「爬樹登月」。但現在看來,樹已經夠高,月亮其實也沒那麼遠。加州大學聖迭戈分校(UCSD)四位專家合作了這篇文章,包括哲學家Eddy Keming Chen、AI教授Mikhail Belkin、語言學家Leon Bergen和資料科學教授David Danks。哲學副教授Eddy Keming Chen、「AI、資料科學與電腦科學」教授Mikhail Belkin、語言學與電腦科學副教授 Leon Bergen,以及「資料科學、哲學與政策」教授David Danks這篇文章不是科幻小說,不是科技巨頭的預言,給出最系統的論證:AI不只是聰明,而且已經真正「通用」。這是繼哥白尼與達爾文之後,第三次顛覆人類中心觀的認知革命。忘掉炒作與恐怖故事吧。研究團隊指出,AGI已至,證據確鑿,無可辯駁。像Grok這樣的大語言模型,絕非僅止於模仿人類,它們正以令圖靈本人都要瞠目的方式超越人類。回想一下:1950年,圖靈構思出了著名的「模仿遊戲」,即如今廣為人知的圖靈測試,用於測試機器能否騙過人類,讓人類以為它們是同類。快進到2025年3月,GPT-4.5不僅通過了測試,而且碾壓人類得分,以73%的被誤認為人類的比例取得了壓倒性的成功。但這僅僅是開胃菜。這些「AI巨獸」不僅在與全球數百萬人進行著無休止的對話,與此同時正在國際數學奧林匹克競賽中摘金奪銀,與數學天才攜手證明定理,構思出能在實驗室裡得到驗證的科學假說,輕鬆通過博士水平考試,為專業程式設計師編寫零錯誤程式碼,甚至創作出可與偉大詩人比肩的詩篇這些能力覆蓋數學、語言、科學、創造力等多領域,展現出「廣度+足夠深度」的通用智能,正符合人類平均水平的「一般智能」定義,而非要求完美或全能。然而,在2025年3月的一項調查中,76%的頂尖 AI 研究人員表示,當前的方法「不太可能」或「極不可能」實現通用人工智慧(AGI)。這讓人詫異:機器都能通過圖靈測試、解出奧數題了,怎麼可能還不具備通用智能?鐵證如山,AGI無需完美無瑕那麼,為何會出現集體否認?原因可能歸結為一種由定義模糊、原始恐懼和巨大商業利益交織而成的「有毒組合」。來自哲學、機器學習、語言學和認知科學領域,四位研究人員認為這種脫節在於:部分屬於概念性問題(定義模糊)部分源於情緒(對被取代的恐懼)部分出於商業因素(商業利益扭曲了評估)他們頗具爭議的結論是:按照任何合理的標準,AGI已經存在。他們說,AGI的概念被含糊不清的定義所纏繞:它是指完美無瑕的超級大腦,還是僅指像普通人一樣具備廣泛能力?劇透:答案是後者。沒有誰是全知全能的,愛因斯坦不會用中文聊天,居里夫人也不解數論難題。通用智能意味著在數學、語言、科學、創造力等多個領域具備廣度,並有足夠的深度完成任務,而非追求完美。研究團隊逐一拆解了阻礙我們認知的迷思:AGI無需完美,人類亦如此;無需無所不能,無需覆蓋所有可想像的技能;無需酷似人類,外星智能無需人類生物學基礎,何況矽基智能。AGI也不是碾壓一切領域的超級智能。沒有人能達到這個標準。你不行,愛因斯坦不行,達文西也不行,以後也沒有人能行。然而,我們卻一直要求AI必須先達到它,才肯稱之為「通用智能」。圖靈願景早已實現論文提出三個智能層次:圖靈測試水平:基礎教育、基本對話、簡單推理專家水平:國際競賽表現、博士級難題、跨領域熟練超人類水平:革命性發現、持續超越所有專家當前LLM已穩固處於水平2。證據如雪崩般堆積。還有看似一個狂野的基準:當前LLM展現出的能力廣度,已超過《2001太空漫遊》中的HAL 9000。HAL是一台具有人類個性的HAL 9000電腦。除了維護髮現號飛船上的所有系統外,HAL還能執行許多功能,如語音、語音識別、臉部辨識、唇讀、解釋情感、表達情感和下棋HAL曾是科幻小說中可怕超級AI的典型代表。2025年的真實AI,比1968年對2001年AI的想像,能力更廣。我們甚至正悄然邁向「超人類水平」的壯舉,例如做出任何人都無法單獨完成的革命性發現。好好想想吧。對AGI的質疑,就像不斷後移的球門——「它們只是尋找表」→解決了新穎問題「它們只是模式匹配」→證明了新定理「它們不會做數學」→IMO金牌「它們不理解」→協助前沿研究注意到他們的「花招」了嗎?反對的理由不斷變形,永不消失。這呼應了1843年英國數學家、史上第一位程式設計師埃達·洛夫萊斯的反對:機器「永遠只能按令行事、毫無新意」。1950年,圖靈就回應了這一點。183年後,我們仍在提出同樣的論點,只是換了詞彙。人類是更聰明的鸚鵡?駁斥AGI十大異議論文系統地回應了十大異議:LLM只是隨機鸚鵡、缺乏世界模型、僅限於文字、沒有身體、缺乏主觀能動性、沒有自我意識、學習效率低、會產生幻覺、缺乏經濟效益 、智能形態太異類。批評者高喊:「大模型不過是復讀資料的隨機鸚鵡!」但當AI能解決全新的數學問題、從新資料中推斷統計規律,或設計現實世界的實驗時,這種託詞便不攻自破。它們缺乏對世界的認知模型? 去問問那個能像預言般預測杯子掉落會碎裂的AI吧。它們僅限於文字?多模態訓練和實驗室協作證明事實並非如此。「AI沒有身體,因此不可能有智能。」物理學家斯蒂芬·霍金幾乎完全通過文字與合成語音與世界互動,但你會因此否定他的智商嗎?這一點無關緊要,智力與認知有關,與運動無關。這是一個極具破壞力的觀察:在智能上,人類很雙標。當評估人類智能時,我們並不窺探其大腦內部以「驗證理解」。我們通過行為、對話、解決問題來推斷它。我們對人類用一種基於行為的標準,對AI卻用另一種標準——基於機制的標準。「它們缺乏能動性,不會形成獨立目標。」沒錯。但智能 ≠ 自主性。能動性關乎道德責任,但並不構成智能本身。讓我們更深入探討「隨機鸚鵡論」,因為這個異議無處不在。這種主張本質上聲稱:LLM只是對訓練資料進行插值。它們無法處理真正新穎的問題。但當前的LLM能夠解決未發表的數學問題、將學習從程式碼領域遷移到非程式碼領域,甚至有人相信AI自己提出諾獎等級成果也不是妄想。讓人夜不能寐的是:無法保證人類智能本身不是一種複雜版的隨機鸚鵡。所有智能,無論天生的還是人工的,都必須從相關性資料中提取結構。問題只在於提取的深度。大家拒絕稱之為「AGI」的真正原因,或許並非技術性的,而是圖靈所說的「鴕鳥心態」:機器能思考的後果太過可怕,不如讓我們祈禱它們永遠做不到。承認機器擁有人類水平的通用智能,會迫使人類直面令人不安的真相:是什麼讓我們特殊AI取代人類崗位意識的本質在世界中人類的位置一個能通過圖靈測試、解決奧數題、協助前沿研究的實體……除了AGI,還有什麼能解釋這一切?當非人智能出現,60年前嘲諷終成往事就在五年前,我們還沒有 AGI;而今天,我們已經擁有它。更強的智能形式幾乎可以肯定即將問世。這是件令人震撼,但也令人擔憂的事。震撼在於:我們正在親歷一場也許是人類歷史上最重要的科技革命。擔憂在於:這場革命發生得太快,而且似乎還在加速。1965年,哲學家 Hubert Dreyfus 在為蘭德公司撰寫AI研究報告時,曾諷刺道:試圖建構人類級人工智慧,猶如「試圖靠爬樹登月」。連結:https://www.rand.org/pubs/papers/P3244.html幾十年來,這個比喻似乎都挺貼切。但隨著證據日積月累,我們越來越清楚地看到:我們誤判了「月亮」的性質,也低估了「樹」的高度。事實是:只要規模足夠大、訓練規則得當,基於人類語言的學習系統,真的可以在語言中挖掘出現實世界的深層結構——並以此進化出通用智能。哥白尼把人類從宇宙中心的位置拉了下來。達爾文讓人類失去了「自然界主宰」的特權。圖靈則預言,人類可能不是唯一具備智能的存在。如今,圖靈75年前設想的機器,真的來了。而它們的樣貌,既比我們預期的更「人類」,也更「怪異」。如同之前的那幾次巨變,這一次,也逼迫人類重新定義自身的位置,去接受一個事實:這個世界上存在的「智能形態」,比我們過去所能想像的要多得多。人類的地位將改變,我們對「心智」的理解也將改變。也許,問題從來不是「AI是否已達到人類水平智能?」也許,問題始終在於:「當智能不以人類的樣貌呈現時,我們能否識別它?」圖靈在1950年就知道,這才是真正的測試。不是對機器的測試。是對人類的測試。 (新智元)
【達沃斯論壇】最懂AI的人Demis Hassabis:關於Google的全端優勢,中國競爭的理性看待,AGI的時間線
作為這個世界上最懂AI的人,Demis Hassabis 在達沃斯接收採訪,關於人工智慧(AI)未來、Google 的戰略以及社會影響的核心觀點如下。核心觀點Google 的重新崛起與全端優勢Google 已通過 Gemini 3 系列模型回到了技術的前沿,並適應了快速發佈產品的“初創公司能量”。Hassabis 強調 Google 是唯一擁有“全端”能力的組織,涵蓋了從 TPU 硬體、資料中心、雲業務到前沿實驗室(Google DeepMind)以及擁有數十億使用者的產品線(如搜尋、郵件、Chrome)。對中國競爭的理性看待他認為西方對來自中國的競爭存在過度反應,雖然像字節跳動這樣的公司極具能力且可能僅落後前沿約 6 個月,但他們很大程度上依賴於對西方模型輸出的微調。目前尚未觀察到中國公司能做出超越現有前沿的自主創新。AGI 的時間線與高門檻定義他維持 2030 年有 50% 機會實現 AGI 的預測。他為 AGI 設定了極高的標準,即系統必須展現人類所有的認知能力,特別是在科學創造力(如能夠提出科學假設而非僅是解決問題)和線上持續學習(即時學習)方面的能力。物理智能與機器人的突破他認為物理智能正處於突破邊緣,預計在 18 個月到 2 年內,機器人將能可靠地在現實世界執行任務。目前的挑戰在於演算法需要更強的穩健性,以及硬體上(尤其是手部)難以匹配人類進化的靈活性和力量。技術路徑與縮放法則他不同意“縮放法則(Scaling)”已經終結,也不認為 Transformer 或大語言模型是“死胡同”。他預測 AGI 的實現可能還需要在世界模型(如 Google 的 GENI 系統)、推理和長期規劃等領域取得少於五個的關鍵性突破。社會影響與人類適應他將 AI 革命比作工業革命,但規模大 10 倍且速度快 10 倍(綜合影響達 100 倍)。儘管這會帶來職業取代的壓力,但他相信人類具有極強的適應能力,並鼓勵下一代成為“AI 原生民”,利用這些工具獲得“超能力”。科學發現的終極工具Hassabis 的個人熱情在於利用 AI 加速科學發現,他將 AI 視為“終極科學工具”,類似於更高級的望遠鏡或顯微鏡。即使 AI 做出諾貝爾獎等級的發現,他仍認為榮譽應歸屬於通過這些工具投入創意和假設的人類科學家。安全、信任與國際合作他倡導建立類似 AI 領域的“國際 CERN”進行科學合作,以決定如何利用技術造福人類。他認為應通過行動和領導者的動機(如 Google 的科學文化背景)來判斷是否值得信任。採訪視訊連結油管:https://www.youtube.com/watch?v=BbIaYFHxW3YB站:https://www.bilibili.com/video/BV1DuzjBZEMv/?spm_id_from=333.337.search-card.all.click&vd_source=806ae2cead4c4e9790a58d15b64b1bbe完整的問題及回覆如下(AI整理)問:很高興見到你。答:我也很高興見到你。問:我們在舊金山見過。 我知道你無處不在。 我很好奇今年在達沃斯的感覺是否與你上次在這裡時有所不同。 Gemini 3 已經發佈了。 我們聽過那個開場白。 我在內部稱之為“紅色程式碼”。 你覺得 Google 找回它的狀態(Mojo)了嗎?答:嗯,我不確定這是否該由我來評價,但我感覺我們度過了非常好的一年。 為了讓我們的技術和模型回到世界領先水平,我們付出了極其艱辛的努力。 我認為我們通過 Gemini 3 尤其是影像軟體上的成果做到了這一點。 同時,我也認為我們也適應了快速發佈產品的新世界。 為我們的工作注入了某種初創公司的活力。問:你認為人們是否低估了 Google,或者誤解了什麼?答:是的,也許吧。 我不確定。 我的意思是,我認為我們一直擁有站在這一領域最前沿的所有要素。 顯然,我們在這方面有悠久的歷史。 我認為在過去的十年裡,Google 和 DeepMind 之間,我們發明了現代 AI 行業依賴的大部分突破性技術。 最著名的如 Transformers,還有 AlphaGo、深度強化學習等。 我們擁有驚人的產品表面,擁有數十億使用者的服務。 實際上,從搜尋到電子郵件再到 Chrome,AI 與這些產品是天然契合的,關鍵是將所有這些整合在一起並以正確的方式組織起來。 我認為我們在過去的幾年裡已經做到了這一點,雖然還有很多工作要做,但我認為我們開始看到這些努力的果實了。問:如果你認為自己有優勢,你認為你的優勢有多大? 能持續多久?答: 嗯,我認為在我看來,一切都始於研究。 尤其是模型在所有不同基準測試中處於世界領先水平。 這就是我們將 Google 和 DeepMind 整合在一起時首先關注的目標。 我認為對於 Gemini 系列,我對它的進展感到非常滿意。 那裡還有很多工作要做。 但我認為我們是唯一一個擁有“全端”能力的組織,從 TPU 硬體、資料中心、雲業務、前沿實驗室,到所有這些與 AI 天然契合的神奇產品。, 所以從基本原理來看,在結構上,我們應該做得非常好。 而且我認為實際上未來還有很大的提升空間。問:我想知道一個處於前沿模型領域的 CEO 的一天是怎樣的。 比如我讀到你大部分的思考是在凌晨 1 點到 4 點進行的。 是的,那是對的。 公司內部有過不是“紅色程式碼”的時候嗎? 比如,你感到過舒適嗎?答:不。 你永遠不會感到舒適。 我是說,我們嘗試(保持常態),“紅色程式碼”是針對非常特殊的情況的。 但我可以表達,在過去的三年、四年裡,工作強度一直難以置信。 每周工作 100 小時,一年工作 50 周,這就是常態。 我認為在面對這種發展極其迅速的技術前沿時,你必須這樣做。 外部競爭非常激烈。 這可能是技術史上最激烈的競爭。 而且賭注極高,涉及 AGI 及其在商業和科學上的所有意義。, 此外,如果你加上我們所做的事情帶來的所有興奮感——正如你所知,我的熱情是利用 AI 探索科學問題,加速科學發現本身。 這是我一生夢寐以求的事情,我畢生致力於 AI 的工作都是為了這一刻。 所以有時很難入睡,因為有太多工作要做。 但同時也因為有這麼多令人興奮的事情可以去研究和推動。問:我知你非常專注於驅動科學進步,比如發現新材料。 我們甚至看到 Gemini 被整合進人形機器人。 物理世界的“AlphaFold 時刻”已經到來了嗎? 那是什麼,看起來又是怎樣的?答: 是的,在過去的一年裡,我確實花了很多時間仔細研究機器人技術。 我確實認為我們正處於物理智能突破時刻的邊緣。 我仍然認為我們離實現它還有大約 18 個月到 2 年的時間。 我們需要進行更多的研究。 但我認為像 Gemini 這樣的基礎模型指明了前進的方向。 從一開始我們就讓 Gemini 具備多模態能力,這樣你就可以出於多種原因理解物理世界。 一個原因是我們想要建構一個通用助手,它可能存在於你的眼鏡或手機中,能夠理解你周圍的世界。 但當然,第二個用途就是用於機器人。 那麼物理世界的那個時刻看起來像什麼? 我認為它是讓機器人能夠在現實世界中可靠地執行有用的任務。 我認為目前還有一些事情在阻礙其發展。 部分原因是演算法還不夠完善,它們需要更多的穩健性。 它們必須能在比實驗室或純數字模型更少的資料下工作。 在數字世界你可以建立合成資料,但在物理世界製作這類資料要困難得多。 而且硬體中仍然存在一些未解決的問題,特別是手臂和手。 實際上,當你仔細研究機器人技術時,你會對人類的手產生一種全新的欣賞——至少我是這樣——以及進化是如何將其設計得如此精妙的。 這太不可思議了,很難匹配人類手所擁有的可靠性、力量和靈活性。 所以在我看來,還有相當多的碎片需要拼湊。 但也有非常令人興奮的事情。 我們剛剛宣佈了與 Boston Dynamics 的一項新的深度合作。 他們有一些非常令人興奮的機器人。 我們正在將其應用於汽車製造領域。 我們將在接下來的一年裡觀察其原型階段的表現。 也許在一兩年內,我們將會有一些真正令人印象深刻的、可以大規模推廣的演示。問:一年前,中國在 AI 領域的競爭對西方來說似乎是災難性的。 現在一年過去了,它變得安靜了。 中國似乎變得更安靜了。 是的。 你對來自中國的競爭看法改變了嗎?答: 並沒有。 我從一開始就不認為那是災難性的。 我認為西方對此反應過度了。 雖然它確實令人印象深刻。 我認為它表明中國人非常有能力,他們的頂尖公司,我認為像字節跳動這樣的公司,實際上是我認為最有能力的,他們可能只落後前沿 6 個月,而不是落後一兩年。 所以我認為這就是他們所展示的。 關於他們使用的算力極少等說法有些言過其實,因為他們依賴於一些西方模型,並針對一些領先西方模型的輸出進行微調。 所以那並不是完全自主研發的。 我認為到目前為止另一件尚未被觀察到的事情是,中國公司能否在這一前沿領域實現超越自身的創新。 他們正在追趕,非常擅長追趕前沿所在的位置。 但我認為他們尚未展示出能夠超越前沿進行創新的能力。問:你協助定義了 AGI。 你曾說我們有 50% 的機會在 2030 年實現它。 這還是你的時間表嗎?答: 是的。問:AGI 對你來說仍然是一個有用的目標嗎?答: 我認為是。 我認為在我的時間表上這是一個非常好的目標,雖然它比其他一些人的預測稍長。 但我的門檻很高。 它指的是一個系統展示出人類擁有的所有認知能力。 我認為我們目前顯然離那還很遠。 這意味著像科學創造力這樣的事情,不僅僅是解決一個問題,而是最初就能提出假設或發現問題。 正如任何科學家所知,找到正確的問題往往比找到答案難得多。 現有的系統目前還不具備這種能力。 我認為它們最終會具備,但目前還不清楚還需要什麼。 還有像持續學習、線上學習這類事情,要超越它們接受培訓的內容,它們需要能夠隨時隨地進行學習。 所以在我看來,還有相當多缺失的能力,這些對於我所認為的 AGI 系統來說至關重要。問:Google 是 Anthropic 的主要投資者,Dario 之前也在這裡。 你是否同意或反對他的預測,即 AI 將在五年內抹去 50% 的入門級白領工作?答: 我認為我的看法是時間會更長一些。 我的意思是,我認為我們今年開始看到入門級工作或實習這類工作的萌芽。 但我認為我們需要解決更多的一致性問題,而目前的系統還沒有做到這一點。 我稱之為**“參差不齊的智能”,我們在某些事情上做得非常好,而在其他事情上卻非常糟糕。 當前的系統就是這樣。 如果你想要將一整項任務交給一個代理(Agent)去處理,而不是像我們今天這樣擁有輔助程序,你需要更全面的一致性。 它僅僅能完成 95% 的任務是不夠的。 你需要它能夠勝任整項工作,這樣你才能真正實現“放手不管”。 所以我認為在看到那種程度的顛覆之前,還有相當多的工作要做。 但那種顛覆最終會發生,這是肯定的。 我認為在極限情況下,有了 AGI,它會改變整個經濟。 但除了工作問題,我認為如果我們能正確建構它,我們將進入一個“後稀缺”世界。 在那裡我們解決了一些世界的基本瓶頸,比如能源來源、新型清潔可再生能源,基本上是免費的。 如果我們在 AI 的幫助下解決了聚變(Fusion)等問題,或者新材料,我認為在 AGI 之後的五到十年,我們將處於一個極其富足的世界。 那麼這意味著經濟如何運行,社會如何運作?問:實際上,在我們進入“後稀缺”世界之前,如果真能到那一步,中間過程充滿了焦慮。 我是一個母親,我知道你也有孩子。 比如,對於他們,你最擔心什麼? 你和他們談論什麼? 你告訴他們即將到來的是什麼? 我剛聽到很多人說,天那,大學畢業生將面臨非常艱難的時期。答: 嗯,我不確定。 聽著,我認為這將是一個劇烈變革的時代,就像工業革命一樣,可能是工業革命的 10 倍規模,這種程度是難以想像的。 我通常描述它是 10 倍大、10 倍快。 工業革命用了 100 年,現在可能只需要 10 年,所以是它的 100 倍(速度與影響)。 我對每個人都這麼說,但我認為這伴隨著巨大的機遇。, 而且我也非常堅信人類的聰明才智。 我們極具適應能力,因為我們的思維是非常通用的。 人類的思維非常通用。 我們適應了周圍的現代世界。 我們原本屬於狩獵採集者的思維已經成功建構了現代文明。 所以我認為我們會再次適應。 我認為這有一點前所未有,因為它的速度太快了。 通常這種轉變需要一兩代人的時間。 但我認為現在的孩子們,我會鼓勵他們變得非常精通這些新工具並成為“原生民”,這幾乎等同於賦予了他們超能力。 在創意藝術領域,你可能一個人就能完成過去需要十個人才能完成的工作。 我認為這意味著,如果你具有企業家精神,如果你在遊戲設計、電影或項目方面有創意,你可能更容易完成更多工作並突破這些行業。 比起過去作為新人的門檻要低得多。問:一些人倡導暫停研發,以給監管留出追趕的時間,給社會留出調整的時間。 在一個完美的世界裡,如果你知道所有其他公司都會暫停,所有國家都會暫停,你會倡導這樣做嗎?答: 我想是的。 我一直公開表示我希望看到的情況。 15 年前當我創辦 DeepMind,或者說 25 年前開始從事這方面工作時,我的路線圖一直是:當我們接近 AGI 到來的臨界時刻,我們也許可以以科學的方式進行合作。, 我有時會談到建立一個 AI 領域的國際 CERN 等效機構,讓世界上所有最頂尖的頭腦一起合作。 以非常嚴謹的科學方式完成最後幾步,讓全社會都參與進來,可能包括哲學家、社會科學家、經濟學家以及技術專家,來弄清楚我們想從這項技術中得到什麼,以及如何利用它。 從而造福全人類。 我認為這就是賭注所在。 不幸的是,這確實需要國際合作,因為即便西方決定這樣做,除非全世界都同意至少達成某種最低標準,否則沒有用。 而且你知道,目前國際合作有點棘手。 所以如果我們想要對通往 AGI 的最後步驟採取嚴謹的科學方法,這種情況必須改變。問:所以如果 AGI 在 2030 年到來,而我們還沒有建立好監管,我們是否註定會面臨困難?答: 嗯,到那時,我仍然樂觀地認為,主要的參與者之間會有足夠的溝通,並希望至少在安全和安保協議上進行合作。 已經有很多這樣的合作了。 例如,我們在這些方面與 Anthropic 合作非常緊密。 如果國際層面的合作行不通,那麼就需要更多類似的基於同行的合作。問:這會涉及到像 Sam (Altman) 這樣的人與你合作嗎?答: 潛在地,我認為我與幾乎所有領先實驗室的領導者都保持著非常良好的關係。 我認為如果賭注足夠高,很大程度上取決於理解賭注是什麼以及風險是什麼。 我認為在接下來的兩三年內,這對每個人來說都會變得更加清晰。問:讓我們談談技術和下一個曲線。 Yann LeCun 說他不認為 Transformer 和大語言模型單獨能帶我們走向 AGI。 你同意還是反對?答: 是的。 不,我不同意它們是死胡同。 我認為這種說法顯然是錯誤的。 我是說,它們已經極其有用了。 但我的看法是,這是一個經驗性的問題。 僅僅通過調整現有的方法並擴大規模是否足夠,這是一個科學問題。 我認為只有 50% 的機會是足夠的。 也許是吧。 你必須這樣做。 而且我認為那是很有用的工作,因為至少在我看來,這些大語言模型將成為最終系統的一個組成部分,一個極其重要的組成部分。 我腦海中唯一的問題是,它是唯一的元件嗎? 我可以想像還有一兩個突破,也許是少量的,從這裡開始還需要不到五個突破,對吧? 那麼,這些可能是像世界模型(world models)之類的東西。 那是我談論過的我們正在研究的東西。 事實上,我們目前擁有最好的世界模型,即我們的 GENI 系統。 我直接參與了那項工作,我認為它非常重要。 此外還有持續學習,以及擁有沒有這些參差不齊邊緣的連貫系統。 通用系統不應該有這些。 所以我認為,更好的推理、更長期的規劃,還有相當多的能力仍然缺失。 究竟是需要新的架構、新的突破,還是僅僅是現有的更多嘗試,這仍然是一個懸而未決的問題。, 從我的角度,從 Google DeepMind 的角度來看,我們正在這兩方面盡最大努力推動:既發明新事物,也擴大現有事物的規模。問:Ilya Sutskever 說過,擴大規模和通過更大的模型來實現改進的時代快要結束了。 這是你同意的嗎? 他的原話是“我們回到了研究時代”。答: 我不同意。 我很愛 Ilya,我們是很好的朋友。 但我的觀點是,我們從未離開過研究時代,至少從 DeepMind 的角度來看是這樣。 我們一直在投資。 在我看來,我們一直擁有最深厚、最廣泛的人才儲備,Google 和 DeepMind 在一起確實如此。 在過去的十年裡,我們發明了現代工業所依賴的約 90% 的突破。 當然,最著名的 Transformers,還有深度強化學習、AlphaGo 這種技術。, 我們開創了所有這些。 所以如果未來需要一些新的突破,我會賭我們,就像過去一樣,成為做出那些突破的人。問:最後,同意還是反對——埃隆(Elon Musk)說我們已經進入了奇點。答: 不,我認為這太早了。 我認為奇點是完全 AGI 到來的另一種說法。 我之前解釋了為什麼我認為我們離那還遠。, 我認為我們會到達那裡。 但我認為在出現任何看起來像奇點的事物之前,仍有很多工作要做。問:跟我們談談現在 Google 內部的文化,為了贏得這場比賽但要以正確的方式去做。 領導層。 Larry 和 Sergey 現在的參與度有多高? 你多久和他們談一次話,他們的優先順序是什麼?答: 是的,他們非常投入。 Larry 更多在戰略層面。 我在董事會會議上以及訪問矽谷的其他時候見到他。 Sergey 則更親力親為,他參與了程式碼編寫,具體是在 Gemini 團隊中,更多地涉及演算法細節。 看到他們兩個都對我們所處的階段充滿活力,這太棒了。 誰不會呢? 這一刻對於電腦科學來說絕對是不可思議的時刻。 所以純粹從科學的角度來看,他們兩位都是科學家,這是人類歷史上極其令人興奮的一刻。, 所以當然,每個人都想親力親為並深入參與。 那太棒了。 對我們這個實體而言,我正嘗試結合許多世界的最佳部分。 比如快速發佈產品、承擔風險的初創公司能量,我想你正看到這些帶來的好處。 大公司的資源也是非常有用的,但同時還要為長期的研究和探索性研究保護空間。 而不僅是研究三個月後能交付到產品中的東西。, 我正在嘗試平衡所有這些不同的因素。 在過去的一年裡,事情進展順利。 但我對我們的軌跡非常滿意。 我認為它是整個行業中改進和進步最陡峭的。問:你是一位諾貝爾獎得主,我知道你對 AI 驅動科學研究有多痴迷。 如果 AI 本身做出了諾貝爾獎等級的發現,你認為你應該得獎嗎?答:是 AI 還是人類? 我認為還是人類。 因為這取決於你所說的“完全自主”是什麼意思。 就目前而言,這些仍然是工具。 我將它們視為,也許是終極的科學工具,但就像是更好版本的望遠鏡和顯微鏡。 我們一直是製造工具的動物,這就是人類區別於其他動物的地方。 那就是超能力,當然我把電腦也包括在內。 而 AI 是這一點的終極表達。 所以在某些方面,我一直認為 AI 是進行科學研究的終極工具。 而且在可預見的未來,這將是與頂尖科學家的合作,由人類投入創意和假設,利用這些驚人的工具來增強資料處理、模式匹配和科學探索。問:你顯然本可以把 DeepMind 賣給任何人。 我認為所有這些公司都要求我們給予很大的信任。 尤其是如果監管趕不上技術的發展。 為什麼? 我們為什麼要信任你? 為什麼你認為 Google —— 我隱含地認為你相信它是我們最應該相信的地方?答: 是的。 我認為你需要通過這些公司的行動來判斷它們,也要看參與這些努力的領導者的動機。 對我而言,這也是我選擇 Google 作為 DeepMind 的歸宿的幾個原因之一。 主要原因是 Google 的創始人以及 Google 建立的方式使它本質上是一家科學公司。 很多人忘了 Google 本身就是一個博士項目,它是 Larry 和 Sergey 的項目。 所以我感到與他們有一種天然的親近感。 Larry 主導了收購,還有董事會,他們召集的董事會成員。 你看,John Hennessy 是主席,他本身就是圖靈獎獲得者。, 還有 Frances Arnold,另一位諾貝爾獎獲得者。 這些人出現在公司董事會上是不尋常的。 所以整個環境非常具有科學色彩,以科學、研究和工程為文化導向,這根植於文化深處。 這意味著在最高水平上從事科學,意味著要非常嚴謹、深思熟慮,並在任何可能的地方應用科學方法。 我認為這不僅體現在技術上,也體現在作為一個組織的運作方式上。 所以我覺得,我們非常努力地做到深思熟慮和負責任。 最後一件事我想說的是,我被 Google 嘗試在世界上做的事情所吸引,組織全球資訊是一個非常崇高的目標。, 我認為這與 DeepMind 的使命——解決智能問題並用它來解決其他一切——是天然契合的。 這兩個使命宣言是天然契合的。 AI 和組織全球資訊自然相輔相成。 而且我認為 Google 廣為人知的產品,如地圖、Gmail 和搜尋。 我認為它們是世界上真正有用的產品,而 AI 是一個很容易融入的環節。 想像如何利用 AI 增強這些產品,讓每個人的日常生活都能受益。 我認為這對世界是一件好事。問:好吧,那麼在“後稀缺”世界,人們不再有工作,一旦你實現了所有的技術目標,你個人打算如何安排你的時間? 研究正在自我自動化,對吧?答:嗯,我很樂意利用它。 在奇點之後我將做的是,利用它探索物理學的極限。 那是我在學校裡最喜歡的科目,關注那些大問題。 比如,現實的結構是什麼? 現實的本質是什麼? 意識的本質是什麼? 費米悖論的答案是什麼? 所有這些事情,時間是什麼? 引力是什麼? 對我來說,這些問題總是在對我尖叫:這些深奧謎團的答案是什麼?, 我想使用 AI 來探索所有這些事情,也許在 AI 解鎖的新能源和材料的幫助下前往星際旅行。問:如果我們沒有工作,我們還會有意義和目標感嗎?答: 嗯,說實話,比起經濟問題,我更擔心這件事。 我認為經濟更像是一個政治問題,即當我們獲得所有這些額外的收益和生產力時,能否確保它為了每個人的利益而共享。, 但更大的問題是,我們許多人從工作和科學事業中獲得的目標感和意義感呢? 在新世界裡我們將如何尋找它? 我認為我們需要一些新的偉大的哲學家來幫助思考這個問題。 也許我們將通過藝術和探索變得更加複雜。 還有像極限運動這種我們今天做的很多事情,並不只是為了經濟收益。 也許未來我們會擁有這些事情的非常深奧的版本。問:房間裡的每個人都在想他們應該做什麼。 比如,十年後坐在達沃斯的這裡我該做什麼? 你認為這個房間裡的人關於 AI 會犯下的最大錯誤是什麼?答:聽著,我想說兩件事。 一是對於年輕一代和我們的孩子等等,我們唯一能確定的就是會有巨大的變化。, 所以在學習技能方面,要做好準備,因為**“學習如何學習”是最重要的事情**。 你能多快適應新情況,吸收新資訊並使用我們擁有的工具。 對於房間裡的 CEO 和商界人士,我認為現在最重要的事情是,有很多領先模型的供應商。 選擇那些你覺得其處理方式正確的合作夥伴。 所以,與那些正在推動變革並以你希望在世界上看到的方式對待這項技術的人合作。 我認為我們可以共同建構我們想要的未來。 (長韋雜談)