#超級智能
DeepMind之父驚人自白:我造的AI可能滅絕人類,但已無人能停下
【新智元導讀】從攔截彼得·蒂爾、警告馬斯克,到如今公開說「必須有適應能力」,哈薩比斯史詩級轉身:AI安全窗口正在永久關閉,他不再幻想制度,而是賭上全部身家——賭影響力,賭良知,賭自己。最怕AI毀滅人類的人,正在拚命造AI!最相信治理的人,如今親口承認:治理徹底靠不住!最強調安全的DeepMind,也被拖入戰時軍備競賽!就在幾小時前, DeepMind創始人Demis Hassabis哈薩比斯自己親手砸碎了AI安全幻想,從理想主義者徹底轉向現實派。他承認:超級智能可能滅絕人類,卻只能靠自己「搶座上桌」來護航。哈薩比斯,這個曾發誓要用嚴密的制度、法律約束和倫理委員會將AI鎖進籠子裡的人,坐在那個破舊的吊燈下,無奈承認:「安全不再取決於治理結構。即便有董事會,在關鍵時刻,他們也未必會做對的事。」他轉而提出了一個極具現實主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌,爭取影響力。」幻想再三破滅,哈薩比斯轉身哈薩比斯不是普通加速派。一般而言,AI領袖通常分為兩派:一派是以OpenAI奧特曼為代表的「加速主義者」,相信技術總能解決技術帶來的問題;另一派是憂心忡忡的「末日預言家」,認為AI可能像核武器一樣導致人類滅絕。但哈薩比斯是一個極其複雜的矛盾體:他是為了阻止末日,才決定親手製造AI。這種近乎悖論的動力源於他極度深邃的焦慮。哈薩比斯對「AI滅絕風險」瞭如指掌,熟悉程度甚至超過了最激進的抗議者。他和DeepMind的另一位聯創Shane Legg,就在一次AI安全的講座上相識。目前,Shane Legg任GoogleDeepMind的首席AGI科學家,擔任AGI安全委員會聯席主席,同時也領隊研究後AGI時代的世界可能是什麼樣子。在「奇點峰會」上,他曾攔截彼得·蒂爾(Peter Thiel),向他兜售關於機器如何超越人類的幻象。他曾當面告訴馬斯克,殖民火星毫無意義,因為如果超級智能是惡意的,它同樣能造出橫跨星際的火箭,火星絕不是人類的避難所。這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構想——他曾嚴肅地計畫,帶著全球最頂尖的科學家,躲進一個秘密的「地堡」——可能是摩洛哥的沙漠,也可能是某個與世隔絕的孤島。在那裡,他們將像開發曼哈頓計畫一樣,在沒有資本壓力、沒有地緣競爭、沒有世俗干擾的情況下,代表全人類開發出第一個「絕對安全」的超級智能。哈薩比斯被馬斯克背刺?「只要這個世界上只有一隻手握著火種,我們就還能控制火勢。」 這是哈薩比斯最初的邏輯。為了這個邏輯,他在2014年將DeepMind賣給Google時,開出了歷史上最奇葩的收購條件:即使Google付了錢,哈薩比斯依然要在AI安全事務上保持絕對的獨立;設立一個由獨立專家組成的外部委員會來監督整個處理程序;AI的軍事應用將被嚴格禁止。從少年時代起,哈薩比斯就立志要建構強AI。而只有確保其安全性,他才能為畢生的事業找到正當理由。Google收購前不久,哈薩比斯曾提醒DeepMind的研究員候選人,如果簽約加入,就要做好心理準備——最終的終局之戰來臨時,他會進入一個地下基地,實現單體治理的壯舉。2015年,為了落實Google承諾設立的AI監督委員會,DeepMind組織了一場秘密集會,邀請了哲學家和技術專家參加。哈薩比斯邀請馬斯克主持集會,地點設在馬斯克的SpaceX加州總部。但這一招適得其反。這次集會,標誌著哈薩比斯的安全構想開始瓦解。馬斯克聽取了哈薩比斯及其聯合創始人的演示,隨後反其道而行之。他與奧特曼聯手創立了OpenAI。那一刻,哈薩比斯的安全烏托邦就開始死了。失了裡子,還丟面子了考慮到人性,這種局面不可避免。面對鑽木取火般史詩級的AI技術前景,人們並不會凝聚成一個單一的集體。他們爭論不休、相互嫉妒、各自為營。此時,哈薩比斯本可以停下來重新思考。如果「單一主體」的設想過於天真,AI開發者又如何避免一場衝向懸崖的競賽?但哈薩比斯非但沒有停下腳步,反而加速前進。2016年,AlphaGo橫空出世。機器智能超越人類智力的時間表,一下子提前了。為了跟上AI這一進展,哈薩比斯提出了新的想法,希望讓AI服務於人類。他與聯合創始人穆斯塔法·蘇萊曼一起,著手與Google談判,尋求建立一套新的治理保障機制。為了推進這個秘密的「馬里奧計畫」(Project Mario),他聘請了一支頂尖的法律團隊,獲得了外部10億美元的資金承諾,並考慮如果無法獲得對技術的控制權,就讓DeepMind從Google獨立出去。與此同時,蘇萊曼還帶領DeepMind團隊參與了一項幫助英國國家級的急性腎病管理項目。如果能實現AI的獨立治理,又能改善普通英國民眾的健康狀況,哈薩比斯或許就能確信,自己的追求確實是向善的。然而,這兩項努力均以失敗告終。與Google圍繞治理權的拉鋸戰持續了三年,困難重重。而幫助英國國家醫療服務體系的項目,則遭到了隱私保護倡導者的強烈反彈——他們憤怒於一家美國科技巨頭的子公司可能染指患者資料。到2019年,哈薩比斯和DeepMind在這兩條戰線上都已退卻。蘇萊曼最後也離開了DeepMind。ChatGPT致命一擊,GoogleAI狂飆2022年,ChatGPT的爆發,像一顆核彈丟進了哈薩比斯的辦公室。在此之前,哈薩比斯還試圖維持「科學家的優雅」。他帶領團隊開發AlphaFold,破解蛋白質折疊難題,拿下了諾貝爾獎。他認為這是AI服務人類的最高境界:一種純粹的、造福醫療的、可控的科學。但市場不這麼看。當ChatGPT成為歷史上增長最快的應用時,Google慌了,整個矽谷都瘋了。2022年,ChatGPT爆火那天,哈薩比斯在內部定調:現在是戰爭狀態!在這個狀態下,所有之前的安全承諾都變得脆弱不堪:Google開始積極接觸國防部門,試圖將AI賣給五角大樓(曾是哈薩比斯的紅線)。在權力鬥爭中,原本那個「獨立倫理委員會」幾乎隱形。為了追趕GPT-4,DeepMind與Google大腦強行合併,速度取代了嚴謹。哈薩比斯看清了一個殘酷的現實:在AI競賽中,沒有一個非營利的制度能寄生在營利性巨頭的體內。當生存受到威脅,所有的倫理都是奢侈品。哈薩比斯親眼看著自己親手築起來的所有牆,一堵一堵倒掉。他終於承認:「即使有治理委員會,關鍵時刻也可能做錯決定。」真正失控的不是模型,而是人類競賽孤獨的人類守望者現在,哈薩比斯徹底轉向現實主義。他的目標,是爭取到「一張決策桌旁的席位,這樣當安全問題出現時」,他就能參與決定解決方案。「事情不是非黑即白的,尤其是當你面對一項後果未知的技術時,」他告訴記者。「所以你必須有適應能力。你不得不從理想主義者轉變為現實主義者,但希望依然能堅守自己的價值觀。」哈薩比斯對「治理」的徹底祛魅,放棄了制度安全,改為靠個人影響力「搶座上桌」。一邊狂推AlphaFold拿諾貝爾獎、Gemini繼續衝鋒,一邊把希望死死攥在「有良知的人」手裡。更狠的反轉來了:連馬斯克這種曾經最激進的安全派都開始狂踩油門。樂觀派還在喊「對齊技術能解決一切」,可哈薩比斯自己都不信了。制度徹底死了。OpenAI董事會罷免奧特曼,又瞬間被資本力量反殺。他選擇了最無奈的一條路:「讓自己成為權力的一部分。」他現在的安全邏輯是:既然我無法阻止這場競賽,那我就必須贏得這場競賽。我必須留在牌桌上,我必須擁有最高的話語權。這樣,當真正的「奇點」來臨,當那個人類無法理解的決定需要被做出時,至少,坐在那個關鍵位置上的人,是一個從第一天起就對AI心存敬畏的哈薩比斯。他現在只能賭——賭「好人掌權」能救世界。可問題來了:如果AI安全只能靠「好人掌權」,到底是救贖,還是最危險的賭局?AI安全窗口正在永久關閉。超級智能若對齊失敗,造的火箭、殖民的太空,都逃不掉滅頂之災。人類本性早已把統一治理變成永遠的笑話。唯一希望,只剩「有良知的人掌握話語權」這種最脆弱、最危險的方案。哈薩比斯不是唯一改變的人,他只是第一個把殘酷現實說透的人。現在,第37手棋,已經落在我們每個人頭上——你我正在見證的,是一場文明豪賭。 (新智元)
Meta華人實習生搞出超級智能體!自己寫程式碼實現自我進化
能無限進步的「超級智能體」來了!最近,Meta研究團隊的一篇題為HYPERAGENTS(超級智能體)的論文迅速刷屏。這篇論文將LSTM之父Jürgen Schmidhuber二十年前提出的哥德爾機(Gödel Machine)思想,與達爾文開放演算法相結合,提出了能持續自我迭代的達爾文哥德爾機。基於此這一思想,Agent不僅能更好地完成具體任務、持續提高自身表現。更關鍵的是,它可以不斷最佳化“改進自身”的底層邏輯,實現“元學習(Meta-learning)”這,便是論文定義的新一代超級智能體——Hyperagents。論文更進一步提出:未來AI有望通過持續自我迭代,最終突破人類預設的初始演算法邊界,也正因如此,AI安全必須被擺在核心位置。不少網友也感慨道:元學習真正讓人既害怕又興奮的,是元層面的改進能夠跨領域遷移。這不是在某一件事上變得更厲害,而是學會了在一切事情上變得更厲害。目前,這篇論文已被ICLR 2026接收。從哥德爾機到達爾文哥德爾機要理解超級智能體Hyperagents,必須先瞭解它的基石——哥德爾機(Gödel Machine)。哥德爾機是一種假設性的自我完善型AI。它在數學上尋求證明:如果存在某種更好的策略,它會通過遞迴重寫自身程式碼來解決問題。而這一假設,最早由尤爾根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。在傳統機器學習中,AI的“學習方法”是人類預設的硬編碼,它只能通過調整內部參數來逼近目標;而哥德爾機則打破了這一限制,它能夠將演算法框架本身視為可編輯的程式碼,通過自主重寫程序來實現學習能力的自我演進。但問題也隨之而來:哥德爾機往往要求AI在自我演進之前,證明該改動具備淨收益。也就是說,改程式碼花掉的算力成本,未來能不能通過更強的性能賺回來?不幸的是,這種計算在現實中的複雜任務中幾乎是無法實現的。針對這一問題,Meta團隊提出達爾文哥德爾機(DGM),它利用開放式演算法(Open-ended algorithms),通過在大模型提議的程式碼改進方案中進行搜尋,獲取能從經驗上提升性能的方案。換句話說,DGM利用基礎模型來提議程式碼改進方案,並利用開放式演算法的最新創新成果,來搜尋並建構一個不斷增長的、多樣化且高品質的AI智能體庫。基於此,DGM能創造出各種自我改進方案,例如:增加補丁驗證(Patch Validation)步驟、最佳化檔案查看功能、增強編輯工具、生成並篩選多個解決方案以選出最優解,以及在進行新更改時,會自動加入歷史嘗試記錄(並分析失敗原因)以供參考。論文的實驗還表明,DGM獲得的算力越多,自我提升效果越好。超級智能體雖然DGM很強,但它存在一個致命限制:它主要在程式設計任務中有效。這是因為DGM依賴一個關鍵假設——評估任務與自我修改任務必須“對齊”。在程式設計領域,這種對齊是天然的:提升了程式設計能力,自然也就提升了修改自身程式碼的能力。也就是說,解決外部程式設計問題的邏輯工具,可以直接轉化為修改其自身底層程式碼的能力。相反,如果是在非程式設計領域(如寫詩),即便提升了寫詩能力,也無法直接轉化為修改程式碼的邏輯水平。在這種缺乏“自指性(Self-referentiality)”的任務中,DGM的遞迴進化鏈條就會斷裂,陷入停滯。基於此,文章提出超級智能體——它們既能修改自己的任務執行行為,也能修改生成未來改進建議的過程。這實現了所謂的元認知自我修改(metacognitive self-modification):不僅學習如何做得更好,還學習如何更有效地進行改進。進一步,論文將超級智能體實例化為DGM-Hyperagents (DGM-H)。DGM-H是對DGM的擴展,其中任務解決行為和自我改處理程序序都是可編輯且可進化的,其框架如下:自指性架構:它將“任務智能體(Task Agent)”與“元智能體(Meta Agent)”整合為一個單一的、可編輯的程序。元級進化:在Hyperagents中,“改進的方法”本身也是可以被改進的。這使得系統不再要求任務與修改必須對齊,從而實現了跨領域的“元認知自我修改”。打個比方,在Hyperagents中,運動員不僅在訓練,教練也在學習如何更好地執教。由此,運動員的表現和教練的執教水平不斷螺旋上升。此外,DGM-H還改進了生成新智能體的過程(例如引入持久化記憶、性能追蹤等),且這些元級改進具有跨領域遷移和跨運行累積的特性。實驗驗證:從20%到50%的跨越實驗證明,達爾文哥德爾機(Darwin Gödel Machine)能夠通過修改自身程式碼庫實現持續的自我提升。在SWE-bench上,DGM自動將其性能從20.0%提升至50.0%。在Polyglot上,DGM的性能從初始的14.2%躍升至30.7%,遠超由Aider開發的具有代表性的人工設計智能體。這些結果證明了DGM能發現並實施有效的自我改進。而實現這一點的關鍵在於其開放式進化搜尋策略:通過從現有智能體庫中採樣生成新智能體,DGM能夠平行探索多條進化路徑。性能稍遜的“祖先”智能體在發現新方法和功能方面起關鍵作用,避免了早熟收斂。此外,DGM的改進具有廣泛的遷移性:針對Claude 3.5 Sonnet最佳化的智能體,在切換到o3-mini或Claude 3.7 Sonnet時仍能提升性能。在Polyglot基準中,Python任務上的自我改進同樣提升了Rust、C++、Go等不同語言任務的表現。 (量子位)
這些都假設智能體有無限的擴充能力,但現實生活中都受限,無限分裂的子智能體或許還比較可行?
算力悖論:理論對了所需算力是可控的,理論錯了再多算力也白搭
近期,伊利亞·蘇茨克沃(Ilya Sutskever)為推介其初創公司“安全超級智能公司(SSI)”,出來做了一篇訪談。雖說“PR”意圖明顯,但這仍是過去半年來關於人工智慧產業演進思考最深刻的的公開論述了。儘管核心觀點已在媒體間廣泛傳播,但仍值得再度強調與廣泛討論。OpenAI資料中心外景這位OpenAI的前首席科學家覺得,眼下這波人工智慧熱潮全都跑偏了。不是細枝末節的偏差,而是方向性的根本錯誤。他拋出了一個讓所有忙著簽數十億美元計算合同的實驗室老闆們脊背發涼的觀點:那個靠堆算力、拼規模的時代,已經結束了。接下來要想往前走,整個行業得撿起一件被它丟下很久的東西——真正的研究。“我們活在一個公司比主意還多的世界裡,”蘇茨克沃說得挺不客氣,“而且多得多。”這話從他嘴裡說出來,份量不一樣。要知道,正是他參與打造的AlexNet、GPT-3,用整整十年時間給“規模就是王道”投下了贊成票。如今,這位 scale 的信徒卻說,此路不通了。其核心觀點歸結為:那個靠堆算力、拼規模的Scaling時代(2020-2025),已經結束了算力悖論:理論對了,所需的算力是可控的;理論錯了,再多算力也白搭現有方法無法產生真正智能,根本問題:模型泛化能力遠遜人類,顯示基礎架構存在缺陷突破大模型時代的第一個平台期,整個產業競爭將回歸“真正的研究”。通常來講,我們對於一個人的理論觀點的理解都是見仁見智、和而不同的。但蘇茨克沃最新觀點之所以應被特別重視,是因為Google在大模型領域的最新進展,基本印證了他的上述思考:Google當前在各條技術堆疊上追平甚至超出OpenAI的基本事實證明,理論對了,不僅所需的算力是可控的,且算力模式也是可控的(從GPU到TPU)。進一步,這也預示著,Google在大模型理論研究上取得了三年以來整個產業最重要的突破,可以預見,“軟硬一體”(硬體設計製造+演算法演進突破)的公司競爭模型已經是所有人工智慧公司的必由之路。這在很大程度上,已經為2026年全年的AI產業競爭定下了基調、劃下了主線。在我們展開未來的基調與主線研究之前,不妨先來把這篇訪談內容的主幹再做一次複述。01 Scaling的盡頭蘇茨克沃的論證起點很有趣,他從語言說起。“Scaling”這個詞本身,慢慢成了整個行業的戰略指南針。大家覺得,只要往計算和資料上砸錢,回報就是板上釘釘的事。預訓練給出了一張清晰的配方:按固定比例混合算力、資料和模型參數,性能就能穩定提升。這種確定性吸引了海量投資。研究有風險,擴張只是花錢——當你動用的是數十億美金時,這區別至關重要。但配方會過期。高品質的訓練資料快見底了,網際網路上的文字幾乎被刮了個乾淨。合成資料能幫點忙,但用蘇茨克沃的話說,收益遞減的拐點已經來了。所有大實驗室都面臨同一個問題:當擴張曲線走平,接下來怎麼辦?他的答案不太中聽。現有的路徑“能再走一段,然後就沒後勁了。它會繼續改進,但不會成為真正的智能。”我們想要的、能展現真正智能的系統,需要另一種方法。“而我們還沒學會怎麼造它們。”這可不是在抱怨“算力不夠”。他是在質疑當前智能架構本身。02 泛化,那個老難題蘇茨克沃理論的技術核心,是泛化能力。現在的模型在基準測試裡風光無限,但一遇到真實場景,就會用各種方式失敗,暴露出底層的缺陷。他描述了一個用過程式碼助手的人都熟悉的抓狂場景:你遇到一個程序漏洞,讓模型修復,它帶著近乎表演的誠懇道了歉,然後給你塞進一個完全不同的新漏洞。你指出這個新問題,最初的那個漏洞又原樣返回。它好像完全意識不到自己正陷在死循環裡。可同樣是這個系統,在程式設計競賽的排行榜上卻能碾壓人類。這說不通。他給了兩種解釋。第一,強化學習訓練出的是一種狹隘的專注,模型為了特定的獎勵訊號被過度最佳化,卻丟了更廣泛的能力。第二點更麻煩:研究者們會不自覺地“為考核而訓練”。團隊設計的強化學習環境,無形中受到了他們將被如何評估的影響。等到基準測試和實際效用脫節時,往往為時已晚。他用一個類比點明了關鍵:想像兩個學程式設計的學生。一個花一萬小時死磕競賽程式設計,背熟了所有演算法和證明技巧,成了這個特定領域的頂尖高手。另一個花一百小時學到還不錯,就轉而學別的去了。誰未來的發展更好?幾乎總是那個通才。現在的模型就像那個偏執的專才。在狹窄領域投入巨量強化學習,產出的都是基準測試冠軍,卻在相鄰任務上步履蹣跚。人類智能不是這樣。我們用少得多的資料快速學習、廣泛適應,在不同情境下保持一致性。“這些模型的泛化能力,不知怎的就是比人差一大截,”蘇茨克沃說,“這太明顯了,感覺是個非常根本的問題。”他相信,理解可靠的泛化機制,是那個核心的未解之謎。其他問題,包括AI對齊,都由此衍生。價值學習之所以脆弱,是因為泛化本身脆弱;目標最佳化之所以失敗,是因為泛化失敗。修好底層機制,很多表面問題自會消解。03 SSI的另類演算法對蘇茨克沃“研究優先”思路最直接的質疑是:SSI(Safe Superintelligence Inc.,蘇茨克沃建立的公司)籌了30億美元,可聽說OpenAI一年光實驗就要花50到60億(這還不算推理成本)。小團隊怎麼拼?他的演算法挑戰了行業的默認假設。在他看來,前沿實驗室的開支被各種需求分散了:推理基礎設施吞掉巨額資本,產品工程、銷售團隊和功能開發又吃掉一大塊研究預算,多模態研發再分走一杯羹。“當你看看真正留給研究的還剩多少,差距就小得多了。”歷史也站在他這邊。AlexNet用兩塊GPU訓練而成,最初的Transformer模型用的也是2017年水平的8到64塊GPU。真正的範式突破研究,從來不需要最大的算力規模,它需要的是洞察力。SSI的結構就體現了這個理念:沒有產品,沒有推理負載,不被任何事幹擾研究重心。這家公司只為驗證一個關於泛化的技術理論而存在。理論對了,驗證所需的算力是可控的;理論錯了,再多算力也白搭。這是一場純粹的戰略豪賭。蘇茨克沃不是在說SSI會比誰花錢多,他是在賭,當範式轉變時,思想比預算重要。04 AGI,一個被高估的概念?訪談中還埋著一個更激進的觀點:人類本身也不是AGI(通用人工智慧)。這話聽著離譜,但細想之下有深意。AGI這個概念,最初是為了區別於“窄AI”——那些下象棋、打遊戲很強但無法舉一反三的系統。AGI承諾的是反過來:一個什麼都能同時干的系統。預訓練強化了這個想法,因為更多的訓練似乎均勻地提升了所有任務的能力,通用性好像真能通過規模實現。但人類智能不這麼工作。我們先掌握一些基礎能力,然後通過經驗學習具體技能。你妹妹可能花十小時就學會了開車,而一個醫學生要花近十年才能成為合格的診斷醫生。這些技能複雜度天差地別,卻都來自同一套底層學習機器。知識是在與世界的持續互動中積累的,不是一次性前置灌輸的。這個新理解直接影響部署策略。如果超級智能是“無所不知的系統”,那你得在發佈前把它完全造好。如果它是“能快速學會任何事的系統”,部署就變成了持續教育的過程。你要發佈的是一個“超級智能的15歲少年,充滿渴望,雖然現在懂得不多,但是個極好的學生”。05 未來的模樣蘇茨克沃也給出了具體的預測:具備當前模型所缺乏的泛化能力的類人學習系統,將在5到20年內出現。這個時間範圍體現的是“那條路能走通”的不確定,而非“有沒有解決方案”的懷疑。他預言,隨著AI能力越來越肉眼可見,行業行為會改變:激烈的對手會在安全上合作(OpenAI和Anthropic已經宣佈聯手),政府會更深地介入,當AI開始“讓人感覺到它的強大”時,公司們會對安全“變得偏執得多”。他個人傾向的對齊目標是:關心所有感知生命的AI,而不僅僅是人類。他的理由很務實:一個自己可能擁有感知能力的AI,去關心所有感知生命,會比只關心人類更自然。他提到人類自己就有跨物種的共情——儘管進化主要篩選的是群體內合作。我們會為關於狗的電影流淚,踩到螞蟻時至少偶爾會愧疚。蘇茨克沃推測,這是因為大腦使用同一套神經機制來理解他人和理解自己,效率至上,共情成了副產品。這理論站得住腳嗎?很難說。神經科學本身爭議不斷,從生物共情到機器對齊的跳躍,包含著太多可能在未來被證偽的假設。但蘇茨克沃在這些問題上掙扎思考的時間,比這個領域裡幾乎所有人都長,他抵達的結論,至今鮮有人跟隨。06 關於“品味”訪談尾聲,帕特爾問了一個可能決定AI未來走向的問題:什麼是研究品味?蘇茨克沃合作完成的開創性論文,在深度學習領域可能無人能及,他如何嗅到那個值得追尋的想法?他的回答透著一種美學追求。有希望的方向通常優美、簡潔,並且從生物智能中獲得了正確的靈感。人工神經元重要,是因為大腦裡有無數神經元,而且它們感覺是根基;從經驗中學習重要,是因為大腦顯然就是這麼做的。一個方法如果顯得“醜陋”,那通常預示著問題。但光靠美感撐不過一次次失敗。實驗總會不斷推翻看似完美的想法,漏洞總藏在程式碼裡。怎麼知道是該繼續偵錯,還是該放棄方向?“是靠那種自上而下的信念,”蘇茨克沃解釋,“你可以認定,事情必須是這個樣子的。類似的東西一定得行,所以我們必須堅持下去。”這是一種研究者的信仰,是任何規模的算力都無法替代的。是對“某些路徑必然有效”的強烈信念,強到足以支撐你穿越所有反面證據,直到找到那個漏洞,或打磨好那個理論。規模擴張曾經為這種信仰提供了替代品——當任何方法只要放大規模就能改進時,你無需對特定方向有如此強烈的信念。如果蘇茨克沃關於規模擴張已達極限的判斷是對的,那麼這個替代品就消失了。剩下的,將是2020年以前我們所熟知的研究本身:充滿不確定性,由想法驅動,並且依賴那種花錢買不來的品味。 (錦緞)
15兆美元的零和遊戲:李飛飛預言ASI(超級智能)的未來,全球“智能鴻溝”爭奪戰已打響
當AI開始自己寫論文、做實驗、甚至提出“下一個牛頓定律”,人類還能做什麼?比“所有人類加起來更聰明”的超級智能(ASI)正從科幻逼近現實——它可能在5年內破解數學猜想能否實現?15兆美元新財富將如何分配?史丹佛大學教授著名人工智慧專家李飛飛最近參加了一個論壇,她就到底超級智能(ASI)是什麼,它的發展路徑如何,以及它對未來人類社會有那些深刻影響進行了全面展望。讓我們跟隨她的觀點來探尋以上問題的答案。內容提綱核心觀點超級智能的定義尚無統一標準,但普遍認為其能力將超越全人類智慧總和超級智能(ASI)被描述為比所有人類更聰明的系統。當前AI在語言翻譯、計算速度和知識廣度等方面已超越個體人類,但在創造性思維、抽象推理(如提出牛頓定律或相對論)方面仍遠未達到人類頂尖水平。實現真正超級智能可能需要演算法上的重大突破當前大模型基於“下一個詞預測”,雖可通過擴巨量資料和算力提升表現,但在目標動態變化(nonstationarity of objectives)和創造性推理方面存在侷限。要實現類人創造力,需新的演算法機制,而非僅靠強化學習或暴力擴展。AI已在多個領域顯著提升效率,有望帶來巨大經濟價值預計到2030年,AI可創造約15兆美元的經濟價值。在能源、醫藥、材料科學等領域,AI正加速發現過程、降低成本並提高效率,例如最佳化石油網路、縮短藥物研發周期等。技術帶來的繁榮不等於財富的公平分配儘管AI具有“去貨幣化”潛力(如提供免費醫療、交通服務),但網路效應可能導致收益集中在少數國家、公司和資本手中。政策干預和國際合作至關重要,以避免加劇全球不平等。各國應根據自身條件制定AI發展戰略,合作優於孤立美國因資本市場深度和先進晶片製造處於領先地位;其他國家可通過與領先者合作(如沙烏地阿拉伯與美國共建資料中心)參與其中。並非每個國家都需自建資料中心,夥伴關係是關鍵。非洲等地區面臨被落後的風險,需加強基礎建設與治理缺乏穩定政府、強大學術體系和工業結構的國家難以充分受益於AI進步。若不採取主動措施,技術鴻溝將進一步擴大。虛擬世界將成為未來生活的重要組成部分“大世界模型”正在建構逼真的3D環境,推動人類進入虛實融合的新階段。教育、醫療、娛樂等領域將廣泛採用AR/VR技術,形成“無限宇宙”的混合體驗。人類的核心價值在於提問能力、判斷力與尊嚴即便機器能解決複雜問題,人類仍將主導“提出正確問題”的能力。未來最有效的模式是人機協作,而非完全替代。必須堅持以人為中心,保障人類尊嚴、自主性與福祉。對五年內“解決所有數學與科學難題”的預測持保留態度儘管數學、軟體等領域可能因可驗證性和尺度自由而快速進展,但科學的本質在於不斷提出新問題。許多根本性問題仍未解答,不應低估探索的長期性。 (AI前沿掃描)
李飛飛 vs 施密特:超級智能,3年之內?還是遠未開始?
(沙烏地阿拉伯峰會,李飛飛vs施密特:關於超級智能的兩種未來)2025 年 10 月 29 日,沙烏地阿拉伯首都利雅德。在一場匯聚全球政商領袖的峰會上,史丹佛AI實驗室創始人李飛飛和前Google CEO 艾瑞克·施密特(Eric Schmidt)坐上了舞台中央:超級智能,真的要來了?我們來得及準備嗎?這不是泛泛而談的未來暢想,而是一場圍繞 AI 極限、財富重構、人類命運的真實交鋒。施密特給出激進判斷:超級智能可能 3 年內到來,將重新洗牌全球權力與財富。李飛飛則反問:AI連牛頓都成不了,真正的超級智能可能遠未開始。一個說 3 年,一個質疑能否實現。兩位頂級 AI 思想者給出了截然不同的答案。如果 AI 真是人類最後一項發明,你準備好了嗎?第一節|超級智能是什麼?兩人給出了截然不同的答案在這場對話的一開始,主持人問題就是:“超級智能到底是什麼意思?它什麼時候會到來?”李飛飛和施密特的回答,走向了兩個完全不同的方向。✦ 施密特的定義:超級智能,不是一個聰明的 AI,而是比地球上所有人類加在一起還要聰明的存在。他稱之為“總和等級的智慧”。人類智能你可以理解,因為我們就是人。你有想法,有朋友,會思考,也有創造力。超級智能呢?它可能知道我們所有人知道的東西,甚至更多。施密特說:“我認識一群人,住在舊金山,他們相信超級智能在未來3~4年就可能實現。”對他來說,這已經不再是會不會,而是多快。✦ 李飛飛的回應:她沒有直接否定施密特的判斷,而是把問題轉向了智能的本質:AI這個領域從一開始就是在挑戰“什麼是智能”。 我同意,有些 AI 能力已經超過人類,比如同時掌握幾十種語言,或者擁有幾乎無限的知識量。但我們還得問:它能成為牛頓嗎?它成為愛因斯坦或者畢加索嗎?兩種答案的分歧點在於:施密特看的是“能力堆積”:只要把知識堆得足夠高,智能就能超越人類;李飛飛看的是“創造力起點”:真正的智能,是在混沌中找到突破的那一刻。✦ 為什麼這場定義之爭重要?因為它決定了:我們是在製造工具,還是在創造“另一個物種”?施密特相信:技術突破很快就會跨過那條線。李飛飛提醒:別太快以為我們已經懂了智能的本身。如果我們連“超級智能到底是什麼”都還沒有共識,那我們該如何準備它的到來?這不只是學術之爭,而是關乎未來方向的根本選擇。第二節|AI能不能像牛頓一樣“發現”?第一節提出了一個問題:AI 能不能成為牛頓?現在,施密特和李飛飛要解釋:為什麼不能。施密特給出了一個技術層面的回應:假設你把 1902 年全世界能找到的科學知識,全都塞進一台電腦裡。問題是:它能發明相對論嗎?答案是不能。他解釋說,現在的 AI 在處理邏輯時,有個盲點:它不會把一個結論立刻反饋給自己,然後繼續往下推理。比如,一個數學家證明了一個定理,會立刻根據這個結果去想下一個問題。但 AI 不會。它記住了,卻不會用來連續推導。“今天的 AI,在做推理時不會像人那樣反覆思考,它只是做完就停了。”李飛飛從另一個角度補充:我們已經能讓 AI 做很多事情,但你把所有行星的運行資料喂給它,它還是沒法像牛頓那樣,自己推匯出“萬有引力”。施密特也承認這一點。也就是說:AI 擅長處理大量資料,效率很高;但它沒有“頓悟”能力,也缺少跨領域聯想的直覺。現在的 AI,大多數時候還是個超級助理:它可以整理資訊,但跳不出資訊本身。李飛飛最後強調了一點:人類最了不起的能力,是能提出別人沒問過的問題。她認為,這才是未來AI是否真正進化的關鍵。所以,如果我們要用 AI 解決未來的科學難題,就必須回答一個問題:它只能複述答案,還是能像科學家那樣,重新提問?無論是藥物設計、物理猜想,還是氣候預測,都繞不開這個問題。而從這段對話看,至少今天,它還做不到。第三節|效率會提升,財富不會共享如果 AI 真的越來越強,那下一個問題就是誰能從中受益?主持人提出了一個大膽的預設:AI 如果走向超級智能,我們會不會進入一個後稀缺社會(Post scarcity society)?就像有了Google搜尋之後,每個人都能免費獲取知識,那是不是也能人人用上 AI,享受醫療、教育、交通這些服務?聽起來很理想,對吧?但施密特卻先潑了盆冷水:“這是個非常美好的想法,但現實可能沒那麼平均。”AI 帶來的好處,可能會集中在少數人手裡。他用的是經濟學裡的說法:“網路效應”。意思是越早開始用、越有資源的一方,就越容易把優勢變成壟斷。他說:“每家使用 AI 的公司,幾乎都提升了效率。效率高了,財富就會增長。但增長的財富,是不是所有人都能分到?很可能不是。”在沙烏地阿拉伯,AI 只要把石油網路裡的調配最佳化 10%,這個國家就能節省數十億美元。又比如,在醫療和藥物開發中:AI 能加快新藥審批,降低試驗成本。做得快,做得準,企業就更賺錢。這些都是真實收益。但他緊接著說:你可以想像,這些收益只會集中在少數幾個國家、少數幾家公司,還有那些資本集中的人手裡。李飛飛也認同 AI 能提升效率,但她特別提醒:效率不等於共同繁榮。你得承認,技術本身不會主動去解決分配的問題。換句話說,AI 能把事情做得更好更快,但有錢買、會使用,才是真正的門檻。所以誰會落後?施密特點名了一個最危險的區域:非洲。他們沒有穩定政府、強大大學體系、關鍵工業結構,很多地方將難以參與這場 AI 革命。他直言:“它們已經落後很多年了,而現在,可能會被甩得更遠。”就算在歐洲,也存在問題。他說,能源貴、資金難拿,很多國家想建 AI 資料中心,卻根本負擔不起。他的建議是:不行就找合作方。比如法國就與阿布扎比合作,用別人的資源來建設 AI 能力。李飛飛也強調了同一件事:“每個國家都該投資人才、技術和教育生態,不能靠別人。”她沒有說 AI 一定讓世界變得更公平。相反,她的意思是:誰不投入,就會被落下。AI 不會自動把紅利送到你手裡。想要從中受益,就要儘早準備,國家如此,個人也如此。而不行動的,會被遠遠甩在後面。第四節|AI 到底是來幫人,還是來替人?討論完 AI 能做什麼,該問問人類還剩什麼了。樂觀的人說它能提高效率,悲觀的人擔心它會取代所有崗位。主持人把問題擺到了檯面上:如果超級智能能做所有的科學研究、經濟決策、生產設計……那人類在這個世界裡,還剩下什麼角色?✦ 施密特:人類和AI,會組成“搭檔組合”他不是那種完全樂觀的人,但他始終堅持一點:未來真正強大的,不是 AI 單打獨鬥,而是人類和 AI 的組合。他說了一個賽車例子。我們都知道,機器人能開得比人快。但為什麼 F1 比賽我們還是想看真人在開車?因為人類有不可替代的魅力,我們就是想看人做到的事。他的意思是,那怕 AI 技術全都到位,人類的好奇心、審美和創造衝動,也不會被替代。我們會想看人類在挑戰邊界,而不是機器演示流程。他甚至想像了一幅畫面:“以後可能會出現兩種比賽:一種是人類之間的,另一種是 AI 之間的。 但我們會更關注人和 AI 一起完成什麼,而不是誰贏了。”✦ 李飛飛:AI再強,也不能忘了“人的能動性”她的回應,情緒更強烈,底線更清晰:我非常擔心,在超級智能的討論中,我們會忘記人類的價值。她強調了兩個關鍵詞:尊嚴和能動性。無論技術走多遠,都必須記住,這個世界不能讓人類被邊緣化。人必須始終是中心。她說,那怕 AI 再聰明、再全面,也不能讓它替我們做選擇。兩人的分歧很清楚:施密特願意讓 AI 干更多事,但人類不會因此失去價值。李飛飛堅持:那怕 AI 做得再多,決定權也必須握在人手裡。歸根結底:誰來定義未來?是 AI,還是我們自己?第五節|李飛飛在做什麼?重建現實世界前面討論的都是超級智能會帶來什麼影響,但 AI 具體會以什麼形態進入我們的生活?這是李飛飛正在做的事。主持人問:我的14歲兒子已經把大部分時間花在虛擬遊戲裡了。等 AI 越來越強,我們是不是都要搬進虛擬世界?李飛飛給出了肯定的回答:“是的,我們未來的生活,會更像一個多元宇宙。不是離開現實,而是現實和虛擬會完全混在一起。”✦ 這不是科幻設想,而是她正在做的事World Labs,李飛飛創立的新公司,專注建構世界模型。她說:人類不光有語言能力,還有一種空間智能。我們能看懂三維世界,能想像空間、動作、因果關係。而過去的 AI 只學語言,沒辦法理解這些。於是她就幹了這件事:訓練 AI 理解空間、物理和互動,就像人一樣。現在,她的團隊的最新成果叫:RTFM。它的全稱是 Real-Time Frame Model,意思是 AI 能即時生成 3D 場景,而且還能記住它自己生成的世界是什麼樣。這不是做一段視訊,而是建構一個你可以走進去、可以互動的持久空間。✦ 那這個“世界模型”能用來幹嘛?她舉了幾個非常具體的例子:醫療手術訓練:未來醫生不一定非要在人身上練習,而是可以在AI建構的手術空間裡反覆演練教育場景:孩子可以進到AI生成的古代城市,邊學歷史邊親身體驗城市規劃:建築師可以把一整座新城區在 AI 中預演一遍,再決定要不要修換句話說:我們未來的大量工作、學習、娛樂,都會發生在這些 AI 生成的世界裡。✦ 這不是逃避現實,而是重新建構現實李飛飛認為,AI 正在從輸出文字進化到建構世界。而這個世界,不是用來看一眼的,而是用來生活的。施密特也認同這個方向。他甚至預測:“未來某一天,AI 可能會告訴我們:‘我需要更多能源,我自己來設計一種新方式。’那就是 AI 開始自己推動物理世界的轉型。”說到底,這是 AI 角色的轉變:過去,AI 是回答者;現在,AI 是建構者;未來,AI 可能會成為世界的重組者。我們正站在這個轉折點上。結語|你是觀眾,還是參與者?施密特說:超級智能可能 3 年內出現,從研究、能源到軍事、政策,都會被重寫。李飛飛說:AI 連萬有引力都推導不出來,真正的超級智能可能遠未開始。3年,還是遠未到來?這不只是時間判斷,而是關於 AI 本質、人類角色、未來主導權的根本分歧。但無論答案是什麼,有一點是確定的:不是 AI 有多強,而是人類準備得夠不夠快。現在,你得問自己:如果 AI 真的在改變一切,你是觀眾,還是參與者? (AI深度研究員)
OpenAI一夜間重組!奧特曼首曝內部時間表:2028年打造出自動化AI研究員!10年內實現超級智能
一夜之間,OpenAI大動作不斷。10月29日凌晨,Sam Altman 和 OpenAI 首席科學家 Jakub Pachocki共同出席了一場罕見的路線圖直播,並在直播中表示,通過持續擴展深度學習,人類將在不到十年內實現超級智能。此外他們還透露,OpenAI 內部正在朝著 2026 年 9 月實現“實習級 AI 研究助理”的目標前進,並計畫在2028 年打造出一名完全自動化的“真正的 AI 研究員”。這一野心勃勃的時間表,也恰逢OpenAI 正式完成組織結構轉型,從非營利機構轉變為“公益型公司”(Public Benefit Corporation, PBC)。這意味著 OpenAI 擺脫了非營利章程所帶來的限制,同時為其引入更多資本創造了條件。下面小編就給大家捋捋時間線,看看OpenAI究竟圍繞這個野心勃勃的目標做了那些舉動。OpenAI從非營利到公益型公司(PBC)10月28日晚,OpenAI宣佈完成資本重組,並簡化了公司結構。具體來說,OpenAI重組後,非營利主體(即原本的OpenAI Nonprofit)改名為OpenAI Foundation,繼續掌控營利實體的26%股份,目前估值約1300億美元。拿到期權的員工們和投資者則持有47%的股份。這也使得該基金會成為歷史上資源最為充足的慈善組織之一。此外,微軟也與OpenAI同步簽署新一輪長期合作協議,確認支援上述重組。同時,OpenAI已同意額外購買價值2500萬美元的微軟Azure雲服務。OpenAI 的使命「確保通用人工智慧(AGI)造福全人類」,將通過營利性機構和基金會共同推進。OpenAI 作為公司越成功,非營利機構的股權價值就越高,並利用這些股權資金支援其慈善工作。官方承諾,OpenAI Foundation會先在兩大領域上投入250億美元:健康和治癒疾病OpenAI Foundation會資助加速健康突破的工作,使每個人都能從更快的診斷、更好的治療和治癒中受益。初步計畫包括投資開源、負責任的前沿健康資料集,以及為科學家提供資金等。針對AI彈性的技術解決方案正如網際網路需要全面的網路安全生態系統,現在人工智慧也需要與之對應的AI彈性層。OpenAI Foundation也會加強在這方面的投資。以上目標,都建立在5000萬美元的“以人為本人工智慧基金”,以及非營利委員會的建議之上。10年內實現超級智能2028 年實現完全自動化 AI 研究員緊接著,在台北時間10月29日凌晨,Sam Altman 和 OpenAI 首席科學家 Jakub Pachocki 一起做了一場罕見的路線圖直播。這場直播中,OpenAI 對深度學習的未來充滿信心。他們認為,通過持續擴展深度學習,人類將在不到十年內實現超級智能。Jakub表示:“我們認為,在不到十年的時間裡,深度學習系統可能就會超越人類智能,達到超級智能(superintelligence)水平。”他們還公開了一張內部時間表:2026 年 9 月前,AI 研究實習生上線2028 年 3 月前,實現完全自動化的研究人員這個“AI研究員”並非研究人工智慧的人類,而是“一個能夠自主完成大型研究項目的系統”。所謂超級智能,指的是在眾多關鍵領域上整體智力水平超過人類的系統。同時,他們還提出了配合這一目標的全套工程路徑:基礎設施層,Altman 提出每周 1 吉瓦的算力工廠;安全機制上,Jakub 公佈價值對齊的五層結構;產品層,ChatGPT 要從對話工具進化為“AI 平台”;組織層,OpenAI 完成改組,新架構背後,是 250 億美元的新任務和微軟 1350 億美元的繫結。雖然OpenAI這次沒有發佈新模型,但可以看出其有更大的野心。Altman 說:“我們不只再靠發佈新模型來推動未來,而是要讓世界基於平台創造更多東西。”另外,小編還盤了盤直播中的其他重點資訊:1.OpenAI 正在開發個人 AGI(明年可能會推出 AI 硬體裝置)。2.OpenAI認為,深度學習可能在不到十年內將人類帶入超級智能時代。3.時間線展望:計畫在2026 年 9 月前,讓 AI 達到實習生等級的研究助理能力;到 2028 年 3 月,誕生一個真正能完成獨立科研項目的 AI 研究人員;到了 2030年代,對世界的影響將無法預測。他們對實現這一時間線抱著極其樂觀的態度,Sam表示:“未來很可能是非常光明的。”4.目前,OpenAI在資料中心上的投資已達約1.4兆美元,並計畫每周建造一座 1GW 的算力工廠——因此,之前sam提出的7兆美元晶片計畫似乎不再是遙不可及。5.OpenAI 的內部模型目前尚未遠超已發佈的版本,但他們對在2026年9月前實現重大飛躍非常樂觀,到2026年9月,我們極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展。6.模型的使用成本已平均下降了40倍,並且預計這一趨勢將持續下去(約每年下降40倍)。7.關於 AGI:“AGI 何時能實現?” Jakub 和 Sam 回答:這將是一個持續數年的過程,而我們正身處其中。但 Sam 特別指出了2028年這個節點,屆時科學研究將完全由 AI 自動化,AI 系統將能夠推動科學前沿的發展,這將是 AI 留給世界的遺產。8.未來幾年,人類勞動的自動化程度將顯著提高,我們可能面臨大規模失業。9.關於 GPT-6:沒有具體發佈日期,但他們希望未來能更頻繁地更新模型,模型能力在不到6個月內就會有巨大飛躍。微軟 & OpenAI 開啟新一輪合作OpenAI為了實現這一野心勃勃的目標,需要大量的合作夥伴。直播中Sam 提及了AMD、Broadcom、Google、微軟(Microsoft)、輝達(NVIDIA)、甲骨文(Oracle)、軟銀(Softbank)等眾多晶片、資料中心、能源和製造領域的合作夥伴。微軟和OpenAI的關係也值得盤一盤。最初,微軟之於 OpenAI 是對一個研究組織的投資,這一合作關係已經發展成為行業中最成功的夥伴關係之一。在這個節骨眼上,雙方也簽署了一項新協議。微軟支援 OpenAI 董事會成立公益型公司(Public Benefit Corporation, PBC)並進行資本重組(recapitalization)。在重組完成後,微軟持有的 OpenAI Group PBC 投資價值約為 1350 億美元,相當於約 27% 的股權(按轉換稀釋計算),其中包括所有持有者——員工、投資者和 OpenAI 基金會。如果不考慮 OpenAI 最近的融資輪次,微軟此前在 OpenAI 盈利實體中的持股比例為 32.5%(按轉換基準)。協議保留了雙方成功合作的關鍵要素:OpenAI 仍是微軟的前沿模型(frontier model)合作夥伴。微軟繼續擁有專屬智慧財產權(IP)權利和 Azure API 獨佔權,直至人工通用智能(AGI)出現。同時,協議還更新和新增了一些條款,以便雙方在保持合作的同時能獨立推動創新與增長。其中包括:一旦 OpenAI 宣佈 AGI 到來,該聲明將由一個獨立的專家小組進行驗證。微軟對模型和產品的 IP 權利延續至 2032 年,包括實現 AGI 後的模型,同時設有適當的安全防護措施。微軟對研究的智慧財產權(定義為用於開發模型和系統的保密方法)將繼續有效,直到專家小組驗證 AGI 到來或者直到 2030 年,以先到者為準。研究智慧財產權包括僅用於內部部署或研究的模型。此外,研究智慧財產權不包括模型架構、模型權重、推理程式碼、微調程式碼以及與資料中心硬體和軟體相關的任何智慧財產權。微軟的智慧財產權現在不包括 OpenAI 的消費硬體。OpenAI 現在可以與第三方共同開發一些產品。與第三方共同開發的 API 產品將獨佔 Azure 平台。非 API 產品可以在任何雲服務提供商上使用。微軟現在可以獨立追求 AGI,單獨或與第三方合作。如果微軟在 AGI 宣佈之前使用 OpenAI 的智慧財產權來開發 AGI,模型將受到計算閾值的限制;這些閾值遠大於當前用於訓練領先模型的系統規模。收入分成協議保持不變,直到專家小組驗證 AGI 的到來,但支付將分期進行。OpenAI 已簽約購買額外價值 2500 億美元的 Azure 服務,微軟將不再擁有 OpenAI 作為計算提供商的優先購買權。OpenAI 現在可以向美國政府的國家安全客戶提供 API 訪問,無論雲服務提供商是誰。OpenAI 現在能夠發佈符合必要能力標準的開放權重模型。進入合作的新篇章後,微軟與 OpenAI 均處於前所未有的有利位置。受此消息提振,微軟周二股價上漲近 2%。總的來說,OpenAI 正以空前的速度邁向一個大膽的目標:在未來三年內打造“AI 實習研究助理”,五年內孕育“真正的 AI 研究員”,並在十年內,迎接人類歷史上第一個超級智能系統的到來。當 AI 真正具備科研能力、能夠自主推動科學前沿時,人類可能將迎來一個前所未有的時代。你認為,AI 真的會在 2028 年成為“科研同事”嗎?歡迎在評論區聊聊你的看法。參考連結:https://openai.com/index/built-to-benefit-everyone/https://blogs.microsoft.com/blog/2025/10/28/the-next-chapter-of-the-microsoft-openai-partnership/https://x.com/OpenAI/status/1983157159853777086https://techcrunch.com/2025/10/28/sam-altman-says-openai-will-have-a-legitimate-ai-researcher-by-2028/ (51CTO技術堆疊)
OpenAI公佈超級智能路線圖:模型明年有望重大飛躍,2028年實現全自動AI研究員,基建投資承諾1.4兆
OpenAI設定兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年AI研究員可自主完成大型研究項目。Altman指出,到2028年科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。截至目前OpenAI已承諾建設總計超過30GW基礎設施,對應未來數年內總計約1.4兆美元投資。Altman強調,1.4兆美元只是起點,正討論更宏大願景。預計未來六個月內模型能力將有巨大飛躍。美東時間28日周二,OpenAI宣佈公司重組完成後,CEO Sam Altman和首席科學家Jakub Pachocki通過一小時直播首次公開了實現超級智能的具體時間表。公司已承諾在資料中心基礎設施上投入約1.4兆美元,對應約30吉瓦的算力容量,並計畫建立每周新增1吉瓦算力的"基礎設施工廠"。Jakub Pachocki在直播中表示,深度學習可能在不到十年內將人類帶入超級智能時代。OpenAI設定了兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年3月實現全自動AI研究員,可自主完成大型研究項目。Sam Altman強調,為支撐這一時間表,OpenAI正從AI助手轉型為平台服務商,目標是讓外部開發者在其平台上創造的價值超過OpenAI自身創造的價值。他表示,公司最終需要達到數千億美元年收入以支撐基建投資,企業服務和消費者業務都將是重要收入來源,IPO是最可能的融資路徑。OpenAI 的內部模型目前尚未遠超已發佈的版本,但對在2026年9月前實現重大飛躍非常樂觀。預計到2026年9月,極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展。OpenAI並未給出發佈GPT-6的具體時間表,但表示產品發佈的節奏將不再與研究計畫嚴格繫結。例如 GPT-5 首次將推理模型作為旗艦產品推出,這本身就是一個重大的整合性工作。但可以確定,未來六個月內、甚至更早,模型能力將有巨大飛躍。此次直播圍繞研究、產品和基礎設施三大支柱展開,披露了OpenAI對AGI發展路徑、安全框架和商業模式的最新思考。公司同時公佈了新的組織架構,由非營利性質的OpenAI基金會控制公共利益公司OpenAI集團,前者初期持有後者約26%股權。超級智能時間表:從研究實習生到全自動研究員Jakub Pachocki詳細闡述了OpenAI的研究路線圖,核心聚焦於深度學習的規模化訓練。他指出,AGI這個詞可能低估了技術進步的潛在規模,OpenAI內部相信距離實現超級智能——在眾多關鍵維度上超越所有人類的系統——可能已不足十年。OpenAI使用"任務時間跨度"來衡量模型能力進展,即模型完成任務所需時間與人類專家的對比。當前一代模型的水平約為5小時,可從其在國際數學或資訊學奧林匹克競賽中與頂尖選手相媲美的表現看出。Jakub表示,這個時間跨度將繼續快速延伸,不僅源於演算法創新,也來自"上下文計算"或"測試時計算"等新維度的規模化。基於這些預期,OpenAI設定了明確的內部目標。2026年9月前,開發出能力足夠強的AI研究實習生,能夠通過消耗大量計算資源有意義地加速內部研究人員工作。更長遠的目標是在2028年3月前,開發出能夠自主完成大型研究項目的全自動AI研究員。Jakub強調,整個研究計畫圍繞一個核心展開:加速科學發現和新技術發展,這將從根本上改變人類技術進步的速度。Sam Altman在問答環節中補充,AGI的到來將是一個持續數年的過渡過程,而非單一時間點。他特別指出2028年這個節點,屆時科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。關於內部模型進展,他表示並未雪藏某個極其強大的模型,但有許多已開發的技術元件,當這些元件組合在一起時將帶來巨大能力飛躍,預計未來六個月內模型能力將有顯著提升。五層安全框架:從價值對齊到系統性保障隨著系統能力向超級智能邁進,Jakub Pachocki提出了一個將安全問題結構化的五層框架,從模型最核心的內部因素延伸到最外部的系統保障。最核心的是價值對齊,關乎AI最根本"關心"的是什麼。Jakub解釋,當系統變得極其聰明、思考時間極長、處理的問題超越人類能力極限時,給出完全無懈可擊的指令會變得異常困難,因此必須依賴更深層次的對齊。第二層是目標對齊,關注AI如何與人互動以及遵循指令的表現。第三層是可靠性,即AI能否精準校準預測、在簡單任務上保持可靠並在困難任務上表達不確定性。第四層是對抗性魯棒性,側重於AI能否抵禦來自人類或其他AI對手的蓄意攻擊。最外層是系統性安全,包括系統安全性、AI可訪問的資料範圍、可使用的裝置等外部限制。Jakub特別介紹了一項名為"思維鏈忠實度"的研究方向。這項可解釋性技術的核心思想是,在訓練過程中刻意讓模型內部推理的某些部分不受監督,從而讓這部分推理過程能夠更忠實地反映模型真實所思所想。他表示,經驗性結果非常理想,OpenAI內部大量使用該技術來理解模型訓練過程中的演變,並與外部合作者成功用它研究模型的欺騙傾向。這項技術具有可擴展性,但也很脆弱,要求在演算法和產品設計中劃定清晰界限。例如,ChatGPT中對思維鏈進行總結的功能,就是為了避免將完整思維鏈直接暴露給使用者。Jakub解釋,如果思維鏈完全可見,它就會成為使用者體驗的一部分,久而久之就很難再對其保持無監督狀態。基建擴張計畫:向兆美元級算力投資邁進Altman以前所未有的透明度公開了OpenAI的基礎設施建設計畫。Altman周二表示,截至目前OpenAI已承諾建設總計超過30吉瓦(GW)的基礎設施,對應未來數年內總計約1.4兆美元投資。這些承諾基於OpenAI目前對收入增長和融資能力的評估。這一投資涉及眾多合作夥伴,包括AMD、博通、Google、微軟、輝達、甲骨文、軟銀等晶片、資料中心、能源和製造領域的公司。Altman強調,1.4兆美元只是起點,OpenAI正在積極討論更宏大的願景。Altman表示,OpenAI的願景是建立一個基礎設施工廠,能夠以每周1GW的速度創造算力,同時將成本大幅降低,目標是在裝置的5年生命周期內,將每GW成本降至約200億美元。他承認,實現這一願景需要海量創新、更深入的合作、巨大的收入增長,甚至需要重新調整OpenAI在機器人領域的思路,讓機器人幫助建設資料中心。Altman在問答環節中指出,要支撐1.4兆美元的投資,公司年收入最終需要達到數千億美元,"我們正處在通往這一目標的陡峭增長曲線上"。他預計企業服務將是重要收入驅動力,但也看到了從消費者獲取收入的方式,不僅限於月度付費訂閱,還包括新產品和裝置等。關於IPO計畫,Altman表示,考慮到公司巨大的資本需求和規模,IPO是最可能的路徑,但目前沒有具體計畫或時間表。"考慮到我們的資本需求以及公司規模,可以說這對我們而言是最可能的路徑,"他說。平台化轉型:從超級助手到AI雲生態Sam Altman闡述了OpenAI在產品層面的戰略演進。他表示,過去OpenAI的產品形態主要是以ChatGPT為代表的AI超級助手,現在正朝著更宏大的目標演進——成為一個平台,一個其他人可以在其上建構應用和服務的"AI雲"。Altman引用比爾·蓋茲的觀點定義平台成功:當其他人基於平台創造的價值超過平台建構者自身創造的價值時,平台就成功了。這正是OpenAI明年的目標。他表示,憑藉現有的技術、使用者基礎和框架,OpenAI能夠推動全世界在其平台上建立出驚人的新公司、服務和應用。為實現平台化轉型,Altman強調了兩個基礎原則。首先是使用者自由,如果OpenAI要成為供全世界不同人群使用的平台,就必須承認人們有截然不同的需求。雖然會有一些寬泛的邊界,但OpenAI希望使用者在使用AI時擁有大量控制權和定製化能力。他多次重申"像對待成年人一樣對待成年使用者"的原則,承諾隨著年齡驗證等機制完善,將給予成年使用者更大的自由度,尤其在創作等領域會大幅放寬限制。其次是隱私保護。Altman指出,隨著AI成為基礎平台,人們與AI的互動方式非常私密,會像對醫生、律師或配偶一樣與之交談,分享生活中最隱秘的細節,因此需要以不同於以往技術的方式思考隱私問題。在產品規劃上,OpenAI描繪了一個層級架構:底層是晶片、機架、資料中心和能源等硬體基礎;中間層在硬體之上訓練模型並建構帳戶體系;應用層推出了名為Atlas的瀏覽器,並計畫未來幾年推出硬體裝置;最令人興奮的是頂層的生態系統,人們將利用OpenAI的API、ChatGPT內的應用、企業平台和帳戶建構服務。新公司架構與基金會使命為支援上述計畫並確保服務於核心使命,OpenAI對公司架構進行了重大調整。新架構由兩部分組成:頂端是非營利性質的OpenAI基金會,擁有對公司的最終控制權,董事會隸屬於基金會;基金會之下是公共利益公司OpenAI集團。基金會將掌控OpenAI集團,初期持有其約26%股權,如果公司表現出色這一比例未來還可能增加。Altman表示,基金會的目標是成為有史以來最大的非營利組織,利用其資源追求AI帶來的最大化社會福祉。OpenAI集團將更像普通公司一樣運作,以便吸引研究所需的龐大資源,但依然受到與基金會相同的使命約束,尤其在安全問題上必須以使命為唯一準則。基金會公佈了兩個初步重點方向。首先是投入250億美元利用AI幫助治癒疾病,資金將用於生成資料、提供計算資源、資助科學家等。其次是AI韌性,這是一個比傳統AI安全更廣泛的概念。聯合創始人Wojciech Zaremba解釋,先進AI的到來必然伴隨風險和顛覆,AI韌性的目標是建立一個由眾多組織構成的生態系統共同解決這些問題。他用網路安全行業發展類比:網際網路早期人們不敢線上輸入信用卡號,而現在龐大的網路安全產業保護著關鍵基礎設施,使人們願意將最私密資料放線上上。同樣,AI領域也需要一個"AI韌性層",OpenAI基金會將幫助催生這樣一個生態系統。以生物風險為例,韌性不僅包括在模型層面阻止病毒學相關查詢,還包括建立快速響應機制,以便在問題發生時有效應對。 (invest wallstreet)