官方認證
RexAA
全球科技產業觀察者
重磅《Nature》!發現奈米晶金屬在低溫和室溫下延展性差的主要原因!
研究背景在廣泛的條件下(溫度、壓力、應變速率等),金屬和合金的永久性或塑性變形是通過位錯實現的,這些線性缺陷的存在和移動決定了晶體材料的力學行為。金屬通常以多晶形式存在,其中每個晶體區域或晶粒由晶界分隔,而晶界是位錯運動的已知障礙。霍爾-佩奇關係描述了金屬屈服強度隨晶粒尺寸減小而增加的現象,其理論基礎是位錯在逐漸受限的體積中堆積於晶界處。當這一經驗定律在奈米晶粒尺寸下達到極限時(此時晶粒內部通常沒有位錯),塑性閾值會飽和或下降。這種轉變通常歸因於由晶界本身驅動的塑性變形過程。剪下-遷移耦合被認為是這些過程中最有效的機制,但儘管研究活動密集,對於遷移晶界可能產生的剪下量仍缺乏量化共識。迄今為止,關於中小晶粒晶體在低溫和中溫下變形的兩個未解問題涉及控制機制:是否存在一種主導機制?如果這種機制是SCGBM,如何量化它?研究問題本文通過實驗證明,在小晶粒多晶體中,這種剪下不依賴於晶界取向差,且其效率保持較低水平。這些發現支援了關於晶界的新概念:晶界不應被視為攜帶固有"耦合因子"的晶體缺陷(類似於位錯的伯格斯向量),而應被視為包含特殊缺陷(即錯連)的特定晶格結構,這些缺陷將反過來決定晶界的性能(至少是力學性能)。研究結果還證實,多晶體可以在沒有位錯的情況下發生塑性變形,但效率較低,這為解釋奈米晶金屬在低溫和室溫下延展性差的現象提供了潛在路徑。圖1| 晶體取向圖疊加在預裂紋超細晶鋁薄片的明場透射電鏡顯微圖像上要點:1.為在更易發生的位錯活動之外分離出晶界機制,有兩種選擇:觀察極細晶粒(但難以表徵大量晶界並確定主導機制),或消除晶內位錯並在中等溫度下研究稍大晶粒。本文選擇後者,對超細晶(晶粒尺寸小於1微米)鋁在約210-230℃進行測試。圖1展示了準備進行拉伸測試的透射電鏡樣品初始狀態:樣品在220℃退火消除晶內位錯後,於25℃預製了垂直於拉伸軸的裂紋。裂紋前端的自動晶體學取向成像結果疊加在明場透射電鏡圖像上。通過在該點集中應力,本文最大程度提高了觀測已知取向單晶界遷移及其耦合效應的可能性。圖2|在220℃原位透射電鏡拉伸實驗中,測量與晶界遷移相關的塑性應變要點:1.在成功的原位透射電鏡實驗中(觀察到應力作用下的晶界遷移且無位錯活動參與),本文通過數字圖像相關技術對15次晶界遷移導致可觀測剪下應變的情況進行了量化分析。剪下耦合晶界遷移通常採用β因子進行評估,該因子即剪下位移量與遷移距離的比值,亦即剪下應變。如圖2所示,面內應變的測量是通過參照固定點(大白色矩形),在遷移前後監測表面標記點(小白色方框內追蹤點)實現的。在此特定案例中,遷移距離m為90奈米,面內應變大致平行於晶界慣習面(符合預期),平均幅度為2.5奈米。由此得出該大角度晶界(取向差28°)的β值為2.8%。2.除測量β因子外,這些實驗還顯示可能發生晶粒旋轉(此時平均β因子無意義,因為應變方向圍繞中心點變化),但這種現象遠少於剪下耦合晶界遷移(約佔觀測到晶界遷移案例的5%,詳見補充資訊)。另一有趣現像是:單個晶界遷移過程中β值常發生變化。實際上晶界遷移很少連續進行,可能在恢復運動前出現暫停。即使慣習面保持不變(如圖2所示),β值也可能出現顯著波動,從近乎零到百分之幾不等。這裡討論的是同一遷移晶界——即在運動過程中保持取向差不變的晶界(本文報告的所有案例均如此)。當晶粒消失時情況則不同,這已超出本文追蹤方法的極限範圍。所有通過原位透射電鏡測量的耦合因子(紅點)與原子力顯微鏡測量結果(藍點)均彙總展示於圖4中。圖3| 塊體Al3%Mg超細晶樣品在250℃、4 MPa條件下壓縮35分鐘後,因晶界遷移而改變的表面形貌要點:1.由於剪下耦合晶界遷移(SCGBM)可能在三維空間產生塑性應變,而原位透射電鏡薄片拉伸僅能揭示其面內份量,本文還監測了塊體形式壓縮下同種材料的表面外行為。圖3a展示了SCGBM對初始鏡面拋光Al3%Mg合金塊(尺寸6×3×3 mm³)在低應力(4 MPa)、250℃條件下壓縮35分鐘後的表面影響。通過反覆試驗,本文確定了這些最佳條件,既能觸發足夠的晶界遷移以進行量化,又不會破壞初始晶粒結構。由此能夠追蹤單個晶界,並通過掃描電鏡中的電子背散射衍射(EBSD)在實驗前後監測其取向差。2.蠕變前的取向圖採集自鏡面拋光表面,蠕變後的取向圖疊加展示於圖3b中。根據蠕變前後的取向圖,可獲得所有晶界的遷移分佈圖(圖3d),其中發生遷移的區域呈灰色,未遷移區域呈黑色。圖3e示意了遷移的基本過程:黑色區域主要位於膨脹和收縮晶粒的中心。從該分佈圖可推導遷移距離。正如透射電鏡觀察所示,遷移晶界的慣習面可能在運動過程中發生變化(例如由於與三叉晶界相互作用),因此需要為每個晶界定義平均遷移距離m。為獲得與這些遷移相關的耦合因子,還需測量每個晶界運動伴隨的剪下量。由於伴隨的剪下位移s主要產生於表面(圖3f),本文通過原子力顯微鏡(AFM)進行測量,並將其與圖3d的遷移分佈圖關聯(見圖3f)。每個移動晶界的耦合因子β通過剪下位移s除以對應遷移距離m計算得出。圖3f頂部展示了跨越三個晶粒的典型AFM剖面及其對應遷移的示例。圖4| 通過原位透射電鏡和原子力顯微鏡測量的遷移晶界耦合因子β要點:1.與必須依賴單晶界遷移、在良好成像條件下視訊捕捉且視野有限的原位透射電鏡測量相比,原子力顯微鏡方法顯然能獲得更大量的β統計資料。但兩種方法得出了相同的關鍵結論:首先,耦合因子不依賴於晶界取向。本文在透射電鏡實驗中甚至觀察到同一晶界能產生不同應變,從而具有變化的耦合因子,這與近期模擬研究指出的"β並非晶界本征屬性"的結論一致。這一結果與將晶界視為完美位錯陣列、認為耦合因子直接取決於晶界取向差的理論截然不同。該理論預測的β模量在圖4a、b中以藍綠色實心圓盤表示。需注意的是,由於鋁晶體的立方對稱性,本文的測量中未發現超過62.8°的取向差,這與麥肯齊分佈規律相符。從圖4可直接推匯出的第二個結論是:無論遷移晶界及其取向差如何,耦合因子始終保持在較低水平。雖然完美位錯模型僅考慮傾轉晶界,但即使僅考慮遷移晶界的傾轉份量,所得β值仍然極低。根據本文直接的透射電鏡測量,其平均值約為0.03;若僅考慮晶界在應變方向投影的傾轉部分,平均值約為0.08。總結與展望總體而言,這些發現可能迫使我們重新思考晶界的本質特性。本文所揭示的現像其實可以直接從金屬與合金的位錯基塑性理論中推導得出:除彈性性能外,所有其他力學性能(強度、延展性等)都直接源於材料缺陷的特性,而非其晶格結構(完美晶體)本身。正如近期關於晶界遷移率的研究所證實——特別是在擴散受限的相對低溫條件下,晶界的力學性能應取決於其內部缺陷(即錯連),而非宏觀特徵(慣習面、取向差)或結構(雙色圖案),儘管現有缺陷確實依賴於這種晶格結構。這要求對實際晶界轉變認知視角:迄今為止,晶界常被視為多晶顯微組織中的缺陷。而本文的研究推論表明,晶界並非基礎缺陷,而是承載著更基礎缺陷的載體,正是這些基礎缺陷主導著晶界的動態特性。 (材料學網)
真人AI影視真的狼來了嗎?<凡人職場傳>EP1 | 真人AI短劇一則
最近, 花了不少時間在視訊生成領域, 把國內外的最新頂級視訊大模型深入翻了個遍. 為的是確認一個小問題: 真人AI影視的時代是否已經到來.當然, 這話題也可以說了無新意,  因為關心視訊生成這個領域的同學都知道, 無論如何,我們都可以手工搓出每一個鏡頭圖片, 然後再手搓出各個視訊分鏡頭 - 這裡顯然還有很多的細節, 比如那個大模型更適合合成真人靜態圖片, 那個大模型更容易從參考圖得到高品質的生成視訊.但這個事情總是可以做的. 無非是說要花的時間而已.只是 這時間問題, 就是目前真人AI影視生成的核心問題了. 如果只是做一個幾十秒的廣告片, 花上幾星期去手搓打磨是完全沒問題的, 也是應該的- 每一個鏡頭都需要甲方乙方反覆的溝通確認.但動則幾十分鐘, 甚至一兩個小時的影視製作呢?手搓真人AI視訊就像是一個工坊小製作, 可以做出一個精緻的藝術品, 但這個技能無法延伸出一個影視級製作, 更無法成為一個影視生產的流水線 -- 即使這樣的手搓流水線真的存在, 其人員培訓成本和維護成本一定是相當高的.這和所謂動漫AI短劇生產還不太一樣. 目前已經有一些團隊使用ai製作一些靜態漫劇甚至更高品質的動漫AI短劇了, 但相對於真人AI視訊,  動漫AI視訊的門檻低了不止一點, 比如人物一致性和影視表現的要求(畫面光影, 人物互動,對話,等等), 不在一個等級上.前一兩周有流傳過一個帖子, 使用一張圖來生成多個分鏡圖, 這個方法用來生成病毒傳播的短影片還可以(就像使用sora生成十幾秒的視訊), 但對於動則上百上千個鏡頭的影視內容, 如何確保其連續性和表現的專業性呢?不過, 這些問題並不是無法解決的,甚至可以反過來說, 這些問題克服之後, 基於AI的長篇視訊內容的生產打造將展示出無與倫比的威力.無論如何, 城主可以斷言, 真人AI影視的時代已經悄悄來了,  不用很久, 我們可以看到基於AI視訊的完整真人短劇甚至電影. (Web3天空之城)
AI教父預言:巨變將至
如果有一天,親手締造了ChatGPT,被尊為“AI教父”的那個人,站出來宣告他開創的時代已經結束了,你會怎麼想?這不是科幻小說的情節,而是正在發生的事實。最近,OpenAI的聯合創始人、GPT系列的核心推手伊利亞·蘇茨克維(Ilya Sutskever),進行了一場足以撼動整個AI產業根基的深度訪談。他拋出的觀點,不是在預測未來,而是在為我們熟知的AI時代,親手寫下墓誌銘。伊利亞的核心論斷,可以用一句話概括:那個依賴堆砌資料、算力和參數的“規模擴張”時代,已經在2025年正式終結了。過去五年,從矽谷到杭州,整個行業都沉醉於一個簡單的“規模定律”:模型更大、資料更多、算力更強,智能就會自動湧現。這就像一個不斷膨脹的宏大泡沫,而伊利亞,這位曾經的吹泡人,如今成了最冷靜的刺破者。他指出,這條路的邊際收益正在急劇遞減,單純增加投入已經難以換來能力的顯著提升,擴展與浪費算力之間的界線,已經變得模糊。更重要的是,這條道路培養出的,可能是一群“高分低能”的應試專家,永遠無法抵達真正智能的彼岸。為了說明這一點,伊利亞給出了一個極其精妙的比喻。想像兩個學程式設計的學生:學生A立志成為競賽冠軍,他投入一萬個小時,瘋狂刷題,背下了所有的演算法和解題套路,在考場上所向披靡。而學生B只是覺得程式設計有趣,他可能只花了一百個小時,但他真正理解了程式碼背後的邏輯,擁有了一種解決問題的“直覺”和“品味”。你認為誰的職業生涯會更長遠?答案顯然是後者。而我們現在引以為傲的大模型,就是那個“學生A”。它們可以在程式設計競賽榜單上拿到驚人的高分,但在真實的開發中,卻可能連一個簡單的Bug都修不好,甚至會在兩個錯誤之間陷入死循環。這就是“評估表現”與“現實能力”之間觸目驚心的脫節,也是當前AI最根本的困境:它們擅長考試,卻幹不成事。那麼,真正的智能,那個“學生B”身上的靈光,究竟來自那裡?伊利亞將目光投向了人類自身,並提出了一個顛覆性的觀點:我們一直視為累贅、急於從AI中剝離的“情緒”,可能正是智能皇冠上缺失的那顆寶石。他認為,人類的情緒,本質上是一個由進化塑造的、無比強大的“內在價值函數”。當你學開車壓線時,不需要等到撞車,內心的緊張感會立刻告訴你“錯了”;當你下棋走了一步臭棋,不用等到終盤認輸,瞬間的懊悔就是最好的反饋。這種即時、內在的糾偏機制,讓我們能以極高的效率從少量經驗中學習。相比之下,現在的AI就像一個沒有直覺和情感的“空心人”,它只能在任務結束後得到一個冰冷的分數,然後在黑暗中進行海量的試錯。因此,伊利亞預言,AI的未來,必須為機器注入類似人類情感的動態價值系統,讓它學會“關心”,而不僅僅是“計算”。基於這些深刻的洞察,伊利亞為我們勾勒了一幅全新的AGI圖景。它不是一個一問世就全知全能的“神”,而更像一個智商超群、充滿好奇心的“超級15歲少年”。這個少年可能還不懂醫學或法律,但他擁有極致的學習效率,可以在幾天內掌握一個領域的全部知識。他能主動探索世界,理解物理和社會的運行規律,並在陌生環境中快速適應。要實現這樣的智能,行業必須從“規模競賽”回歸到“研究時代”,就像當年用幾張GPU訓練出AlexNet、用幾十張GPU發明Transformer一樣,下一次範式革命,很可能再次來自一個“小而美”的實驗靈感。最後,這位一路將AI推向巔峰的先知,給出了他個人的時間預言:這樣一個真正的通用人工智慧,可能在5到20年內到來。而當它強大到足以讓所有人感到震撼和危機的那一刻,全世界對待AI安全的態度,將發生根本性的巨變。伊利亞創立新公司SSI,正是為了直指這個終極目標,專注於超級智能本身及其安全性。所以,這場訪談的意義,遠不止於技術路線的爭論。這是一位最頂層的設計者,在為我們按下重啟鍵。當所有人都沉迷於讓模型再大一點、再快一點的時候,他告訴我們,方向錯了。未來真正的競爭力,不再是倉庫裡有多少張顯示卡,而是誰能最先理解智能的本質,並為機器找到一顆懂得“關愛”的初心。如果你覺得,AI的發展只是科技巨頭們無聊的參數遊戲,那麼從今天起,是時候改變看法了。一場關於智能本質的哲學思辨,已經拉開了技術革命的新序幕。而真正有趣的問題是,當AI開始擁有類似情感的“價值函數”時,它眼中的世界,以及我們與它的關係,將會變成什麼樣? (厚深AI)
OpenAI奧特曼最新訪談:未來將投入兆美元,不想成為上市公司CEO
2025年的最後一個月,AI行業的巨頭們都試圖用驚人的成果重塑自己的“地位”。Google發佈Gemini3.0後,一向高調的塞姆·奧特曼在OpenAI內部拉響了紅色警報,隨後緊急發佈GPT5.2,不久前還承諾投入上兆美元擴增基礎設施。過去一年,巨頭和大廠們始終籠罩在“被超越”的危機感中。為了在模型能力上領先對手,各方從團隊配置到資本投入上,全面展開激烈競爭。保持穩定的迭代節奏,幾乎是AI行業巨頭們對外踐行的最鄭重的承諾。國內同樣如此。字節豆包先推出引爆社交網路的豆包手機,最近又宣告豆包大模型DAU超過1億,成為國內首個日活過億的原生AI應用。這讓投入巨大致力於成為超級入口的阿里千問APP,不免有些失落。反擊或許正在醞釀中。阿里系維持一貫的飽和式投入。聲勢浩大地上線千問APP後,接著螞蟻發佈靈光、阿福(一款AI醫療應用),從基礎模型到光譜最大的垂直應用領域,全面輻射使用者群體。作為國內的獨立模型廠商們,也加速了資本上市的戲碼,智譜、MiniMax先後遞交招股書,搶灘IPO。AI六小龍裡的另一位Kimi,也有傳出明年上市的計畫。2025年年末的AI敘事,全面進入資本比拚的加速期。在奧特曼和Big Technology的這次訪談中,奧特曼回溯了許多重要話題,比如OpenAI的戰略、產品目標、支付超過1兆美元基礎設施建設的能力、上市計畫、失業等。奧特曼的言論,對國內使用者和AI廠商而言,或許是個重要的參考。有趣的是,儘管奧特曼提到OpenAI將企業端作為戰略優先順序,但並沒有回答它和老對手Anthropic相比的優勢。大家傾向認為前者戰略更偏向C端使用者,後者更偏向企業端,今年營收50億美元,企業端收入遠超OpenAI。我們翻譯整理了這期視訊訪談,一些重要觀點如下:1、下一代模型ChatGPT6的時間表,OpenAI目前尚不清楚。2、C端消費者目前需要的並非更高的智能水平,B端企業才需要更高的智能水平,OpenAI會分化出兩條線,採取不同的方式改進模型。3、接下來的一年,企業端使用者增長將成為OpenAI重點方向。基於企業端使用者需求,OpenAI在開拓一種新的類似雲業務的軟硬一體的服務。4、關於OpenAI明年會上市嗎,奧特曼未給出明確答案,但暗示未來也會上市。5、OpenAI正在研發一系列小型硬體裝置,其中一個沒有螢幕,和手機大小差不多。為了文字閱讀方便,在不影響原意的情況下,我們做了適當處理和刪減。01. OpenAI下一年的優先順序,瞄準企業端主持人:Gemini 3 發佈後,OpenAI似乎拉響了紅色警報,據我所知,這是OpenAI 首次沒有明顯的領先優勢。你怎麼看?Sam:關於“紅色警報”,我們認為這類事風險相對低,但很常見。當出現潛在競爭威脅時,保持警惕並迅速行動是好事。今年DeepSeek出來時,我們也啟動了紅色警報。疫情時有句諺語,早一點行動,就比晚行動更有價值。到目前為止,Gemini 3並沒有產生我們擔心的那種影響,它和DeepSeek一樣,暴露了我們在產品與策略上的短板,我們正在快速補上。我們不會在這一緊急狀態里奇待太久,以往這種情況通常持續6-8周。我們剛剛上線了一個新的“圖像生成視訊”模型,上周發佈了GPT-5.2,我們會保持每年一次或兩次的大版本更新節奏。這也是確保我們能持續領先的部分原因。模型能力會變得更強,但人們選擇使用某個產品,不論C端還是B端使用者,遠不止模型本身。我們預期競爭會加劇,所以一直在搭建“讓產品真正好用”的能力,我相信企業端在未來幾年會成為重要增長點。人們最終會希望使用“同一個AI平台”。ChatGPT在消費端的強勢,也在反哺企業端。主持人:ChatGPT的周活使用者從年初約4億增長到8億,但另一方面,像Google這樣的公司有巨大的分發優勢。你認為模型會不會商品化?Sam:我認為,“商品化”不是理解這件事最合適的框架。在日常使用上,各家模型廠商會越來越接近,但在最前沿、最複雜的問題上,差距會非常明顯。真正的經濟價值,還是會由“處在前沿的模型”創造的。主持人:你上周末在紐約和一些新聞編輯、CEO吃午飯時說,企業端在明年會成為OpenAI的重要類股。為什麼?你們與 Anthropic相比如何?很多人會說這是OpenAI從消費端轉向企業端的“戰略轉向”。Sam:我們一直都在關注企業端,只是有幾個原因,導致節奏不同。第一,早期模型還不夠穩健,不足以滿足大多數企業場景,現在開始接近了。第二,我們當時看到一個很清晰的消費端機會,這種機會非常難得,如果在消費端獲得優勢,會讓企業端的勝利變得容易得多。今年我們的企業端使用者增長速度甚至超過了消費端。基於當前模型水平以及明年可能達到的能力,我們認為現在是建立一個非常重要的企業業務的時機。編碼是目前最大的企業應用,但也有其他垂直領域正在快速增長。我們也開始聽到一些企業說,想要一個統一的AI平台。主持人:那個垂直領域?Sam:金融......就我個人而言,科學領域最讓我興奮。主持人:你們有個指標 GDPval(一項全新評估指標,用於衡量模型在44 個職業領域中具有經濟價值的現實任務上的表現),根據你們自己公佈的結果,在知識工作任務上,GPT-5大約有38%的任務上和頂尖行業人士持平, GPT-5.2 Thinking 能實現 70.9%的任務。這意味著最新模型在很多知識工作上已經接近專家水平,這會帶來什麼影響?Sam:你問到垂直領域,我覺得這是個好問題。但我剛才有點停頓,是因為腦子裡閃過,企業要做的事情大概有四十多類——做 PPT、法律分析、寫各種文件……GDPval 的核心在於,在很多“小而清晰”的任務上,模型的輸出結果是否會被專家更喜歡。企業裡大量工作恰恰是這種範圍明確、可拆分的任務,它不是那種開放式、協作式,從零創造新產品的複雜活動。但如果你擁有一個“同事”,可以把數小時的任務交給它,然後7成機率下你更喜歡它的結果,成本也低。這已經非常驚人了。假如回到三年前(GPT-3 發佈時)讓人預測“三年後會到這個水平”,大多數人都會說絕不可能。現在企業要做的,是把這些能力真正嵌入工作流程,不只是寫程式碼,而是幾乎所有知識工作任務都可以“外包”給 AI。這需要時間,企業也需要摸索如何整合,但影響會很大。02. AI的終局是什麼?ChatGPT的介面變化應該更快主持人:假設 ChatGPT和Gemini使用者體驗相似,OpenAI最大的威脅是不是來自Google有無數入口,能把Gemini分發到各個介面上?Sam:Google仍然是一家強大的公司,如果Google在2023年真的下決心“嚴肅對待我們”,我們可能會處在非常不利的位置。他們完全有能力把我們打趴下。但當時他們的AI產品方向有所偏差。Google擁有科技史上最好的商業模式之一,很難主動放棄,把AI直接“擰”進傳統網頁搜尋裡,我認為很難像很多人想的那樣順利,當然我也可能是錯的。在即時通訊或郵件裡加AI,你可以讓它幫你總結資訊、草擬回覆,確實會更好一點,但我認為終局絕不是這樣。終局更像是,你有一個非常聰明的AI作為你的代理,它跟別人的代理溝通,決定什麼時候該打擾你,什麼時候不打擾。那些決定它能自己處理,那些必須來問你。搜尋、生產力工具也一樣。我認為,這些新產品會比我們想像中來得更慢,但我們會看到在主要領域裡出現一些徹底圍繞AI建構的新產品,而不是“加了AI的舊產品”。這也是Google的一個弱點,即便它有巨大分發優勢。主持人:我本來想問你,未來一兩年ChatGPT的形態會變成什麼樣,是不是就會朝這個方向?Sam:坦白說,我原以為,ChatGPT的“外觀”變化會更大。最初上線時,它更像一個研究預覽,並不是一個產品,現在雖然更精緻,但整體變化並不大。人們已經習慣用簡訊和朋友交流,這個介面天然好用。我低估了當前介面“通用性”的力量。不過我認為,AI未來應該能為不同任務生成不同的互動介面。比如你在聊資料,它就應該以不同方式把資料呈現出來,並讓你用不同方式互動。我們現在有一點點類似能力,比如Canvas,但應該更互動、更“對象化”,現在的體驗還是“你一句我一句”的對話。理想情況下是,你們圍繞同一個對象持續討論,介面隨著新資訊不斷更新,你提出更多問題、更多想法,系統也更主動。長期看,它可能會理解你一天要做什麼,並持續在後台為你工作。它在後台持續為你推進事務,並給你推送更新。你能從人們使用Codex的方式裡看到這種趨勢,這可能是今年最令人興奮的事情之一。Codex指向了我對未來互動形態的很多期待。不過說出來有點尷尬,過去三年 ChatGPT聊天介面基本沒變。03. “我不想成為一家上市公司的CEO”主持人:你們大約有1.4兆美元的承諾要投入算力基礎設施。你自己也公開說過,如果人們知道你們能用算力做什麼,就會想要更多。能不能展開一說下,這麼多算力用來做什麼?Sam:我們最興奮的一件事,就是用大量算力去探索新的科學問題。我相信科學發現是“讓世界對所有人變得更好”的最高階方式之一。如果我們能把巨量算力投入到科學問題上,發現新的知識,那怕現在才剛剛開始,都會非常重要。從歷史看,一旦趨勢線從x軸抬頭,我們就知道如何把它做得越來越好,但這需要海量算力。我們會加大投入,做新的科學發現,攻克疾病等。很難精準框定我們現在每天用多少算力去生成AI,但我想做一個很粗糙、不嚴謹的估算。假設一家前沿AI公司每天可能生成大約10兆token,有些可能更多,但我不認為有人達到了千兆等級。世界上有80億人,平均每人每天輸出的“token”數大約是2萬,這基本全是瞎估。那麼,如果AI模型每天輸出的token數超過全人類智能輸出的總和,再到 10 倍、100 倍……這當然有點荒謬,不過你也可以想像下,地球上的“智力計算”有多少來自人腦,多少來自AI,兩者的相對增長率多少。主持人:你知道現在對算力的需求有多大嗎?如果OpenAI把算力翻倍投入科學或醫學,一定會帶來突破嗎?Sam:從一些跡象來看,這種需求會發生。模型每提升一個台階,使用意願就顯著增加,每當把成本降下來,使用需求就會再躍升。所有這些都表明,人們會用這些模型去做很多非常棒的事情,未來的需求會沿著少數關鍵軸,能力、速度、成本、可靠性等持續上升。主持人:能否舉個例子,某個科學家有問題X,如果投入算力Y就能解決,但今天還做不到?Sam:今天早上 Twitter 上一個有趣的討論,一群數學家互相回覆,說他們原本非常懷疑 LLM 能在數學上真正有用,但GPT-5.2對他們來說跨過了一個邊界。它做出了小證明,發現了一個小結論,正在改變他們的工作流程。然後越來越多人跟帖,說“我也是”。這模型才發佈五天左右,但數學、科研圈裡似乎出現了某種“被點亮”的感覺。這會很有意思,值得看它接下來會如何發展。過去一年,我們把算力規模提高了三倍,明年還會提高大約三倍。之後收入增長可能會更快一些,但總體上確實與算力規模大致同步。我們從來沒有遇到過“算力無法變現”的情況,如果現在有兩倍算力,我們大概就能做出兩倍收入。主持人:既然你提到數字,我想聊聊財務。收入在漲、算力投入也在漲,但投入仍然跑在收入前面。外界有報導說OpenAI到2028、2029年可能累計虧損約1200億美元,之後才會實現盈利。這個轉折怎麼發生?Sam:隨著收入增長,推理會成為算力需求裡越來越重要的部分,並最終“蓋過”訓練消耗。我們確實會在訓練上花很多錢,但隨著規模擴大,推理會越來越主導。當然,我們仍會繼續擴充訓練規模。如果我們把訓練投入降下來,確實會更早盈利,但我們決定下注,非常激進地投入訓練更大的模型。主持人:全世界都在問,收入和支出怎麼平衡?今年收入可能200億美元,而長期基礎設施承諾達到約1.4兆美元。把這兩者放在一起,人們會有困惑。你能否把這套數學講清楚,終結外界的疑惑?Sam:這很難。人類對指數增長的直覺通常很差,你可以在腦子裡對很多數學問題有直覺,但“指數增長”往往做不好。這可能是因為進化過程並不需要這一點。我們的判斷是,我們的收入曲線還能在很長一段時間裡保持非常陡峭。我們現在仍然受制於算力約束,算力一增加,收入線就會被強烈拉動。只有當我們出現“有大量閒置算力,且無法在單位算力上盈利變現”的情況時,才會合理地說,好,我們可能超建了。但我們已經用各種方式做過測算,同時,硬體層面(flops/美元)也會繼續變得更高效。我們看到消費增長、企業增長,還會有許多尚未推出的新業務。算力是血液,我們會設定一些“檢查點”,如果和數學略有偏差,也有一定的調整空間。但直到今天,我們一直處在“算力赤字”。主持人:所以你的計畫是,訓練成本佔比會下降,而你們通過企業端、訂閱付費、API 等方式把收入增長到足以覆蓋基礎設施?Sam:目前計畫確實如此。主持人:最近市場似乎有點“失控”,我覺得一個恐慌的點是,通常公司會在有可預測收入時舉債,去建設,然後用穩定現金流償債。但AI行業收入不可預測,卻開始大舉債務,你怎麼看?Sam:首先,我覺得市場更早之前才是真正“失控”。今年早些時候,我們只是去見某家公司,第二天那家公司股價就漲15%~20%,這太瘋狂了,也很不健康。現在市場有了理性,我反而更開心,因為之前那種熱度讓我感覺我們正走向一個不穩定的泡沫。關於債務,我們確實知道整個行業在投入基礎設施,最終一定會有人從中獲得價值。雖然一切仍然很早,但我認為現在沒人懷疑AI會創造價值。從這個意義上看,用某些形式融資是合理的。我也認為未來會出現更多金融工具,其中可能有些很離譜,因為人們會不斷“創新”融資方式。但總的來說,讓金融機構借錢給資料中心建設這件事本身並不奇怪。主持人:市場的擔心在於,如果進展不再像現在這樣快,比如模型能力開始飽和,那麼基礎設施的價值可能低於預期,資料中心最終當然有人會用,但也可能被低價清算。Sam:我確實認為途中會出現一些繁榮與蕭條。不過在我看來非常清楚的一點是,模型會變得更好,這一點信心很高。即便模型不再進步,世界的慣性很大,人們適應新事物需要很久。就算把模型停留在GPT-5.2的水平,它所代表經濟價值的“潛能”(overhang)仍然巨大,這一點還遠沒有釋放出來。我以前可能默認,如果模型裡蘊含巨大價值,世界很快學會如何部署並釋放這些價值。但現在看起來,尚未開發的“潛能”會非常巨大。只有少數群體,例如一部分程式設計師,會迅速因AI工具提升生產力,很多人仍然在問和GPT-4時代差不多的問題。這個“潛能”會帶來很多後果,我們還沒完全想清楚它會怎樣展開,這與我幾年前的預期非常不同。主持人:模型能力已經強很多,但很多企業說他們在實際落地時並沒有得到預期回報,這讓我困惑,是不是因為組織慣有流程阻礙了價值的兌現?Sam:確實,人們改變工作流的速度遠遠比我想像的慢。很多人習慣了把某些任務交給“初級同事”去做,而非AI。我自己也仍然在用相當傳統的方式工作,儘管我知道我可以更深地使用AI。主持人:說到公司層面,明年會IPO嗎?Sam:我不知道。主持人:你們想成為上市公司嗎?在資金不足前會上市嗎?Sam:這裡面牽涉到很多因素。我確實覺得,公開市場能參與價值創造會很酷。相比以往的任何公司,我們會非常晚才上市,做一家私營公司固然好,但我們需要大量資本。我們遲早會突破股東人數限制。主持人:你個人想當一家上市公司的CEO嗎?Sam:一點也不想。不過,我對OpenAI成為上市公司,某些方面還會感到興奮。另外一些方面會讓人惱火。04. 別再盯著AGI這個詞了主持人:你們正在研發硬體裝置,我聽說它的大小和手機差不多,沒有螢幕。為什麼不能做成一個應用程式呢?Sam:首先,我們會推出一個小型裝置系列。我認為人們使用電腦的方式會逐漸發生轉變,從一種被動操作轉變為一種非常智能、主動的工具,它能夠理解你的整個生活、你的處境、你周圍發生的一切,並且非常清楚你周圍的人。螢幕的存在限制了你的操作方式,鍵盤的設計初衷就是為了降低資訊輸入的速度。這些長期以來都是不加質疑的假設,但確實有效。然而,隨著全新技術的出現,它開闢了新的可能性空間。主持人:你之前談到過建構雲平台。我們收到一位聽眾的郵件,內容如下:“我們公司正在從 Azure 遷移,直接與 OpenAI 整合,以支援產品中的 AI 體驗。我們的重點是將數兆個用於驅動AI體驗的token流插入整個技術堆疊。” 你們有計畫建構一個龐大的雲業務嗎?Sam:數兆枚token的確數量龐大。企業已經明確告訴我們,他們想從我們這裡購買多少token,而我們預計到2026年仍將無法滿足需求。但我們的策略是,大多數公司似乎都想找到像我們這樣的公司,說:“我想讓我的公司應用人工智慧。我需要一個為我的公司定製的API。我需要一個為我的公司定製的ChatGPT Enterprise。我需要一個能夠運行所有這些代理的平台,並且我的資料安全有保障。我需要能夠將數兆個token匯入我的產品。我需要能夠提高我所有內部流程的效率。”而我們目前還沒有一個完美的一體化解決方案來滿足他們的需求,我們希望能夠做到這一點。主持人:你的目標是讓它與AWS和 Azure等世界級服務並駕齊驅嗎?Sam:我覺得這跟那些不一樣。我並沒有打算提供所有服務。人們會繼續使用他們“網路雲”,我認為還會出現另一種情況,公司會說,“我需要一個人工智慧平台來處理所有內部事務,以及我想提供的服務等等。”從某種意義上說,它仍然依賴於物理硬體,但我認為這將是一種截然不同的產品。主持人:我最近在規劃一次包含很多細節的旅行,和ChatGPT連續聊了好幾周,我可以在新窗口裡說“我們接著聊這次旅行”,它就能自動接上文,記得我在做什麼,去那兒,甚至我在為旅行做體能計畫,它能把這些都綜合起來。Memory未來能強到什麼程度?Sam:現在還很難想像,因為人類的“記憶上限”很明顯。就算你有世界上最好的私人助理,他也不可能記住你說過的每一句話,不可能讀過你所有郵件和你寫過的每份文件,也不可能每天關注你所有工作,並記住所有細節。沒有任何人能以這種程度參與你的生活。但AI可以。我們內部經常討論,現在的Memory其實還很粗糙,很早期。大概相當於“GPT-2時代的記憶”。真正強的版本應該是,它能記住你生活中的每一個細節,並據此完成高度個性化。不僅記住事實,還能捕捉那些你自己都沒意識到的小偏好,AI會從互動裡學到這些。我認為這會非常強大,也是我最希望在2026年看到更大突破的方向之一。我們會和機器人建立真正的“關係”,這可能是被低估的一面。“關係”,“陪伴”可能也不完全貼切,但確實有很多人想和AI建立深度連,這超出了我之前的預期。即使有些人嘴上說不在乎,他們往往也會更喜歡“溫暖一點”的版本。主持人:所以你的想法是讓大眾自己來決定?Sam:對,但我們其實並不知道“應該走多遠”“應該允許到什麼程度”,會給人相當多的個人自由,不過也會設一些邊界。比如不會讓AI去勸使用者把它當作“排他性的戀愛對象”之類的。我確信別的服務會這麼做,因為它越有“黏性”,賺的錢越多。主持人:你曾說,GPT-5發佈後,在幾乎所有方面都比我們更聰明。那是不是AGI?如果不是,AGI這個詞是不是已經變得沒意義了?Sam:這些模型確實非常聰明。從原始智力角度看,最近也有很多說法, GPT-5.2 的 IQ 達到 147、144 或 150,總之是個很高的數字。很多專家說它能做非常驚人的事,在許多領域提高效率。我們也聊過它在知識工作上的表現。但你還沒看到一種關鍵能力,模型意識到“我不會”,然後自己去學習、去理解,等下次再回來把它做好,那種更像“幼兒學習”的能力。我覺得這是我們接下來需要建構的重要部分。AGI這個詞雖然我們很難停止使用,但它的定義非常模糊。有人認為已經達到了,有人認為還沒,隨後越來越多人認為達到了。我個人其實很希望我們能繞開這個詞,因為從來沒有一個讓我滿意的定義。一個我更願意討論的新詞是“超級智能”。超級智能的候選定義是,當一個系統能比任何人更好地勝任某些頂級複雜角色,比如當美國總統、大公司的CEO。主持人:我在Substack《Blood in the Machine》裡看到一句話:Chatbot來了以後,我的工作變成“管理機器人”,而不是管理一支人工客服團隊。這聽起來會很常,但他接著說:當機器人訓練得足夠好、能提供“足夠好”的支援之後,我就被裁了。這會不會越來越常見?Sam:我同意,短期內很多人會成為“管理一堆AI的管理者”。但就像任何一個好的管理者一樣,理想狀態是你的團隊越來越強,你自己會承擔更大的範圍與更多責任。我不是那種“短期就業末日論者”,但我確實擔心過渡期會在對一些行業的從業者來說非常艱難。未來的“工作”,或者說2050年我們每天在做的事情,肯定會和今天不一樣,但我也相信不會出現“所有人都無所事事、經濟徹底崩掉”的局面。我經常想,如果把 OpenAI內部的很多功能都自動化,甚至出現一個“AI 聯合 CEO”會怎樣?想像一下,世界上每個人都相當於坐在一家AI公司的董事會裡,告訴AI CEO該做什麼,如果它沒做好就把它“解僱”。這樣就有了治理(governance)與監督,而AI CEO的任務是執行董事會意志。對未來的人而言,這也許會被視為一種合理的組織方式。 (白鯨實驗室)