#AI公司
人均29歲的AI公司要IPO了!使用者超2億,米哈游阿里騰訊小紅書持股
最快上市AI公司誕生?智東西12月22日報導,12月21日,港交所官網顯示,中國AI大模型龍頭企業MiniMax(稀宇科技)發佈聆訊後資料集(PHIP)版本的招股書資料,正式衝刺港股“大模型第一股”,有望刷新紀錄,成為從成立到IPO歷時最短的AI公司。招股書顯示,MiniMax成立於2022年初,是一家全球化的通用人工智慧(AGI)公司,也是少數自創立起就專注於全模態模型研發的大模型公司之一,以及當前國際化收入最高的中國大模型公司。這是一支年輕的團隊,由385人組成,平均年齡29歲,人效比極高,基於自研大模型已打造出覆蓋C端與B端的AI原生產品矩陣,包括海螺AI、Talkie、星野等,並為企業使用者和開發者提供開放平台服務。截至2025年9月30日,MiniMax已有超過200個國家及地區的逾2.12億名個人使用者以及超過100個國家的13萬家企業客戶;公司自成立以來累計消耗約5億美元(約合人民幣35億元),約等於僅用了OpenAI開銷的不到1%。值得關注的是,其2025年前9個月營收同比增長超過170%,海外市場收入貢獻佔比超70%,展現了出色的全球市場開拓能力與收入結構的健康多元。MiniMax坐擁豪華股東陣容,獲得米哈游、阿里、騰訊、小紅書、高瓴、IDG、紅杉、經緯、明勢、雲啟等多家頂尖機構的投資和支援,也是目前成長最快、估值最高的AI科技公司。隨著全球AGI賽道從“百模大戰”進入整合期,具備全模態技術能力、已驗證全球化商業化路徑且組織高效的 MiniMax,其上市處理程序備受市場矚目。作為全球AGI賽道的稀缺標的,MiniMax有望成為具有全球競爭力的AI領軍企業。01. 收入逐年快速增長,前9個月虧損還不及大廠單季投流費用MiniMax的願景聚焦兩個重點:研發先進的大模型,打造AI原生產品,以提升社會整體生產力並豐富個人生活質量。該公司以MiniMax M2、Hailuo-02和Speech-02為核心的自研大模型組合,具備長上下文處理能力,可理解、生成並融合文字、視覺、音訊等多種模態。這些模型支援著其核心AI原生產品,包括MiniMax、海螺AI、MiniMax語音、Talkie/星野,以及面向企業和開發者的開放平台,為全球使用者提供極致的智能體驗。從招股書來看,在可持續的、多元化收入模式的支撐下,MiniMax的財務資料展現出資本利用率高、商業化效率高的特徵。2023年、2024年、2025年1-9月,MiniMax收入分別為346萬美元、3052萬美元、5344萬美元。▲2023年~2025年1-9月MiniMax收入變化(智東西製圖)同期,其經調整淨虧損分別為8907萬美元、2.44億美元、1.86億美元;研發費用分別為7000萬美元、1.89億美元、1.80億美元,主要包括模型訓練涉及的雲服務費用。▲2022年~2025年1-9月MiniMax經調整淨利潤、研發支出變化(智東西製圖)可以看到,其經調整淨虧損在2025年1-9月與去年同期相比近乎持平,實現了在高速增長下的虧損有效縮小。其今年前9個月虧損(1.86億元)還不及騰訊元寶單季度投流費用。註:AppGrowing資料顯示,2025年第一季度,MiniMax星野的投流規模為5400萬元,而Kimi、豆包等AI產品投流規模超過1億元,騰訊元寶更是高達10億級。這得益於多元化的收入模型與高效的費用投入。2025年前9個月,在收入同比增長超170%的同時,MiniMax的研發開支同比增幅為30%,銷售及行銷開支更是同比下降26%,印證了其產品依靠模型智能與使用者口碑驅動的增長邏輯,而非依賴巨額流量投入。截至2025年9月,MiniMax累計花費5億美元(約合人民幣35億元)。對比OpenAI 400億至550億美元(約合人民幣2816億至3873億元)累計花銷,MiniMax相當於僅僅用了不到1%的開銷,做出了全模態全球領先的公司。MiniMax預計截至2026年12月31日止年度,銷售成本及研發費用的絕對值將繼續增加,反映了該公司提升基礎AI模型能力的戰略重心。其現金儲備充足,截至今年9月30日超過11億美元,可支援超50個月營運。02. 可持續、多元化收入模式,全球化收入超70%MiniMax的收入增長,主要得益於AI原生產品和開放平台的快速擴展以及多樣化的變現策略。根據灼識諮詢,MiniMax的產品在生產力、音訊生成、文字、視覺、音訊等大模型應用領域均有知名產品。其AI原生產品使用者數不斷增長,累計使用者數截至2025年9月30日增至2.12億以上,平均MAU從2023年的314萬增長超6倍至2024年的1911萬,並進一步增至2025年1-9月的2764萬。2023年、2024年、2025年1-9月,其AI原生產品的付費使用者數分別為11.97萬名、65.03萬名、177.16萬名;開放平台上的付費使用者數分別為100家、700家、2500家。MiniMax的AI原生產品通過向個人使用者提供訂閱服務創收,在2024年及2025年1-9月為公司貢獻了超過71%的收入。其按產品及進一步按變現方式劃分的收入明細如下:從收入地域分佈來看,2025年1-9月,其來自海外收入已超過70%。2025年1-9月,MiniMax整體毛利率為23.3%,B端毛利率為69.4%,C端毛利率為4.7%。除星野外,該公司整體毛利率近50%。03. 平均年齡29歲,AI原生組織效率高持續高強度研發投入、快速迭代全模態模型的背後,離不開MiniMax高效組織效率。截至2025年9月底,MiniMax員工共385人,平均年齡29歲(95後),研發人員佔比近74%,海外歸國人才佔比超30%。其核心研發團隊由來自微軟、Google、Meta、阿里巴巴、字節跳動、DeepSeek等全球AI領先企業的技術人員組成。MiniMax創始人、董事長、執行董事、CEO兼CTO閆俊傑博士便是核心研發成員之一,擁有逾十年的研究與開發經驗,為MiniMax奠定基礎,且數年來對制定MiniMax研發及營運的長期戰略至關重要,尤其是在應用及發展MoE及Linear Attetion等對於整個行業極為重要的技術創新方面。閆俊傑今年36歲,本科畢業於東南大學,博士畢業於中科院自動化所,曾在清華大學從事博士後研究,並曾在AI公司商湯集團擔任副總裁及研究院副院長等職務,在頂級會議及期刊上發表了約200篇學術文章,引用次數超過30000次,獲得了多項獎項及榮譽。執行董事、大語言模型研究及工程負責人趙鵬宇自2023年8月起加入MiniMax,今年29歲。他本碩均畢業於北京大學,在演算法相關研發方面擁有豐富的經驗,並行表了多篇涵蓋神經網路、強化學習等領域的論文。執行董事兼視覺模型研究及工程負責人周彧聰自2022年3月起加入MiniMax,今年32歲。他本碩畢業於北京航空航天大學,在電腦視覺、自動化機器學習及AI訓練系統設計方面擁有豐富的研發經驗,亦在神經網路及深度學習領域撰寫過論文。整個MiniMax董事會也均由青年才幹組成,平均年齡僅32歲(90後)。這支極致年輕的AI原生組織以扁平化的管理架構,不到4年實現了文字、視訊、語音全模態模型領先,以及全球化產品的研發與營運,人效居於行業前列。此前,MiniMax創始人閆俊傑與羅永浩的訪談廣泛刷屏,透露出這家大模型公司的戰略定力。閆俊傑彼時談道,MiniMax整個團隊比較純粹、踏實,大家是真心熱愛,國內不是沒有Ilya那樣的人才,有很多有潛力的人。他認為,對於優秀的人來說,首先錢肯定要到位,其次在組織中要能發揮重要作用、為自己做的事情感到驕傲,AI原生公司的人才結構應該是把幾種不同畫像的優秀人才基於一些底層的原則聚集在一起來工作。閆俊傑制定了三個原則:直接服務使用者、做國際化、技術驅動。MiniMax一直在最佳化兩個目標:堅持技術領先性、通過技術領先性帶來收入的跳變。他透露說,MiniMax已經多次實現,而且每實現一次,規模和數量級就能大很多。在他看來,AI行業不是網際網路的延續,大模型時代真正的產品是模型本身,本質上是提供智能。他相信AI時代最核心的競爭力是想像力,誰有最好的想像力,誰能最堅持它,誰對社會價值大,那就應該是這樣的人出來。截至最後實際可行日期,MiniMax在中國國家智慧財產權局註冊了74項專利,在中國註冊了146項商標,在中國國家版權局註冊了72項著作權,擁有28個在中國註冊備案的域名,並在國際範圍內註冊了87項商標。閆俊傑、Local Linearity Inc.、MiniMax Awakening、MiniMax Limited、Alpha EXP、Scaling EXP Limited及MiniMaxMatrix將共同構成MiniMax的控股股東集團。04. 全球唯四,全模態國際第一梯隊團隊的高戰鬥力,直觀反映在研發成績上。根據灼識諮詢,按2024年基於模型的收入計,MiniMax是全球第四大pureplay大模型技術公司。MiniMax專注全模態模型自研,技術迭代密集,模型進展每年上一個台階,實現持續突破,是“全球唯四全模態進入第一梯隊”的大模型公司。語音生成模型方面,MiniMax在2023年推出國內首個基於Transformer架構的語音大模型Speech 01,隨後在2024年將綜合性能提升至全球第一的Speech 02,累計已生成超過2.2億小時的語音。視訊生成模型方面,其2024年8月發佈的Video-01模型及海螺AI產品已達到當時業界頂尖水平;2025年6月推出的升級版Hailuo-02,在權威的Artificial Analysis視訊評測中位列全球第二,累計生成視訊超5.9億個。大語言模型方面,2025年10月,該公司發佈並開源新一代文字大模型MiniMax M2,發佈即在Artificial Analysis位列全球前五、開源第一,也是中國開源大模型首次在該榜單中躋身全球前五。M2在全球模型聚合平台OpenRouter上迅速爬升到國內模型token用量第一,程式設計場景排名全球token用量第三。該公司在早期階段便採用了混合專家(MoE)架構及混合注意力機制,在保持全球領先性能的同時,亦能夠大幅降低計算資源消耗。通過高效研發,其訓練成本佔比大幅下降。招股書顯示,訓練相關的雲端運算服務開支佔收入比已從2023年的超過1300%最佳化至2025年1-9月的266.5%。05. 結語:4年躋身全球AI第一梯隊,多元化收入跑通商業化路徑大模型市場正以前所未有的速度發展,並迅速重塑人類社會。全球大模型市場規模預計2030年將超過3000億美元。IDC預計,到2030年人工智慧將累計為全球經濟貢獻19.9兆美元,並推動2030年全球GDP增長3.5%。而MiniMax,這家兼具年輕、高效、多模態等特色的AI公司,從成立到上市僅用四年便躋身全球AI第一梯隊,管理層與員工平均年齡刷新了資本市場的紀錄,以多元化收入模型跑通可持續商業化路徑,成為全球AI產業從“技術競賽”向“商業化與全球化並進”轉型的重要風向標。 (智東西)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
貝佐斯卸任3年後重出江湖,進軍「實體AI」
貝佐斯聯手Google大神共同執掌新公司「普羅米修斯計畫」。根據《紐約時報》引述多位知情人士消息,亞馬遜創辦人貝佐斯(JeffBezos)將再次親自投入業務運營,以聯合CEO身份加入一家名為普羅米修斯計劃( Project Prometheus)的新AI新創公司。這家公司已籌集62億美元資金,貝佐斯同時也是該計畫的部分投資者。聯手Google前高階主管貝佐斯將與維克·巴賈傑(VikBajaj )共同擔任聯合CEO。巴賈傑曾主導並共同創立Google的生命科學部門,也參與創辦了Alphabet旗下生技公司Verily,以及投資機構Foresite Capital旗下專注AI的關聯機構Foresite Labs。報導指出,他已於近期離開Foresite Labs,全力投入普羅米修斯計畫。這將是貝佐斯自2021年卸任亞馬遜管理職缺後,首次重返第一線營運。聚焦“實體經濟AI”根據其LinkedIn頁面訊息,普羅米修斯計劃定位為開發「服務於實體經濟的人工智慧」。其研發路線與Periodic Labs類似,透過模擬物理世界來訓練AI模型,以加速科學研究進程。公司計劃為電腦、航空航太、汽車等多個工程與製造領域打造AI產品。目前,普羅米修斯計劃已組成近百人的團隊,成員包括來自Meta、OpenAI、GoogleDeepMind等頂尖AI企業的研究人員。截至目前,亞馬遜和巴賈傑均尚未對此消息作出回應。 (創新觀察局)
61歲世界首富成立AI公司融資62億美元!
現年61歲的亞馬遜創辦人、億萬富翁傑夫·貝佐斯(Jeff Bezos)傳出新消息。他將成立一家人工智慧新創公司,將AI應用於物理世界任務。報導表示,公司剛成立就獲得62億美元融資,部分資金來自貝佐斯本人。根據《紐約時報》報導,這家計畫名為「普羅米修斯」(Prometheus)的AI公司,業務方向與貝佐斯將人類送往太空的願景高度契合,專注於將人工智慧應用於電腦、汽車和太空船的工程與製造領域。目前該公司的總部所在地尚未公佈。「普羅米修斯計畫」已經僱用近100名員工,其中包括從OpenAI、DeepMind和Meta等頂級人工智慧公司挖來的研究人員。「普羅米修斯計畫」進入的是日益擁擠的人工智慧市場,將在Google、Meta、微軟等科技巨頭以及OpenAI、Anthropic等明星AI企業的競爭中開闢細分賽道,將AI應用於實體世界任務。和建構聊天機器人的人工智慧模型不同,新公司研發能從物理世界學習的系統。例如由今年離開Meta、OpenAI、DeepMind等公司的研究人員創辦、獲得3億美元資金支援的Periodic Labs就在開發人工智慧技術,加速物理和化學等領域的發現。 Periodic Labs計畫在加州建立實驗室,讓機器人進行大規模科學實驗,透過分析實體試誤過程,人工智慧系統可望自主進行實驗。知情人士表示,「普羅米修斯計畫」也將探討類似的研究方向。值得一提的是,當電動車分析師索耶·梅瑞特在社交平台上分享這一消息時,貝索斯的老對手、特斯拉和SpaceX首席執行官埃隆・馬斯克評論稱:“哈哈,不可能。Copy cat(跟屁蟲)。”(路邊消息社)
24歲,她融資4億
00後登場。創投圈的00後面孔越來越多了。投資界獲悉,Axiom Math正式完成首輪6400萬美元(約合人民幣4.6億元)融資,由B Capital領投,Greycroft、Madrona和Menlo Ventures等機構參與,投後估值3億美元(約合人民幣20億元)。締造Axiom的正是00後洪樂潼(Carina Hong)——在廣州出生長大,她曾就讀於著名的華南師大附中,多次拿下奧數競賽獎牌。後考入麻省理工學院,碩士畢業於牛津大學,又來到史丹佛大學攻讀博士學位。頗為戲劇性的是,Axiom的誕生來自於一次咖啡館的交流。(圖片來源:麻省理工學院)悄然間,00後創始人正在大舉登上AI舞台。10個人,完成首輪融資估值20億Axiom是誰?官網顯示,這家嶄露頭角的AI公司,定位為“以AI數學家為起點,打造一個能夠自我提升的超級智能推理系統”。換言之,這是一個可以解決複雜數學問題的模型,可以生成為獲得答案改採取的不同步驟的詳細推理,同時進行驗證。具體而言,Axiom的想法是將教科書、論文和期刊中的英文數學內容轉換為程序化知識,以便人工智慧可以解決數學問題,並能通過驗證來檢驗解答。未來,這一模型的研究場景有望拓展到金融建模、晶片架構甚至是量化交易等領域。在創始人洪樂潼的設想中,該模型或許能提出新的數學猜想,由此產生全新的知識。為何瞄準AI數學賽道?當中有一段插曲。今年ChatGPT o3曾被爆出數學測試作弊,洪樂潼在社交媒體指出,OpenAI的大模型之所以在數學測試中表現良好,可能是因為該公司在訓練模型時已接觸過這些題目。她舉例稱,美國數學邀請賽考試中,部分大語言模型可以達到96%的精準率,但當要求展示證明過程時,分數驟降至5%。“為什麼會有這樣的差異?因為訓練方式有問題。”當前AI大模型無法完美解決的組合數學問題,恰恰是洪樂潼的研究專長。在Axiom看來,人工智慧帶來了一個歷史性的轉折點,即數學領域的發現能夠以指數級的速度迅猛發展,因此現在正站在一場數學復興的門檻之上。而這場復興建又立在三大支柱之上:人工智慧、程式語言以及數學。三者共同推動著一系列發現的出現,每一次突破都會為下一次創新提供強大的動力。如今首輪融資正式出爐,Axiom的核心團隊也首次亮相——儘管目前僅有10名全職員工,但當中不乏多位來自Meta的AI大牛。例如現任CTO Shubho Sengupta,曾領導Meta FAIR團隊,開發出OpenGo和CrypTen,此前他還參與過Google分佈式訓練系統的研究工作,同時也是最早開發CUDA技術的專家之一;François Charton,則在Meta負責過大語言模型在數學和理論物理學的研究,他在2019年就開始探索如何將Transformer技術應用於複雜的數學問題;Hugh Leather,也是Meta前人工智慧研究科學家,曾開發出首批用於編譯器和GPU程式碼生成的大語言模型。作為此次領投方,B Capital合夥人在官網中表示,解決複雜的數學問題是許多人類發明的核心,因此一種能夠提出新的定量假設並進行驗證的工具,從而為決策提供可靠的依據,無疑會具有極高的價值。而Axiom團隊也具備獨特的優勢,能夠抓住這一機遇,將先進的數學推理技術變為現實。“Carina Hong是一位傑出的數學家,她不僅擁有非凡的學術成就,更具備最優秀的創業者所具備的那種熱情與專注力,她將遠見卓識的領導力與堅定不移的執行力完美地結合在了一起。”她的征程才剛剛開始。一位00後女學霸帶隊來自廣州Axiom的故事,離不開一路開掛的洪樂潼。出生於廣州,今年24歲,她的父母是土生土長的潮汕人。儘管父母並沒有接受過高等教育,洪樂潼卻自幼展現出不凡的數學天賦,她中學就讀於廣東名校華南師範附中。高中時期,洪樂潼是數學奧林匹克省隊的唯一四名女生之一,多次在“華羅庚金盃”、全國高中數學聯賽等競賽中取得好名次。2019年,她考入麻省理工學院,攻讀數學和物理雙學位。本科期間,洪樂潼曾擔任數學協會主席,並修讀20個碩博課程,發表多篇高品質學術論文,涉及模橢圓曲線與K3曲面的L函數、月光猜想、彈出棧排序演算法研究等領域。畢業前後,洪樂潼先是拿下Schafer數學卓越獎,該獎每年僅頒發給一名本科女生;後獲得北美數學本科生的最高榮譽——摩根獎,她是第五位獲此殊榮的女生。2022年底,洪樂潼成功拿到牛津大學羅德獎學金,成為僅有的四名中國獲獎者之一。羅德獎學金是世界上歷史最悠久、最負盛名的國際獎學金項目之一,有“本科諾貝爾獎”的美譽。隨後,洪樂潼前往英國牛津大學學習神經科學,獲得碩士學位。期間還在倫敦大學學院進行人工智慧和機器學習研究,當時她曾表示,“人工智慧與科學家未來的互動會怎樣?是我接下來希望研究的課題。”到了2024年8月,洪樂潼進入史丹佛大學攻讀數學博士和法學博士。“一直以來,我都是一名研究者。”此前一次採訪中她稱,內心深處最想要解決真正困難的技術問題。很快,還在博士就讀的她闖入了AI界。她創辦Axiom源於一次在咖啡館的交流。去年秋天的一個周末,洪樂潼在史丹佛附近的一家咖啡館,與當時還在Meta工作的Shubho Sengupta進行了交流。兩人聊了幾個小時,討論了各自研究領域的交叉點,以及開發人工智慧解決世界上最棘手的數學問題的可能性。這次交流後不久,洪樂潼便從史丹佛退學,著手創辦Axiom。有意思的是,Axiom的會議室都是以數學巨匠來命名,例如高斯和阿達·洛夫萊斯。就在年初DeepSeek火爆全球之際,洪樂潼曾發出這樣的感慨:“一個小而專注、特立獨行的團隊。一群理想主義者組成的優秀合作夥伴。他們執行力強,親力親為。最珍貴的,是那份理想與使命交織的信念。這就是DeepSeek的故事,也是我想親自書寫的故事。”正如Axiom在官網中所言,“數學發現的未來,就從這裡開始。”投身AI00後正集體登場放眼望去,00後創始人正集體登上AI舞台。不久前,兩位來自麻省理工的00後——22歲的華裔女生Jessica Wu和23歲的尼爾·德什穆克,所創立的Sola Solutions拿下矽谷知名風投的融資。官網顯示,融資包括由Conviction領投的350萬美元種子輪,以及由a16z領投、Conviction跟投的1750萬美元A輪,總計2100萬美元(約合人民幣1.5億元)。這樣的案例正在湧現。今年5月,AI初創公司Anysphere完成一輪9億美元融資(約合人民幣65億元),估值達90億美元,成為今年最火AI程式設計獨角獸之一。而掌舵公司的是四位年輕面孔——2022年,從麻省理工學院畢業的Michael Truell和他三位同學一拍即合,瞄準AI程式設計賽道下場創業,旗下產品Cursor一舉改變程式設計方式,迅速席捲矽谷AI圈。無獨有偶,今年3月AI招聘網站Mercor宣佈完成1億美元B輪融資,估值達到20億美元,成長速度令人咋舌。公司創始人是三位退學的00後。大二那年,三人在宿舍裡創立Mercor,後來決定從哈佛及喬治敦大學退學全職創業。我們將視野拉回到國內,相似一幕同樣上演。今年初,三個來自清華的“00後極客”——閔宇恆、程頤、李宜哲創業做機器人,零次方誕生。如今公司一舉完成天使+和天使++輪億元級融資,集結河創投、同創偉業、力合科創、水木基金、瑞穗力合、拉爾夫創投等知名機構。還有此前完成天使輪融資的靈初智能,由高瓴創投和藍馳創投領投,公司聯合創始人陳源培是一名痴迷機器人的00後,曾作為Stanford訪問學者師從Karen Liu和李飛飛教授;具身智能公司UniX AI創始人兼CEO楊豐瑜,出生於2000年,本科就讀於密歇根大學電腦專業,從耶魯大學博士畢業後回國創業,同樣受到不少VC的關注。一支00後軍團悄然崛起。曾有投資人分析,這一波AI創業潮中,00後和90後、80後的創始人起點都一樣,甚至前者優勢更大。因為很多事物太新了,原有經驗無法直接復用,而00後沒有包袱,對新事物的認知觸感更多。“我們始終堅信,創業在很多時候是屬於年輕人的。”真格基金管理合夥人戴雨森最近感嘆,“無知者無畏。諸多科技創新成果誕生,正是源於當事人雖瞭解卻無所畏懼,由此萌生出創新想法。”“少年負壯氣,奮烈自有時。”每一代年輕的創業者,註定在歷史長河裡留下屬於自己的印記。 (投資界)
陳天橋創立的AI公司MiroMind打造出全球頂尖預測型大模型
陳天橋對新AI公司MiroMind寄予厚望,還承諾,盛大內部孵化的所有AI企業的一半利潤將分給團隊。發佈僅一個多月,全球創新企業家、慈善家陳天橋打造的MiroMind成為全球頂尖預測大模型。9月21日消息,在全球首個動態即時LLM智能體未來預測基準FutureX當中,陳天橋旗下團隊打造的大模型MiroMind連續第二周蟬聯冠軍,搭載GPT-5的MiroFlow智能體框架在9月第1周和第 2 周連續奪得榜首,同時搭載自研模型MiroThinker的MiroFlow均位列前五,力壓眾多國際頂尖機構和閉源商業模型。與專注文字輸出的生成式模型不同,MiroMind採用記憶驅動機制,專為預測與決策設計,打造全球最好的預測大模型。Future X是字節跳動 SEED 團隊聯合史丹佛大學、復旦大學、普林斯頓大學共同推出的全球首個動態即時LLM(大語言模型)智能體未來預測基準。該基準從全球200多個高品質網站精選只有下周才會有明確結果的問題,讓AI直面未來的事件和發展趨勢,如科技公司的戰略走向等。馬斯克曾表示:預測未來的能力是衡量智能的最佳標準。讓AI具備像人類一樣在不確定環境下的決策能力,這正是通向AGI的重要一步。因此,MiroMind登上Future X基準測試冠軍的意義非凡。據瞭解,在測試中,MiroMind成功預測了2025年9月 9 日ATP男子單打排名第4-6位的選手,其難點在於網球排名系統極為複雜,涉及積分計算、比賽結果、時間窗口等多個變數。對此,陳天橋表示:“我們正在全力長期投入正在長期投入,打造一個全球最好的預測大模型,讓AI記住過去,洞察未來。我們持續歡迎全球志同道合的AI優秀人才加入,共同創造未來。”公開資訊顯示,MiroMind是由創新企業家、慈善家、天橋腦科學研究院創始人陳天橋,以及國內 AI 領域科學家、清華大學電子工程系副教授代季峰,聯手籌備的一家致力於打造通用人工智慧(AGI)新公司,目標是打造下一個OpenAI,將圍繞AGI展開基礎性研究,首個項目就是MiroMind Open Deep Research。代季峰曾在2009年和2014年於清華大學自動化系分別獲得工學學士和博士學位;2014年-2019年在微軟亞洲研究院視覺組工作,擔任首席研究員、研究經理;2019年至2022年在商湯科技研究院工作,擔任執行研究總監。2022年7月起,代季峰全職加入清華大學,擔任清華大學電子工程系副教授、博士生導師、碩士生導師。他的研究方向包括視覺資訊理解基礎模型與核心演算法等。有報導稱,陳天橋對代季峰領銜的這家新 AI 創業公司寄予厚望,還承諾,盛大內部孵化的所有AI企業的一半利潤將分給團隊。今年8月初,MiroMind團隊迎來“首秀”,公佈了一個高性能、完全開源、開放協作的深度研究項目MiroMind Open Deep Research(Miro ODR),其V0.1版本的GAIA測試達82.4分,性能超越OpenAI的DeepResearch、Manus等一眾開源和閉源AI深度研究模型,成為開源最強Deep Research模型之一。“經過一個季度的努力,MiroMind正式亮相併發佈我們重磅開放原始碼專案。Miro ODR完全開源且可復現,核心模型、資料、訓練流程、AI Infra、DR Agent框架統統開源,復現無壓力。”代季峰透露,團隊將以每月一次開源更新的速度,同社區一起創作最強深度研究模型。具體來說,根據MiroMind技術報告,與現有的深度研究方法相比,MiroMind ODR項目開放了深度研究的各個階段,主要包括MiroFlow、MiroThinker、MiroVerse和MiroTrain四個子項目,而且可以在手機端上運行。其中,MiroFlow框架在GAIA-Validation上取得82.4%的優異成績,並在多個基準測試中領先眾多國際對手,更值得關注的是,MiroFlow提供了完全開源、可復現的框架和配置,致力於建設一個創新者平台;同時,MiroMind團隊推出的自研旗艦基礎智能體模型MiroThinker,不僅具備強大的推理、決策和多模態理解能力,還能在多Agent協作中發揮核心作用,在各類榜單中已成為開源模型的引領者,並不斷縮小與閉源商業模型的差距。據悉,MiroThinker 很快將以完全開放原始碼的形式向全球開發者和研究者開放,提供可復現的模型和實驗環境。如今,MiroMind登頂全球評測基準FutureX榜單。MiroMind 的登頂並非偶然,而是基於其在 AI 預測未來方面的資訊洞察力、邏輯推理與趨勢感知、機率與不確定性管理、跨領域整合能力等核心能力,且其在具體預測場景中展現出了系統性的策略與實力。在預測男子網球排名時,模型採取六步策略,先制定詳細預測計畫,再通過網路檢索獲取9月1日的男子網球TOP 10排名資料以建立預測基準線,隨後深入研究比賽排名與積分對應關係並對比2024年與2025年的dropping規則以確保計算一致性,接著搜尋9月1日之後的比賽成績並分類處理(對已有結果的比賽更新排名,對未結束的比賽識別影響),最後通過多情景分析(針對未出結果的比賽分析 6 種可能情況)、引入機率資料作為外部驗證基準得出最可能排名結果;在預測2025年9月11日數字加密貨幣Solana將突破的關鍵價格檔位時,模型同樣制定了六步策略,通過交叉驗證確定最優預測選項,這體現了其在處理價格波動類問題上的系統建模能力與風險控制水平。代季峰曾透露Miro ODR項目的終極目的:在MiroMind,“我們不提供AI,但我們與您共同建構AI。”此外,陳天橋日前罕見地公開發聲,呼籲中國科創投資人:“不要把腦機介面只當作賺錢的風口。”此前在鈦媒體文章《腦機革命:馬斯克向左,陳天橋向右》中,陳天橋曾表示,科學家們利用AI、深層資料、機器學習演算法等技術手段,在不損傷患者大腦的情況下,可以達到與侵入式一樣的效果和反饋,甚至要超越後者。“我們不僅是投資者,更是這場科技革命的參與者和推動者。”在陳天橋看來,硬科技創新無法用網際網路行業的短周期、快回報模式來衡量。“如果仍然用網際網路投資那套做法,需要對賭、需要馬上拿證、需要立刻產生收入、需要馬上上市,這種投資對於真正的科創企業會是一個雙輸的結果。”從盛大,到天橋腦科學研究院,再到All in AI,陳天橋四分之一個世紀以來持續探索人類未來科技的邊界。目,MiroMind正在探索將長期記憶模組深度嵌入模型,在複雜、多變的環境中做出更精準可靠的預測,實現預測,實現預測,實現預測,實現預測,實現真正的時間維度智能。陳天橋認為,科創領域亟需“有長遠眼光的耐心資本”,為企業提供長期、穩定的支援,幫助其從基礎研究到產業化落地,穿越技術驗證和市場培育的漫長周期。“我們願意做有耐心的資本。”陳天橋表示。 (鈦媒體)
Anthropic CEO :AI 或致千萬白領失業,呼籲對AI公司徵稅
Anthropic的CEO達里奧·阿莫代 (Dario Amodei) 最近公開發聲,直接拉響了警報:人工智慧的飛速發展,可能正把我們推向一場嚴重的就業危機!劃重點,核心觀點先給你拎出來:AI進化神速: 兩年前還是個聰明高中生水平,現在已經是頂尖大學生,未來更是不可估量白領飯碗: 金融、諮詢、科技等行業的入門級白領工作,如文件總結、頭腦風暴、財務報告等,首當其衝危機時間線: 未來1到5年內,就可能看到AI對就業市場的巨大衝擊失業率飆升? 阿莫代擔心失業率可能攀升至10%-20%(當然,他也承認未來難以精確預測)AI“雙刃劍”:潛力無限,風險並存達里奧·阿莫代,打了個比方:兩年前的AI,能力大概相當於一個聰明的“高中生”;而現在,它已經進化到了“頂尖大學生”的水平,並且還在飛速超越。他認為AI潛力巨大,尤其是在他曾從事的生物學領域,AI有望攻克癌症、阿爾茨海默症等頑疾,還能幫助我們獲得更廉價的能源。這些都是妥妥的正面BUFF然而,凡事都有兩面性。正是AI這些強大的技能——比如快速總結文件、輔助頭腦風暴、撰寫財務報告等——讓他夜不能寐。他直言不諱地指出,金融、諮詢、科技行業以及許多類似領域的入門級白領工作,正面臨嚴峻考驗“我擔心這些崗位首先會被AI增強,但很快就會被AI系統取代。”阿莫代表示,“我們可能真的會面臨一場嚴重的就業危機,因為這些早期白領工作的輸送管道正在收縮甚至枯竭。”狼真的要來了?1-5年內見分曉當被問及這場“就業災難”可能何時降臨時,阿莫代給出了一個令人心驚的時間表:“雖然很難預測,但考慮到AI的進步速度,如果我們在1到5年內開始看到巨大影響,我一點也不會感到驚訝。”他還透露,其實很多AI公司的CEO以及其他行業的CEO私下裡都在討論這個問題,但這個資訊似乎並沒有有效地傳遞給普通民眾和立法者。這正是他選擇公開發聲的原因:“我感覺我必須站出來,把這件事說清楚。”AI發展無法剎車,但可以“掌舵”有人可能會問,既然風險這麼大,那我們能不能暫停AI研發呢?阿莫代對此表示,這不現實。“僅在美國,就有六七家公司在從事AI研發,我只是其中一家的負責人。就算我們公司今天停下來,其他公司也會繼續。就算美國所有公司都停了,中國也會趕超我們所以,關鍵不是停下,而是如何“掌舵”。他呼籲議員、立法者和公眾現在就開始認真思考這個問題。如何應對?測量、引導、甚至……徵稅?面對這場潛在的危機,阿莫代和Anthropic公司提出了一些初步的應對思路:首先是“測量”影響: Anthropic推出了一個名為“經濟指數”的工具,試圖追蹤AI對經濟和就業影響的速度和程度引導AI向“增強而非取代”發展: 儘可能地將AI系統設計為輔助人類工作,而不是完全取代人類。但他坦承,這可能只是一個短期方案教育和適應: 幫助勞動者學習如何使用AI,提升適應能力,這非常重要政府出手干預: 這是最核心的部分。阿莫代認為政府需要思考如何行動。他甚至提出了一個頗具爭議性的建議:“找到一種方法來平衡經濟競爭環境,比如……對自己的AI公司徵稅。” (AI寒武紀)
沙烏地阿拉伯Humain,是怎樣一個AI公司,輝達、AMD都搶著合作?
【科技明說 | 全球AI觀察】據可靠消息顯示,輝達、AMD都要搶著與豪橫的沙烏地阿拉伯Humain合作。消息不假,如下:AMD與沙烏地阿拉伯人工智慧公司Humain達成100億美元的戰略合作,以推進全球人工智慧。根據協議,雙方將投資高達100億美元,在未來5年內部署500兆瓦的人工智慧算力。輝達(Nvidia)將與沙烏地阿拉伯主權財富基金旗下的人工智慧初創公司Humain展開合作,向沙烏地阿拉伯供應18000塊尖端AI晶片。那麼,沙烏地阿拉伯Humain到底是怎樣一個公司?我們慢慢細聊……據公開資訊顯示,沙烏地阿拉伯Humain是由沙烏地阿拉伯主權財富基金PIF(公共投資基金)全資控股的人工智慧公司,成立於2025年5月12日,是沙烏地阿拉伯實現經濟多元化轉型和2030願景的核心平台公司。有錢有想法就是不簡單,沙烏地阿拉伯Humain的定位非同凡響。發展目標聚焦整合全球AI技術資源、建構本土化AI生態的跨國科技企業,旨在推動沙烏地阿拉伯成為全球AI領域的領導者。當然,這離不開沙烏地阿拉伯國家戰略支撐的強大。事實上,沙烏地阿拉伯Humain的成立,就是是沙烏地阿拉伯2030願景及超越計畫投資1000億美元的關鍵舉措,目標是通過年均300億美元的AI投入,減少對石油經濟的依賴,並將沙烏地阿拉伯打造為全球前15大AI中心之一。目標聚焦,未來可期。不僅投錢巨資,而且沙烏地阿拉伯王儲穆罕默德·本·薩勒曼親自擔任沙烏地阿拉伯Humain董事會主席,國家戰略地位足以顯赫一世。謀定AI大戰略,沒有錯,也並不離譜。沙烏地阿拉伯Humain的拓展路徑,覆蓋AI全價值鏈,包括資料中心建設、AI模型開發、算力網路部署及行業解決方案輸出,同時推動阿拉伯語大語言模型(LLM)的研發,打破英語模型的壟斷。可謂,我為AI,AI為我。AI未來已來,AI堪比石油的戰略佈局。那麼,我們具體看看沙烏地阿拉伯Humain的核心業務與技術佈局都有啥特色。在AI基礎設施上,如前文提到的兩條重要消息,輝達與AMD熱衷於沙烏地阿拉伯Humain的發展。本來就是生意,有錢有想法就是生意,有生意怎能拒之門外?沙烏地阿拉伯Humain與輝達、AMD等晶片巨頭簽訂超百億美元合同,計畫在沙烏地阿拉伯建設500兆瓦的AI資料中心,部署數萬個高性能GPU,如輝達GB300超級電腦,支援大規模AI模型訓練及主權AI開發。在本土化AI模型上,沙烏地阿拉伯Humain倡導開發全球領先的多模態阿拉伯語大語言模型ALLaM,覆蓋伊斯蘭文化典籍和石油工業知識庫,預計2026年推出千億參數版本,服務於區域語言和文化需求。在全端服務能力上,沙烏地阿拉伯Humain提供從資料中心、雲平台,如與AWS合作投資50億美元建設人工智慧特區。再到行業解決方案的端到端服務,重點領域包括能源、醫療、金融和製造業。有錢有想法,可謂面面俱到。因此,在國際合作與生態系統建構上,沙烏地阿拉伯Humain積極作為。不僅與輝達合作建構500兆瓦AI工廠,與AMD聯合部署跨大西洋AI走廊項目(12個超算中心節點),並與高通開發資料中心CPU,形成覆蓋全球的算力網路。而且也沒有強調製造本地化,通過PIF旗下另一公司Alat與聯想合作,在沙烏地阿拉伯建設伺服器和PC生產基地,年產數百萬台裝置,直接服務於沙烏地阿拉伯Humain的資料中心需求,形成“技術研發-製造落地”閉環。同時一點不忽視雲服務整合的價值。與AWS合作引入SageMaker、Bedrock等AI服務,加速生成式AI應用落地,並共同開發阿拉伯語模型和統一AI代理市場。這一切的AI大戰略離不開本地化合規,即遵從資料本地化政策。沙烏地阿拉伯法律要求資料本地儲存,吸引亞馬遜、Google等跨國企業投資資料中心,沙烏地阿拉伯Humain借此整合資源建構區域算力樞紐。最後我想說的是沙烏地阿拉伯Humain不差錢。但錢多多不是隨意隨緣,而是依託PIF管理的9400億美元資產,計畫到2030年開發1.9吉瓦的AI資料中心容量,相當於AWS全球可用區的1.5倍,並利用沙烏地阿拉伯全球最低的可再生能源成本(約0.015美元/千瓦時)打造零碳算力網路。以人為本,沙烏地阿拉伯Humain也如此睿智。人才培養計畫也正在推進中,聯合AWS等企業為10萬名沙烏地阿拉伯公民提供AI培訓,包括生成式AI認證課程,提升本地技術人才儲備。我覺得,沙烏地阿拉伯Humain戰略意義非凡,這不僅是沙烏地阿拉伯經濟轉型的抓手,更試圖通過資本✖️技術✖️製造的垂直整合,重塑全球AI產業鏈格局,推動社會效率不斷提升 成為中東科技影響力的標竿。就此而言,你看好沙烏地阿拉伯Humain這一步棋麼?即:以國家資本為後盾,通過大規模基礎設施投資、國際合作與本土化創新,試圖在AI領域實現從石油王國邁向算力王國的轉型。沙烏地阿拉伯Humain的成敗,你認為取決於技術落地的效率、國際合作的持續性,以及對全球AI產業鏈重構的能力嗎? (科技明說)