#AI初創
晶片初創公司,單挑輝達和博通
日前,一家名為Upscale AI的晶片初創公司宣佈。已完成 2 億美元的 A 輪融資,旨在挑戰輝達在機架級 AI 系統交換機領域的統治地位,與思科、博通和 AMD 等公司展開競爭。據該公司在新聞中介紹,本輪融資由Tiger Global、Premji Invest和Xora Innovation領投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures參投。此次融資使Upscale AI的總融資額超過3億美元。他們進一步指出,投資者的迅速湧入反映了行業日益增長的共識:網路是人工智慧擴展的關鍵瓶頸,而旨在連接通用計算和儲存的傳統網路架構從根本上來說並不適用於人工智慧時代。在他們看來,關鍵的區別在於:傳統網路連線的是終端節點,而人工智慧網路則統一整個叢集。隨著專用人工智慧計算的不斷擴展,它越來越受到改造或專有網路架構的限制。傳統的資料中心網路解決方案是為人工智慧出現之前的世界而設計的,而不是為機架級規模所需的大規模、高度同步的擴展而設計的。一個旨在撼動輝達護城河的團隊大家都知道輝達的GPU,但正如我們再很多報導中所說,這家巨頭在網路方面也表現很不錯。受人工智慧資料中心連接需求強勁的推動,輝達2026財年第三季度的網路業務收入同比增長162%,達到81.9億美元,這已經遠超他們當年收購Mellanox所耗費的資金。NVlink也成為了輝達當之無愧的護城河。考慮到當前單晶片性能擴展乏力,Scale Up和Scale Out的連接需求在未來很長一段時間必將成為主流。換而言之,如果能夠製造出高基數(即連接埠數量眾多)且連接埠間總頻寬高,足以與輝達NVSwitch記憶體架構和NVLink連接埠相媲美的UALink交換機的公司,必將大賺一筆。Upscale AI,就是一家抱著這個理想而成立的公司。而該公司的創始人Rajiv Khemani,則是行業中讓人如雷貫耳的連續晶片創業專家。據介紹,Rajiv Khemani曾擔任Sun Microsystems公司的高級產品經理,負責Sparc伺服器和Solaris作業系統。他還曾在NetApp和英特爾公司任職,負責多個業務部門的戰略和市場行銷。2003年,他出任晶片初創公司Cavium Networks的首席營運官。該公司成立於2000年,最初以生產MIPS處理器起家,但後來憑藉2014年推出的ThunderX伺服器CPU進軍Arm伺服器市場,並因此聲名鵲起。同年,Cavium收購了新興可程式設計交換機ASIC製造商XPliant。2016年6月,Cavium斥資13.6億美元收購了QLogic的儲存業務。2017年11月,晶片巨頭Marvell斥資60億美元收購Cavium,正式進軍資料中心領域。Khemani 於 2015 年離開 Cavium,成為 Innovium 的聯合創始人兼首席執行長。Innovium 是一家設計高頻寬、極簡主義超大規模乙太網路交換機 ASIC 的公司,其產品名為 TeraLynx。Marvell於 2021 年 8 月以 11 億美元收購了 Innovium ,以進一步推進其資料中心晶片的雄心壯志。到了2022年2月,Rajiv Khemani和Barun Kar創立了一家名為Auradine的公司,該公司致力於研發4奈米和3奈米製程的人工智慧和區塊鏈計算及網路晶片。Auradine在2024年之前完成了兩輪融資,共籌集了1.61億美元,並在2025年4月的B輪融資中又籌集了1.53億美元。到了2024年5月,Khemani和Kar決定將Auradine的部分網路業務剝離出來,成立一家名為Upscale AI的新公司,以便更直接地開拓預計到本十年末將達到1000億美元的人工智慧互連市場。在成立之初,該公司得了英特爾、AMD 和高通等公司的支援,值得一提的是,Kar是Auradine和Upscale AI的另一位聯合創始人,曾任Palo Alto Networks(一家防火牆和其他安全產品製造商)的工程高級副總裁兼創始團隊成員。在此之前,早在網際網路泡沫時期,Kar就曾擔任Juniper Networks的高級系統經理,負責管理其乙太網路路由器和交換機產品。Upscale AI表示,公司的策略是將 GPU、AI 加速器、記憶體、儲存和網路整合到一個單一的同步 AI 引擎中。作為 Upscale AI 戰略的核心要素,專為擴展而打造的 SkyHammer解決方案通過縮短加速器、記憶體和儲存之間的距離,實現了統一機架,並將整個堆疊轉換為一個統一的同步系統。Upscale 的 AI 平台基於開放標準和開源技術建構,並積極推進這些標準和開源技術的發展,包括 ESUN、Ultra Accelerator Link (UAL)、Ultra Ethernet (UEC)、SONiC 和交換機抽象介面 (SAI)。該公司積極參與 Ultra Accelerator Link 聯盟、Ultra Ethernet 聯盟、開放計算項目 (OCP) 和 SONiC 基金會。憑藉新增的 2 億美元融資,Upscale AI 將推出首個涵蓋晶片、系統和軟體的全端式交鑰匙平台,旨在連接未來通用人工智慧 (AGI) 的異構系統。一款專為網路而最佳化的晶片如上所述,人工智慧叢集由多個機架組成,每個機架可容納數十台伺服器。這些伺服器通過內建於主機機架中的交換機相互交換資料。機架交換機的技術特性通常與其他網路裝置(例如用於連接不同機架的裝置)的技術特性有顯著差異。而Upscale AI 正在開發的這款名為 SkyHammer 的產品是一款專為縱向擴展網路(即連接機架內部硬體元件)而最佳化的晶片,能提供確定性延遲。這意味著可以高精度地預測資料在機架元件之間傳輸所需的時間。眾所周知,人工智慧模型通過計算來處理資料,而這些計算必須按特定順序執行。因此,一次計算的延遲往往會導致後續所有處理步驟的延遲。提前預測網路延遲可以避免意外的資料傳輸延遲,從而防止人工智慧工作負載變慢。在接受Nextplatform採訪的時候,Upscale AI闡述了自己的目標:首先,如今,對於規模化 AI 網路而言,真正切實可行的選擇其實只有一個,那就是 NVSwitch。這也是輝達在 GenAI 浪潮中取得巨大成功的原因之一(當然還有其他原因)。而Upscale AI 希望為客戶提供更多選擇。“我一直堅信異構計算和異構網路是未來的發展方向,”Upscale AI高管告訴The Next Platform。“人們應該有自由選擇權,可以靈活組合各種資源,因為每個人都有其獨特之處,而這種組合方式能夠根據每個人的需求進行最佳化。有見及此,Upscale AI 致力於普及 AI 計算的網路,他們堅信異構計算的潛力。“我們認為輝達擁有卓越的技術,在創新方面也是一家傑出的公司。但展望未來,隨著 AI 創新的步伐不斷加快,我認為沒有任何一家公司能夠提供 AI 所需的所有技術——尤其是在未來發展趨勢方面。因此,這必然意味著不同供應商將提供不同類型的計算解決方案。”Upscale AI 強調。Upscale AI 同時認為,當少量 CPU 與少量 GPU 通訊,且 GPU 的相對記憶體頻寬較低,並且 CPU 和 GPU 在伺服器節點中緊密排列時,PCI-Express 交換機制能夠很好地工作。Upscale AI 於 2024 年初啟動時,UALink 聯盟和 Meta Platforms 提出的 ESUN 標準尚未成立,但異構基礎設施的概念早已存在,其目的並非僅僅是為了建構一套能夠完成所有任務的單一基礎設施,而是為了建構一套能夠更好地匹配不同任務工作流程的基礎設施。“未來,單個GPU可能無法完成所有計算任務,異構計算將會成為主流,”Upscale AI 方面解釋道。“某些CPU、GPU或XPU可能擅長預編碼和預填充,而其他裝置可能擅長解碼。但如果X廠商擅長預填充,Y廠商擅長解碼,又該怎麼辦呢?交換如今已成為這台機器的核心,它將所有這些功能連接起來,必須確保連接的公平性,並且還要具備可擴展性和可靠性。可靠性至關重要,因為你的任何操作都會直接影響系統中的所有計算。”在NextPlaform的採訪中,Upscale AI 對那些通過美化 PCI-Express 交換機 ASIC 或拆解乙太網路交換機 ASIC 來製造 UALink、ESUN 或 SUE 交換機的做法嗤之以鼻。“我看到的很多做法都像是對PCI-Express進行改造,也就是拿PCI-Express的基板來嘗試做其他事情,或者其他廠商拿乙太網路來嘗試改造。但整個記憶體領域的關鍵在於它無法改造。那樣做無法為客戶提供真正最佳化的、僅能向上擴展的堆疊,因為最終的結果只是拿一個基板,試圖移除不需要的東西。長期從事ASIC行業的人都知道,你可以移除很多模組,但基本單元仍然保持不變。每個ASIC都有其不變的基本DNA。”因此,Khemani 和 Kar 著手從頭開始建構一個記憶體結構 ASIC,專門用於此目的,然後確保它支援記憶體語義協議的更新。雖然並沒有披露AISC細節,但Upscale AI 表示,SkyHammer 將生成即時遙測資料。遙測資料,即關於系統的技術資料,不僅對故障排除至關重要,對配置任務也必不可少。管理員可以分析網路裝置的狀態遙測資料,從而找到最佳化其性能的方法。SkyHammer還相容多種開源網路技術,其中包括UALink和ESUN。這兩個項目都致力於利用乙太網路實現可擴展的網路應用場景。ESUN是其中較新的項目,於去年啟動,並獲得了輝達、博通和其他主要行業參與者的支援。SkyHammer還將支援一種名為UEC的網路技術。ESUN旨在連接機架內部的元件,而UEC則專注於連接不同的機架。它可以為多達100萬個晶片的AI叢集提供支援。“我們正在研發一種高基數交換機(high radix switch )和一款能夠實現這一切的專用積體電路(ASIC)。”Upscale AI強調。寫在最後NVLink 是輝達開發的一種高速互連技術,用於將記憶體和計算資源從多個 GPU 中抽象出來,使它們看起來像一個單一的邏輯資源。這項技術於2024年問世,此後,AMD和思科等公司一直在嘗試開發替代方案。但他們迄今為止的努力(例如UALink和ESUN),仍不成熟。AMD首批基於UALink的機架式系統將於今年晚些時候上市,但它們將通過乙太網路隧道傳輸該協議。能夠與Nvidia的NVSwitch競爭的專用UALink交換機目前尚未問世。Upscale的目標是通過其SkyHammer定製ASIC晶片改變這一現狀。Upscale AI 首席執行長 Barun Kar 告訴外媒El Reg:“我們不是在改造傳統系統,而是在重新構想 AI 網路中規模的真正含義。”“這種架構的核心本質上是為了擴展規模。它是專門為人工智慧工作負載而設計的,不適用於其他任何用途。”雖然我們沒有足夠的資訊將這款晶片與 NVSwitch 6 或 Broadcom 的 Tomahawk 6 進行比較,但 Kar 告訴我們,它採用了基於記憶體語義的載入-儲存網路架構,並將具有類似於 Nvidia Sharp 的集體通訊加速功能。該平台還將同時支援 UALink 和與其競爭的 ESUN 協議。為了使整個系統能夠大規模管理,Upscale 正在努力擴展對 SONiC 網路作業系統 (NOS) 的支援。SONiC 是一款開源 NOS,最初由微軟開發,已被廣泛部署,並深受超大規模客戶的青睞。目前,Upscale 主要專注於縱向擴展網路產品,但長期來看,計畫將產品線擴展到更傳統的橫向擴展交換機。Kar 告訴我們,為此,公司仍在評估各種方案,並可能借助合作夥伴的第三方智慧財產權。“我們已經與超大規模資料中心營運商和GPU供應商建立了合作關係,他們已經驗證了該架構。這部分工作已經完成。現在,這筆資金的重點是將創新轉化為實際部署,”Kar說道Upscale AI執行董事長Rajiv Khemani也表示:“Upscale AI在極短的時間內就取得了非凡的發展勢頭。市場需要開放、可擴展的AI網路解決方案,而Upscale AI憑藉其獨特的優勢,能夠幫助客戶突破當前網路方面的限制。” (半導體行業觀察)
從Google投資Anthropic案例思考AI投資的非排他性
今年三季度Google的財報中,投資收益引人注目,前三季度的浮盈已經達到220億。Google的這類非市場化股權投資通常與其戰略需求,或對其生態系統至關重要的AI 初創公司投資有關。今年的盈利主要來源於對Anthropic的投資。Anthropic是目前全球估值最高的未公開上市AI 公司之一。相比其它股東,Google投資金額較小,但入局早。從Anthropic的籌資歷史與估值變化中,可以看到其受到了資金的極度追捧。2021-2022,早期投資5.8億,來自於現在已經破產的FTX。2023年9月-2024年11月,亞馬遜承諾投資40 億美元。2023年10月,Google承諾投資20億。2024年3月,由 Lightspeed 領投E輪,籌資27.5億,估值達到615 億美元.2025年8月,由ICONIQ Capital 領投,籌資130億,估值達到 1830 億美元。2025年11月,微軟和輝達聯合投資150億。微軟約 50 億美元,輝達約 100 億美元。估值猛增至約 3500 億美元,是Google投資時的87倍!Anthropic是由前OpenAI 的核心研究人員在2021年創立的。其Claude 系列大型語言模型是當前市場上唯一能在性能上與ChatGPT 和Gemini抗衡的頂級模型。Claude與其它模型的不同之處,在於其專注於那些能在近期產生經濟效益的,企業級市場,模型的程式設計能力尤其強大。它對Google的DeepMind和 OpenAI關注的數學推理等領域則投入較少。可以看到,科技公司們正在根據自身技術稟賦和戰略目標,來選擇最能實現商業變現的細分領域進行深度挖掘。市場足夠大,容得下差異化競爭。2024年3月,Anthropic的E輪融資估值為615億美元。一年半後的2025年8月F輪融資,估值為1830億美元。這給Google和亞馬遜帶來巨大的帳面收益。短短兩個月後的11月,微軟和輝達也投資入股,估值幾乎翻倍,達到3500億美元。這說明Google的第四季度將同樣獲得可觀的帳面股權投資收益。Google和亞馬遜投資的主要目的之一是確保Anthropic 在其 AI 模型開發和訓練中,使用自己的雲服務。Google雲在與 Anthropic 簽訂的價值高達數百億美元的合同中,承諾提供大規模的Google自研的TPU AI 晶片,為其提供超過千兆瓦的計算能力,用於模型訓練和擴展。通過融資,Anthropic巧妙地鞏固了所有主要雲服務提供商和輝達的算力支援。從這個案例中可以看到,這些科技巨頭之間的關係錯綜複雜,Anthropic與它的股東們的關係既競爭又合作,還互相投資。比如Gemini 是Claude在產品和技術上的主要對手,而Google雲又提供了Anthropic關鍵的基礎設施。這樣的關聯交易就是大空頭Micheal Burry認為AI有泡沫的依據之一。非排他性值得注意的是,所有這些股權投資和業務上的合約都沒有排他性條款。比如,Google和亞馬遜在投資Anthropic的時候,並不限制Anthropic使用對方的雲。類似的,輝達投資OpenAI時,也不限制OpenAI買別家的晶片。在傳統行業,排他性競爭是主流。股權投資經常作為換取稀缺實物資源,比如礦產,的長期獨家控制權的籌碼。這是因為,傳統行業的市場規模增長速度通常與經濟增長速度持平或略高,是線性增長。在有限的市場中,競爭必然是排他性的。企業會通過法律合同、獨家供應協議、收購競爭對手等方式來消除競爭,實現市場份額最大化和垂直整合。而AI領域的技術和市場特徵與傳統行業截然不同。首先,AI創造了全新的、指數增長的需求,尤其是在算力和應用領域。ai技術的複雜性與垂直整合難度,意味著沒有一家企業能從底層晶片、中介軟體、基礎模型、到應用層都做到最好。每一家都可以在自己擅長的領域發展,而不威脅到競爭對手。比如,Google的TPU晶片即使開始對外銷售,擴大市場份額,也不會影響輝達GPU的需求量。因為兩者服務的是不同的需求對象,而且對兩者的需求都遠大於供應。在市場巨大、資源稀缺、技術複雜這些因素的作用下,合作比排他性競爭能帶來更高的回報。AI巨頭們對前沿公司,如Anthropic、OpenAI的投資,能獲得技術,商業機會和投資回報等多重收益:通過鎖定技術和人才來對衝落後的風險。投資競爭對手的模型可以讓雲巨頭們獲得對最新AI 技術、能力和人才的近距離觀察,有助於他們縮小自身模型的差距。股權合作可以確保最新的頂尖模型優先部署在自己的雲服務上。Anthropic授權Google雲和亞馬遜雲AWS,將 Claude模型整合到Google雲的AI 服務生態Vertex AI和亞馬遜的AI 模型服務平台Amazon Bedrock 上。這允許Google雲和AWS的使用者通過 API 介面,直接在兩者的環境中呼叫 Claude用於建構自己的應用。使用者使用 Claude 模型時,Google雲和AWS會向 Anthropic 支付授權費用。由此,Google和亞馬遜成為Anthropic的戰略合作夥伴和分銷商,而不僅僅是算力供應商。這是AI時代基礎設施與模型技術深度繫結的競合模式。自然而然地,Anthropic盈利能力的提升,推動估值,也會給Google和亞馬遜帶來巨大的投資回報。從Anthropic的角度來看,則獲得了將計算資源進行最優配置的能力。它同時獲得Google的 TPU,亞馬遜的 Trainium/ Inferentia,以及微軟的 Azure的基礎設施支援,可以確保最先進的模型可以運行在最適合它們的硬體上,最大化技術產出。社會意義這些非排他性的投資與合作,還會產生一個更宏大、更具社會意義的結果。那就是促進整個AI行業的技術進步、擴大其社會應用範圍,進而激發全社會對AI的接受度和需求。首先,非排他性能更好地支援分散式創新,更有可能突破技術瓶頸,達到效率的極致化。Anthropic專注於 AI 安全和編碼,OpenAI 專注於通用智能,DeepMind 專注於科學發現。這種多點開花的競爭模式比任何一家公司內部研發都更有效率。巨頭們通過非排他性投資,可以外包一部分前沿研究的風險和成本,同時受益於所有方向的突破。其次,當市場上多個優秀且可信賴的AI 產品(Claude, ChatGPT, Gemini)出現時,企業和公眾對AI 技術的接受度會更快、更廣泛。當前這波由生成式AI 驅動的社會接受速度,在科技史上是前所未有的。參考歷史上,新技術達到1億使用者所需的時間,固定電話用了75年,手機16年,網際網路7年,臉書4.5年,而ChatGPT才僅僅用了2個月。如果用技術採納生命周期來衡量,AI目前正處於從早期採納,向加速滲透過渡的關鍵時期。在個人層面,已經超過數億人在使用AI 進行寫作輔助、程式碼查詢、資訊總結、日程規劃和創意生成。Google的生成式搜尋體驗和微軟的Copilot,正在將 AI 回答直接整合到搜尋結果中,這意味著每一次搜尋都在使用 AI。新一代智慧型手機、電腦作業系統正在將大語言模型作為底層能力內建,使用者在不知不覺中已經在使用AI。企業也已經認識到AI 不是可選項,而是保持競爭力是必須項,正在重金投資部署。Microsoft Copilot、GitHub Copilot 等工具被大規模採購,用於提升知識工作者和程式設計師的效率。企業正在將AI 模型,如Anthropic 的 Claude 或 Gemini,作為新的 API 介面整合到其核心業務系統和軟體中,實現資料分析和決策的自動化。未來當AI模型更加安全、專業和可信賴,垂直領域的關鍵應用也被成功開發和部署後,AI 會真正嵌入到各個傳統行業中,真正提升實體行業在物理世界的生產力。那時,AI 的廣泛應用將創造出目前我們無法想像的新商業模式和工作流程,這反過來會產生對大規模、持續、複雜算力的巨大需求。最終回到巨頭們投資的核心收益:建立未來的盈利基礎。算力消耗本質上是技術被社會接受度提高的最終結果。因為如果AI 不能廣泛應用於社會並改變生產力,那麼對算力的需求就會停滯不前。通過非排他性協議,讓被投資企業取得成功,從而最大程度地激發整個AI 生態系統的繁榮,最終將推動底層基礎設施和巨頭們自身產品的需求。 (一顆南瓜籽的成長)
沒想到,驅動下一代美國創新的,竟然是中國搞出來的AI……
下一個時代的AI領導力,將不再取決於誰的模型最強大,而取決於誰的模型無處不在。日前,矽谷頂級風險投資公司Andreessen Horowitz(a16z)的普通合夥人馬丁·卡薩多(Martin Casado)在接受《經濟學人》採訪時,透露了一個驚人資料:在其投資組合中,高達80%的AI初創公司,其底層技術正建構於來自中國的開源大模型之上。01. 翻轉發生資料不會說謊:我們來看模型的下載量。在AI領域,模型的下載量如同一個國家的數字GDP,直觀地反映了其技術影響力與生態系統的活躍度。要看最公正的資料,那得看全球最大的AI社區和模型託管平台Hugging Face。最近,AI研究員內森·蘭伯特(Nathan Lambert)繪製的一張圖表,直觀地記錄了這場“翻轉”的軌跡。https://www.interconnects.ai/p/on-chinas-open-source-ai-trajectory圖表上,代表中美兩國開源模型累計下載量的兩條曲線,從2023年下半年開始,代表美國的藍線雖保持增長,勢頭也很不錯,但中國的紅線更猛,以更陡峭的斜率向上竄,在2025年上半年會成功超越美國,並預計在2026年上半年衝向驚人的3.2億次下載量,建立起決定性的領先優勢。蘭伯特在這張圖上標註了一個詞:“The Flip”(翻轉)。如果你看最近Hugging Face的趨勢榜單,幾乎都被中國模型“屠榜”:阿里巴巴的Qwen(通義千問)系列、百度的ERNIE(文心)大模型、DeepSeek(深度求索)以及月之暗面(Moonshot AI)的Kimi等等模型,長期佔據下載量和關注度的前列。即使有些模型名字看上去不像中國的,但你點進去,大機率會發現我們的開源模型是以base model的面目出現的。更讓人震驚的是另一個全球性平台 Design Arena,主要是設計相關功能,其模型排名由使用者直接投票決定,我們看到:排名前18的開源大模型均為中國模型,而第一個非中國模型(來自美國)僅排在第19位。02. 雙重優勢問題是,這一切是怎麼發生的呢?為什麼美國初創團隊要用中國AI模型呢?很顯然,一大原因就是成本。允許我們舉個現實的例子:優一家名為“LinguaBot”的AI翻譯初創公司,每月需處理10億tokens的請求。如果使用OpenAI的API,根據模型不同,其每月的帳單至少在1萬到2萬美元之間。但如果使用中國的開源模型,如Qwen、DeepSeek系列,它們大多遵循Apache 2.0等寬鬆的開源協議,允許開發者免費下載、本地部署和微調,完全掌控自己的資料和應用。創業公司前期可能需要投入數千美元購買或租賃雲端伺服器,但此後的每月營運成本可能驟降至2000至4000美元——直接打了骨折!對於任何一家需要進行大量模型微調、測試和迭代的初創公司而言,這節省下來的每一美元,都是其在激烈市場競爭中得以存活的寶貴燃料。而且說實在的,開源模型已經很優秀了。它們在多個關鍵基準上實現了“性能平價”(Performance Parity),甚至在特定領域實現了超越。比如DeepSeek的V3模型在多項評測中擊敗了Meta的Llama 3.1;阿里巴巴的Qwen系列在Hugging Face等多個榜單上名列前茅;而百度的ERNIE 4.5系列則在混合專家(MoE)架構上取得了顯著突破,用更少的計算資源實現了媲美更大參數模型的性能。所以除了初創企業之外,像愛彼迎(Airbnb)這樣的矽谷巨頭,也公開承認正在“重度依賴”中國的開源AI。愛彼迎CEO布萊恩·切斯基(Brian Chesky)在一次採訪中坦言,其用以驅動核心AI客服系統的,正是阿里巴巴的通義千問(Qwen)模型。儘管愛彼迎採用了包含OpenAI和Google在內的13個不同模型,但通義千問是當之無愧的“頭號主力”,因為它在多語言處理上的具有非常明顯的優勢,機器人專家的創始人Nicolas de Cameret評價道:通義千問的多語言支援是原生的,聽起來自然得多。這種能力對於一個業務遍及全球220個國家的平台而言,就是核心競爭力。切斯基的理由直截了當:“ChatGPT的整合能力還‘沒有完全準備好’,而通義千問‘非常好’,而且‘又快又便宜’。”03. 圍牆花園 V.S. 開放廣場至此,你可以看到中美兩國AI發展的不同路徑:美國最頂尖的模型被嚴格地保護在“圍牆花園”內;而中國的AI實驗室則採取了截然不同的“廣場策略”,以極高的頻率發佈新模型、新權重,鼓勵全球開發者進行“二次創作”。這種開放性形成了一個強大的飛輪效應:更多的下載意味著更多的應用、更多的反饋和更多的改進。正如一位Reddit使用者評論道:“如果80%的美國創業公司都在用中國模型,你可以安全地假設,在全球其他地區,這個比例可能接近100%。”這場從矽谷開始的“秘密”轉向,正在成為全球性的陽謀。當前開源AI的格局,不禁讓人聯想到上世紀90年代的Linux。開源,通過匯聚全球智慧,最終在商業上戰勝了封閉。AI的革命,似乎正在重演這一幕。美國在引領了早期GPT系列模型的發展後,出於對“安全”的擔憂和商業利益的考量,逐漸關上了開放的大門。而中國,則抓住了這個戰略機遇期,選擇了一條“以開放換影響”的道路。眾所周知,美國試圖通過晶片出口管制等手段遏制中國AI的發展,但這反而加速了中國在自主AI框架上的自給自足。而當全球開發者越來越多地基於中國的開源模型進行創新時,中國實際上就在輸出技術標準和行業規則。這是一種比硬體出口更深遠、更持久的“軟實力”建構。自然,美國決策層已經意識到了這一威脅。一位不願透露姓名的西方網路安全專家說:“當你將核心業務邏輯運行在一個中國模型上時,你必須考慮到潛在地緣政治層面上的‘後門’風險。倘若未來中美關係進一步緊張,這些模型的更新、維護和社區支援是否會成為被利用的籌碼?”於是我們看到,川普政府在2025年7月發佈了《美國AI行動計畫》,其中明確提出,需要確保美國擁有“基於美國價值觀的領先開源模型”。隨後,OpenAI也像征性地發佈了其多年來的首個開源模型gpt-oss,但這被普遍視為一種被動的、遲緩的回應。更具實質性的努力來自於由蘭伯特等人倡導的“美國真正開放模型”(ATOM)項目,該項目呼籲政府和企業界聯合投入,重新奪回開源生態的主導權。在不少美國人看來,這場反擊不僅是技術之爭,更是一場關於未來AI應遵循何種價值觀和治理模式的“標準之戰”。04. 未來中國的開源AI模型下載量超越美國,以及在矽谷創業圈的高滲透率,標誌著一個新時代的開端。對中國而言,絕對稱得上是階段性的勝利——這一階段的成功,首先驗證了開源戰略的正確性。面對技術封鎖,開源不僅是有效的突圍方式,更是通過建構全球開發者社區,將中國的技術轉化為事實標準的聰明策略。其次,它展現了中國獨特市場優勢的巨大潛力。“人工智慧+”行動的核心,就是將AI模型與龐大的製造業、醫療等實體經濟相結合,這種大規模應用場景是任何其他國家都難以複製的護城河。同時,在高端晶片受限的背景下,以DeepSeek為代表的模型通過演算法和架構創新,證明了一條“低算力、高效能”的差異化路線是完全可行的。然而,下載量的激增並不能完全掩蓋潛藏的結構性問題。最現實的挑戰在於商業模式:如何將巨大的影響力轉化為可持續的收入,以支撐長期的研發投入,這是所有開放原始碼專案必須回答的問題。更深層次的風險則在於核心技術的自主可控,儘管模型層面進步很快,但在高端晶片、開發框架等底層技術上,“卡脖子”的風險依然存在。此外,隨著影響力的擴大,如何在全球範圍內建立信任與安全體系,回應地緣政治帶來的顧慮,將直接決定這條路能走多遠。最終,所有這些都指向一個根本目標:完成從應用大國到基礎研究強國的轉變,補齊原創性理論的短板。人工智慧的未來,不太可能由一家公司或一個國家壟斷,它將是一個由不同技術路線、商業模式和文化價值觀共同塑造的多極化世界。在新的競爭範式下,領導力不再僅僅取決於誰擁有最頂尖的模型,而在於誰的技術能夠成為全球創新的基礎。而幸運的是,中國已經憑藉其堅定的開源戰略,佔據了極其有利的位置。 (TOP創新區研究院)
估值上兆、現金流見底:AI盛宴背後的真相沒人敢說
【新智元導讀】AI泡沫,比網際網路泡沫還危險?投資人都在裝作看不見?最具價值的私有AI初創,都有誰?投資人Deedy Das總結了目前估值最高的15家AI初創,以及最新的公開的營收和增長情況。OpenAI、xAI和Anthropic毫無意外霸榜前三。OpenAI以約5000億美元估值領跑,xAI、Anthropic緊追;零收入的Figure AI、SSI依然躋身超獨角獸行列。目前,上榜企業最少100億美元估值,最多為5000億美元。0客戶、0產品、0計畫,估值照樣上千億沒有客戶、沒有產品、也沒有計畫,有些AI初創估值高得嚇人——說的是Figure AI、Safe SuperIntelligence和Thinking Machiens Lab。根據Deedy Das的統計,這三家公司收入為零,但估值分別為390億美元、320億美元和120億美元。華盛頓大學電腦科學教授、《2040》和《終極演算法》作者Pedro Domingos,直指Ilya的Safe Superintelligence最搞笑。這些AI初創的融資,著實讓人看不懂——估值幾乎沒有體現任何風險,但再強的技術也存在失敗的可能。目前,市場對未來的樂觀程度接近「完美執行」的預期——而且別忘了,微軟擁有OpenAI的全部訪問權,包括其IP,但卻並沒有滿足OpenAI提出的所有算力採購需求。要知道,微軟擁有「優先購買權」,本可以選擇接下Oracle那筆訂單,但最終沒做。微軟CEO納德拉一直以理性著稱,如果連他都不完全下注,那我們至少要保持審慎。即便AI技術不會停滯,但相關的金融泡沫正在形成,且比網際網路泡沫更危險。一個經常被忽略的事實是,如今很多科技公司的巨額支出,其實不是用來開闢新業務,而是用來「保住」原有的護城河。大家都被捲入了一場已經失控的競賽。正如Meta的祖克柏所言,「投入幾千億美元的風險,小於被邊緣化的風險。」這或許能夠解釋這些巨頭為何必須奮力一搏。但資本市場的責任是:在估值倍數中精準反映風險。而現在,市場明顯沒做到這一點。燒錢循環 AI公司和晶片公司的合謀當前AI行業的估值水平,已遠超2000年網際網路泡沫高峰期。與2000年不同,當時的公司至少有「夢想」和「使用者增長」,而今天的AI公司卻普遍缺乏清晰的商業模式和盈利能力。AI基礎設施支出(如資料中心、晶片)與實際收入嚴重不匹配,形成「燒錢循環」:AI公司燒錢→晶片公司賺錢→AI公司繼續融資→繼續燒錢。過去,在資助獨角獸初創公司的經典路徑中,一般是:初期由大型風險投資公司出資(規模在10億至100億美元之間),發展到100億至300億美元時,像軟銀這樣的巨頭接手,接著就準備IPO(首次公開募股)。但像OpenAI和Anthropic這樣的AI實驗室,如今並不打算走上市這條路,因為一旦上市,就意味著它們的商業模式和盈利邏輯將被全面拆解,分析師會深入質詢那些是合理的、那些站不住腳。即便選擇IPO,他們也無法籌集到足夠的資金。現在一家AI初創所需融資,已經超過了過去五年整個科技五巨頭自由現金流的總和。今年,OpenAI的營收預計在150億至200億美元之間。即便明年翻倍甚至三倍增長,這個數字也遠遠無法支撐其擴張所需的投資體量。因此,OpenAI未來還得持續融資,甚至可能會舉債。此外,即使有這些收入,OpenAI今年預計仍將虧損約90億美元,虧損將在未來繼續擴大,預計到2028年將達到470億美元。但問題是,誰有足夠的實力,一次性投入超過1000億美元?目前唯一有能力這麼做的似乎只有Nvidia。而Nvidia之所以願意出這筆錢,很大程度上是因為OpenAI如今是「AI無冕之王」。最近,在播客中Semianalysis的Dylan Patel表示,目前OpenAI和Anthropic兩家公司就買下了全球三分之一的Nvidia GPU。問題不僅在於這是一種「循環投資」的模式,更在於當項目規模達到1000億美元以上時,唯一可能出資的就只剩下像Nvidia或蘋果這樣的公司。更關鍵的是,即便Nvidia出了1000億,OpenAI還是需要籌集剩下的1.4兆美元——那又該誰來出這筆錢?另一個值得警惕的訊號是,這類融資交易中開始越來越多地引入債務。Meta最近也為一個資料中心融資290億美元,其中260億美元是債務,該資料中心本身則成為了貸款的抵押品。Oracle也完成了一筆380億美元的債務融資。微軟:寧願外包,不要晶片至於超級雲廠商如微軟等,也開始向新興雲端運算服務商(neocloud)尋求合作。比如,微軟與Nebius達成的174億美元(未來可能擴展至194億美元)協議就是其中之一。微軟為何與新興雲服務商(neoclouds)合作?因為它們正在目睹企業客戶對算力的強勁需求。微軟想要維持客戶關係、讓客戶滿意,但又不想繼續在CapEx上加碼。因此,它更願意把風險轉嫁出去。對客戶而言,誰提供的底層設施並不重要,他們只要結果。而一旦熱潮過去,那些舊晶片的損失就由neocloud承擔,不會體現在微軟帳上。對微軟來說,這是「雙贏」:既保住了客戶,又避免了晶片貶值帶來的損失。若未來需求持續增長,微軟也有足夠時間建設自己的資料中心,重新收回算力基礎。而在當前的「AI狂熱」周期裡,把「晶片貶值速度快」的風險外包出去,比自己承受更為明智。這也是微軟與neocloud合作的關鍵原因之一:他們對資本支出的未來不確定,因此更傾向於將其轉化為營運支出(OpEx)。更令人擔憂的是,現在連晶片本身都被裝入SPV中作為抵押品進行融資。不過,根據Google趨勢的資料,上個月中,網路上對「AI泡沫」的Google搜尋量急劇下降。這表明人們對估值的擔憂正在減輕。AI的繁榮可能會停止,但它可能不會破裂。雖然可能存在泡沫,但當每個人都發現它時,可能是它最不可能破裂的時刻。 (新智元)