#初創
晶片初創公司,單挑輝達和博通
日前,一家名為Upscale AI的晶片初創公司宣佈。已完成 2 億美元的 A 輪融資,旨在挑戰輝達在機架級 AI 系統交換機領域的統治地位,與思科、博通和 AMD 等公司展開競爭。據該公司在新聞中介紹,本輪融資由Tiger Global、Premji Invest和Xora Innovation領投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures參投。此次融資使Upscale AI的總融資額超過3億美元。他們進一步指出,投資者的迅速湧入反映了行業日益增長的共識:網路是人工智慧擴展的關鍵瓶頸,而旨在連接通用計算和儲存的傳統網路架構從根本上來說並不適用於人工智慧時代。在他們看來,關鍵的區別在於:傳統網路連線的是終端節點,而人工智慧網路則統一整個叢集。隨著專用人工智慧計算的不斷擴展,它越來越受到改造或專有網路架構的限制。傳統的資料中心網路解決方案是為人工智慧出現之前的世界而設計的,而不是為機架級規模所需的大規模、高度同步的擴展而設計的。一個旨在撼動輝達護城河的團隊大家都知道輝達的GPU,但正如我們再很多報導中所說,這家巨頭在網路方面也表現很不錯。受人工智慧資料中心連接需求強勁的推動,輝達2026財年第三季度的網路業務收入同比增長162%,達到81.9億美元,這已經遠超他們當年收購Mellanox所耗費的資金。NVlink也成為了輝達當之無愧的護城河。考慮到當前單晶片性能擴展乏力,Scale Up和Scale Out的連接需求在未來很長一段時間必將成為主流。換而言之,如果能夠製造出高基數(即連接埠數量眾多)且連接埠間總頻寬高,足以與輝達NVSwitch記憶體架構和NVLink連接埠相媲美的UALink交換機的公司,必將大賺一筆。Upscale AI,就是一家抱著這個理想而成立的公司。而該公司的創始人Rajiv Khemani,則是行業中讓人如雷貫耳的連續晶片創業專家。據介紹,Rajiv Khemani曾擔任Sun Microsystems公司的高級產品經理,負責Sparc伺服器和Solaris作業系統。他還曾在NetApp和英特爾公司任職,負責多個業務部門的戰略和市場行銷。2003年,他出任晶片初創公司Cavium Networks的首席營運官。該公司成立於2000年,最初以生產MIPS處理器起家,但後來憑藉2014年推出的ThunderX伺服器CPU進軍Arm伺服器市場,並因此聲名鵲起。同年,Cavium收購了新興可程式設計交換機ASIC製造商XPliant。2016年6月,Cavium斥資13.6億美元收購了QLogic的儲存業務。2017年11月,晶片巨頭Marvell斥資60億美元收購Cavium,正式進軍資料中心領域。Khemani 於 2015 年離開 Cavium,成為 Innovium 的聯合創始人兼首席執行長。Innovium 是一家設計高頻寬、極簡主義超大規模乙太網路交換機 ASIC 的公司,其產品名為 TeraLynx。Marvell於 2021 年 8 月以 11 億美元收購了 Innovium ,以進一步推進其資料中心晶片的雄心壯志。到了2022年2月,Rajiv Khemani和Barun Kar創立了一家名為Auradine的公司,該公司致力於研發4奈米和3奈米製程的人工智慧和區塊鏈計算及網路晶片。Auradine在2024年之前完成了兩輪融資,共籌集了1.61億美元,並在2025年4月的B輪融資中又籌集了1.53億美元。到了2024年5月,Khemani和Kar決定將Auradine的部分網路業務剝離出來,成立一家名為Upscale AI的新公司,以便更直接地開拓預計到本十年末將達到1000億美元的人工智慧互連市場。在成立之初,該公司得了英特爾、AMD 和高通等公司的支援,值得一提的是,Kar是Auradine和Upscale AI的另一位聯合創始人,曾任Palo Alto Networks(一家防火牆和其他安全產品製造商)的工程高級副總裁兼創始團隊成員。在此之前,早在網際網路泡沫時期,Kar就曾擔任Juniper Networks的高級系統經理,負責管理其乙太網路路由器和交換機產品。Upscale AI表示,公司的策略是將 GPU、AI 加速器、記憶體、儲存和網路整合到一個單一的同步 AI 引擎中。作為 Upscale AI 戰略的核心要素,專為擴展而打造的 SkyHammer解決方案通過縮短加速器、記憶體和儲存之間的距離,實現了統一機架,並將整個堆疊轉換為一個統一的同步系統。Upscale 的 AI 平台基於開放標準和開源技術建構,並積極推進這些標準和開源技術的發展,包括 ESUN、Ultra Accelerator Link (UAL)、Ultra Ethernet (UEC)、SONiC 和交換機抽象介面 (SAI)。該公司積極參與 Ultra Accelerator Link 聯盟、Ultra Ethernet 聯盟、開放計算項目 (OCP) 和 SONiC 基金會。憑藉新增的 2 億美元融資,Upscale AI 將推出首個涵蓋晶片、系統和軟體的全端式交鑰匙平台,旨在連接未來通用人工智慧 (AGI) 的異構系統。一款專為網路而最佳化的晶片如上所述,人工智慧叢集由多個機架組成,每個機架可容納數十台伺服器。這些伺服器通過內建於主機機架中的交換機相互交換資料。機架交換機的技術特性通常與其他網路裝置(例如用於連接不同機架的裝置)的技術特性有顯著差異。而Upscale AI 正在開發的這款名為 SkyHammer 的產品是一款專為縱向擴展網路(即連接機架內部硬體元件)而最佳化的晶片,能提供確定性延遲。這意味著可以高精度地預測資料在機架元件之間傳輸所需的時間。眾所周知,人工智慧模型通過計算來處理資料,而這些計算必須按特定順序執行。因此,一次計算的延遲往往會導致後續所有處理步驟的延遲。提前預測網路延遲可以避免意外的資料傳輸延遲,從而防止人工智慧工作負載變慢。在接受Nextplatform採訪的時候,Upscale AI闡述了自己的目標:首先,如今,對於規模化 AI 網路而言,真正切實可行的選擇其實只有一個,那就是 NVSwitch。這也是輝達在 GenAI 浪潮中取得巨大成功的原因之一(當然還有其他原因)。而Upscale AI 希望為客戶提供更多選擇。“我一直堅信異構計算和異構網路是未來的發展方向,”Upscale AI高管告訴The Next Platform。“人們應該有自由選擇權,可以靈活組合各種資源,因為每個人都有其獨特之處,而這種組合方式能夠根據每個人的需求進行最佳化。有見及此,Upscale AI 致力於普及 AI 計算的網路,他們堅信異構計算的潛力。“我們認為輝達擁有卓越的技術,在創新方面也是一家傑出的公司。但展望未來,隨著 AI 創新的步伐不斷加快,我認為沒有任何一家公司能夠提供 AI 所需的所有技術——尤其是在未來發展趨勢方面。因此,這必然意味著不同供應商將提供不同類型的計算解決方案。”Upscale AI 強調。Upscale AI 同時認為,當少量 CPU 與少量 GPU 通訊,且 GPU 的相對記憶體頻寬較低,並且 CPU 和 GPU 在伺服器節點中緊密排列時,PCI-Express 交換機制能夠很好地工作。Upscale AI 於 2024 年初啟動時,UALink 聯盟和 Meta Platforms 提出的 ESUN 標準尚未成立,但異構基礎設施的概念早已存在,其目的並非僅僅是為了建構一套能夠完成所有任務的單一基礎設施,而是為了建構一套能夠更好地匹配不同任務工作流程的基礎設施。“未來,單個GPU可能無法完成所有計算任務,異構計算將會成為主流,”Upscale AI 方面解釋道。“某些CPU、GPU或XPU可能擅長預編碼和預填充,而其他裝置可能擅長解碼。但如果X廠商擅長預填充,Y廠商擅長解碼,又該怎麼辦呢?交換如今已成為這台機器的核心,它將所有這些功能連接起來,必須確保連接的公平性,並且還要具備可擴展性和可靠性。可靠性至關重要,因為你的任何操作都會直接影響系統中的所有計算。”在NextPlaform的採訪中,Upscale AI 對那些通過美化 PCI-Express 交換機 ASIC 或拆解乙太網路交換機 ASIC 來製造 UALink、ESUN 或 SUE 交換機的做法嗤之以鼻。“我看到的很多做法都像是對PCI-Express進行改造,也就是拿PCI-Express的基板來嘗試做其他事情,或者其他廠商拿乙太網路來嘗試改造。但整個記憶體領域的關鍵在於它無法改造。那樣做無法為客戶提供真正最佳化的、僅能向上擴展的堆疊,因為最終的結果只是拿一個基板,試圖移除不需要的東西。長期從事ASIC行業的人都知道,你可以移除很多模組,但基本單元仍然保持不變。每個ASIC都有其不變的基本DNA。”因此,Khemani 和 Kar 著手從頭開始建構一個記憶體結構 ASIC,專門用於此目的,然後確保它支援記憶體語義協議的更新。雖然並沒有披露AISC細節,但Upscale AI 表示,SkyHammer 將生成即時遙測資料。遙測資料,即關於系統的技術資料,不僅對故障排除至關重要,對配置任務也必不可少。管理員可以分析網路裝置的狀態遙測資料,從而找到最佳化其性能的方法。SkyHammer還相容多種開源網路技術,其中包括UALink和ESUN。這兩個項目都致力於利用乙太網路實現可擴展的網路應用場景。ESUN是其中較新的項目,於去年啟動,並獲得了輝達、博通和其他主要行業參與者的支援。SkyHammer還將支援一種名為UEC的網路技術。ESUN旨在連接機架內部的元件,而UEC則專注於連接不同的機架。它可以為多達100萬個晶片的AI叢集提供支援。“我們正在研發一種高基數交換機(high radix switch )和一款能夠實現這一切的專用積體電路(ASIC)。”Upscale AI強調。寫在最後NVLink 是輝達開發的一種高速互連技術,用於將記憶體和計算資源從多個 GPU 中抽象出來,使它們看起來像一個單一的邏輯資源。這項技術於2024年問世,此後,AMD和思科等公司一直在嘗試開發替代方案。但他們迄今為止的努力(例如UALink和ESUN),仍不成熟。AMD首批基於UALink的機架式系統將於今年晚些時候上市,但它們將通過乙太網路隧道傳輸該協議。能夠與Nvidia的NVSwitch競爭的專用UALink交換機目前尚未問世。Upscale的目標是通過其SkyHammer定製ASIC晶片改變這一現狀。Upscale AI 首席執行長 Barun Kar 告訴外媒El Reg:“我們不是在改造傳統系統,而是在重新構想 AI 網路中規模的真正含義。”“這種架構的核心本質上是為了擴展規模。它是專門為人工智慧工作負載而設計的,不適用於其他任何用途。”雖然我們沒有足夠的資訊將這款晶片與 NVSwitch 6 或 Broadcom 的 Tomahawk 6 進行比較,但 Kar 告訴我們,它採用了基於記憶體語義的載入-儲存網路架構,並將具有類似於 Nvidia Sharp 的集體通訊加速功能。該平台還將同時支援 UALink 和與其競爭的 ESUN 協議。為了使整個系統能夠大規模管理,Upscale 正在努力擴展對 SONiC 網路作業系統 (NOS) 的支援。SONiC 是一款開源 NOS,最初由微軟開發,已被廣泛部署,並深受超大規模客戶的青睞。目前,Upscale 主要專注於縱向擴展網路產品,但長期來看,計畫將產品線擴展到更傳統的橫向擴展交換機。Kar 告訴我們,為此,公司仍在評估各種方案,並可能借助合作夥伴的第三方智慧財產權。“我們已經與超大規模資料中心營運商和GPU供應商建立了合作關係,他們已經驗證了該架構。這部分工作已經完成。現在,這筆資金的重點是將創新轉化為實際部署,”Kar說道Upscale AI執行董事長Rajiv Khemani也表示:“Upscale AI在極短的時間內就取得了非凡的發展勢頭。市場需要開放、可擴展的AI網路解決方案,而Upscale AI憑藉其獨特的優勢,能夠幫助客戶突破當前網路方面的限制。” (半導體行業觀察)
【CES 2026】一家初創GPU公司,吊打輝達
在 2026 年 CES 展會上,總部位於加州的 GPU 初創公司 Bolt Graphics 展示了其 Zeus(宙斯)GPU 平台,旨在針對遊戲、CAD 工作負載和 HPC(高性能計算)模擬。Zeus 最初於一年前發佈,圍繞開源 RISC-V 指令集架構(ISA)命令處理器建構,並承諾其路徑追蹤性能最高可達輝達(Nvidia)RTX 5090 的 10 倍。在 CES 上展出的原型顯示卡支援高達 384GB 的 LPDDR5X 和 DDR5 組合記憶體,其中包括高達 128GB 的板載銲接視訊記憶體(VRAM)。它還配有四個 DDR5 SO-DIMM 插槽和一個 800Gbps 的記憶體介面。功耗峰值為 225W,通過單個 8-pin PCIe 介面供電。Bolt Zeus 擁有兩個支援 CXL 3.0 的 PCI-Express 5.0 x16 插槽。其他連接選項包括一個 DisplayPort 2.1a 和一個 HDMI 2.1b 輸出介面。此外,它還內建了 400GbE 和 800GbE QSFP-DD 連接埠,為大規模渲染和模擬工作負載提供先進的網路能力。板載的 BMC/IPMI 控製器使資料中心能夠將多台裝置部署在機架式渲染伺服器或工作站中。Bolt 還確認 Zeus 包含紋理對應單元(TMU)和光柵操作單元(ROP),儘管公司尚未透露具體規格。根據 Bolt Graphics 公佈的 FP64 數學基準測試:入門級 Zeus 1C:配備單個處理單元,其路徑追蹤性能可達 RTX 5090 的 2.5 倍。該卡配備 32GB LPDDR5X 記憶體(頻寬 273GB/s),並可通過兩個 SO-DIMM 模組擴展高達 128GB 的 DDR5 記憶體(頻寬 80GB/s)。雙晶片 Zeus 2C:配備高達 128GB 的 LPDDR5X 記憶體,聲稱其路徑追蹤性能是輝達旗艦 GPU 的 5 倍。四晶片 Zeus 4C:定位於伺服器平台而非獨立顯示卡,其性能可達 10 倍。4C 配置包括四個 I/O 小晶片(chiplets)、高達 256GB 的 LPDDR5X 以及多達 2TB 的 DDR5 記憶體。Bolt Graphics 聲稱以更低功耗實現比輝達 RTX 5090 高出 13 倍的飛躍——但伴隨著巨大的限制條件。Bolt 的 FP64 電磁(EM)模擬基準測試表明,在特定受控條件下,Zeus 4C 的速度比輝達 B200 Blackwell GPU 快 300 倍。目前,Bolt 尚未發佈任何光柵化或傳統渲染的基準測試,也未公佈精準的發售日期,儘管該公司此前曾表示 Zeus 預計將在 2026 年內上市。 (半導體行業觀察)
來自歐洲的初創公司開始挑戰中美人工智慧領跑者
德國人對來自德國的人工智慧的信心與日俱增。在歐洲人害怕在人工智慧發展中落後於中美之際,來自歐洲的幾家人工智慧初創公司橫空出世,點燃了歐洲人參與競爭且能一決高下的希望。12月1日,人工智慧初創公司黑森林實驗室(Black Forest Labs)在其官網宣佈完成3億美元的B輪融資,估值達32.5億美元。本輪融資由 Salesforce Ventures 和 Anjney Midha (AMP) 共同領投,a16z、Nvidia、Air Street Capital和Northzone等多家機構參與投資。這家來自德國黑森林地區小城費萊堡、僅擁有50名員工的人工智慧初創公司自去年成立以來,迅速受到了全球範圍內資本的追捧,於此成為歐洲發展最迅猛的人工智慧初創公司,也以32.5億美元的估值登上德國最具價值人工智慧公司寶座。2024年8月1日,該公司宣佈正式推出黑森林實驗室,並透露已成功完成3100萬美元的種子輪融資。該輪融資由領投方Andreessen Horowitz(a16z)主導,同時獲得天使投資人Brendan Iribe和Michael Ovitz等的積極參與。同年11月,該公司獲得另一筆1.2億美元的資金輸入。也就是說,截至目前,黑森林實驗室已經在短時間內成功吸引了超過4.5億美元的投資,成了德國人工智慧界絕對的特例。押注該公司的有來自韓國的三星、美國的Adobe,也有來自德國的德國電信。按照該公司創始人羅賓•羅姆巴赫(Robin Rombach)的說法,“投資者的數量遠遠多於我們能接受的程度。”黑森林實驗室主要開發用於圖像和視訊生成的基礎人工智慧模型,其旗下用於生成圖像的Flux模型被稱作為在速度、穩定性和性價比上均保持領先的模型。該模型已經成為全世界範圍內使用率最高的圖像生成模型之一。在開發者平台Hugging Face和GitHub上,該模型也在短時間內成為下載最頻繁的模型之一。據英國《金融時報》近日報導,許多人工智慧研究人員認為,黑森林實驗室的Flux模型,足以匹敵Google的Nano Banana和字節跳動的Seedream 圖像系統,而後兩者原本擁有更龐大的計算資源、工程師團隊,以及YouTube和TikTok等視訊庫作為訓練資料。在分析人士的眼中,這家德國公司很有希望成為一家世界級人工智慧公司。Flux模型經歷了從Flux1的文字生成圖像,到文字加圖像生成圖像,再到Flux 2的文字加多圖像生成新的圖像。 去年11月底,黑森林實驗室發佈了其最新的模型Flux 2,而目前,該公司正在開發視訊生成模型。黑森林實驗室稱,“我們致力於為像素打造前沿模型。去創造鏡頭無法捕捉的事物,建構能夠理解意圖、而非僅僅執行指令的系統,開發讓想像變為現實的工具。”在黑森林實驗室共十人的聯合創始人團隊中,很多人都曾經是Stable Diffusion模型開發的核心成員。有著物理學和電腦背景的羅姆巴赫在德國攻讀博士學位期間和在倫敦加入人工智慧公司Stability AI期間,結交了後來共同創立黑森林實驗室的創始成員。黑森林實驗室引發大範圍內關注的契機在於,馬斯克的社交平台X中整合了該公司的模型,但該人工智慧公司也因此一度陷入美化暴力和傳播虛假資訊的爭議當中。在過去的時間裡,這家初創公司比較神秘,其創作團隊鮮有在媒體中拋頭露面。但最近,該公司創始人羅姆巴赫接受了德國媒體《商報》的採訪,闡述了該公司的野心、發展節奏和盈利模式。羅姆巴赫毫不掩飾地表示,“黑森林實驗室目前已經在圖像生成人工智慧上成為Google的最強勁的競爭對手。” 他同時透露,黑森林實驗室目前最重要的收入來源為面向企業的模型API介面和模型授權許可。最近,該公司與梅賽德斯以及德國電信均建立了夥伴關係,以開發用於行銷的人工智慧模型,而與其他車企的談判也正在進行當中。《商報》引用知情人士的消息稱,在一年多時間內,這家公司的年營收從零一路狂飆到1億美元。按照該企業自己的說法,其業務覆蓋了86%的圖像生成商業市場。最新的一份訂單價值高達3.5億美元,其中,來自大客戶Meta的1.4億美元並不包括在內。彭博社此前報導,Facebook的母公司Meta與黑森林實驗室達成了一項為期兩年的合作協議。這項合作預計將為這家德國公司帶來1.4億美元的收入。黑森林實驗室之所以引發歐洲境內關注,還有一個原因在於,在全球人工智慧模型競賽中,歐洲對自己落後的擔憂與日俱增,對歐洲本土自主開發人工智慧模型的呼聲亦有增無減。作為歐洲人工智慧公司的黑森林實驗室並非孤軍作戰。12月2日,法國人工智慧初創公司Mistral 發佈了其最新的 Mistral 3 開放權重模型系列。此次發佈的十個模型包括一個具有多模態和多語言能力的大型前沿模型和九個較小的、可離線使用且完全可定製的模型。一直以來,Mistral致力於挑戰來自美國的閉源模型。其實無論德國的黑森林實驗室,還是法國的Mistral,它們的崛起的意義已經超越了人工智慧領域。有意思的是,黑森林實驗室有一個高度具有地域色彩的名稱。本身就來自於黑森林的創始人羅姆巴赫對媒體稱,他特意邀請美國投資者前往位於黑森林的弗萊堡,讓他們看看,德國在人工智慧研究上的進度和質量,以及技術競爭上,並不輸給美國。這與英國《金融時報》報導中羅姆巴赫的說法相呼應,他表示將公司總部設在舊金山這個AI團體之間以高薪互相“挖人才”的“超級炒作”之外,是“迄今為止做出的最好的事情”,因為它有助於團隊保持“高度專注”。也正如若姆巴赫對媒體所說的,德國人對來自德國的人工智慧的信心在增加當中,那就是在來自美國的Google等等之外,德國的人工智慧也能成為不相上下的選項。 (FT中文網)
從Google投資Anthropic案例思考AI投資的非排他性
今年三季度Google的財報中,投資收益引人注目,前三季度的浮盈已經達到220億。Google的這類非市場化股權投資通常與其戰略需求,或對其生態系統至關重要的AI 初創公司投資有關。今年的盈利主要來源於對Anthropic的投資。Anthropic是目前全球估值最高的未公開上市AI 公司之一。相比其它股東,Google投資金額較小,但入局早。從Anthropic的籌資歷史與估值變化中,可以看到其受到了資金的極度追捧。2021-2022,早期投資5.8億,來自於現在已經破產的FTX。2023年9月-2024年11月,亞馬遜承諾投資40 億美元。2023年10月,Google承諾投資20億。2024年3月,由 Lightspeed 領投E輪,籌資27.5億,估值達到615 億美元.2025年8月,由ICONIQ Capital 領投,籌資130億,估值達到 1830 億美元。2025年11月,微軟和輝達聯合投資150億。微軟約 50 億美元,輝達約 100 億美元。估值猛增至約 3500 億美元,是Google投資時的87倍!Anthropic是由前OpenAI 的核心研究人員在2021年創立的。其Claude 系列大型語言模型是當前市場上唯一能在性能上與ChatGPT 和Gemini抗衡的頂級模型。Claude與其它模型的不同之處,在於其專注於那些能在近期產生經濟效益的,企業級市場,模型的程式設計能力尤其強大。它對Google的DeepMind和 OpenAI關注的數學推理等領域則投入較少。可以看到,科技公司們正在根據自身技術稟賦和戰略目標,來選擇最能實現商業變現的細分領域進行深度挖掘。市場足夠大,容得下差異化競爭。2024年3月,Anthropic的E輪融資估值為615億美元。一年半後的2025年8月F輪融資,估值為1830億美元。這給Google和亞馬遜帶來巨大的帳面收益。短短兩個月後的11月,微軟和輝達也投資入股,估值幾乎翻倍,達到3500億美元。這說明Google的第四季度將同樣獲得可觀的帳面股權投資收益。Google和亞馬遜投資的主要目的之一是確保Anthropic 在其 AI 模型開發和訓練中,使用自己的雲服務。Google雲在與 Anthropic 簽訂的價值高達數百億美元的合同中,承諾提供大規模的Google自研的TPU AI 晶片,為其提供超過千兆瓦的計算能力,用於模型訓練和擴展。通過融資,Anthropic巧妙地鞏固了所有主要雲服務提供商和輝達的算力支援。從這個案例中可以看到,這些科技巨頭之間的關係錯綜複雜,Anthropic與它的股東們的關係既競爭又合作,還互相投資。比如Gemini 是Claude在產品和技術上的主要對手,而Google雲又提供了Anthropic關鍵的基礎設施。這樣的關聯交易就是大空頭Micheal Burry認為AI有泡沫的依據之一。非排他性值得注意的是,所有這些股權投資和業務上的合約都沒有排他性條款。比如,Google和亞馬遜在投資Anthropic的時候,並不限制Anthropic使用對方的雲。類似的,輝達投資OpenAI時,也不限制OpenAI買別家的晶片。在傳統行業,排他性競爭是主流。股權投資經常作為換取稀缺實物資源,比如礦產,的長期獨家控制權的籌碼。這是因為,傳統行業的市場規模增長速度通常與經濟增長速度持平或略高,是線性增長。在有限的市場中,競爭必然是排他性的。企業會通過法律合同、獨家供應協議、收購競爭對手等方式來消除競爭,實現市場份額最大化和垂直整合。而AI領域的技術和市場特徵與傳統行業截然不同。首先,AI創造了全新的、指數增長的需求,尤其是在算力和應用領域。ai技術的複雜性與垂直整合難度,意味著沒有一家企業能從底層晶片、中介軟體、基礎模型、到應用層都做到最好。每一家都可以在自己擅長的領域發展,而不威脅到競爭對手。比如,Google的TPU晶片即使開始對外銷售,擴大市場份額,也不會影響輝達GPU的需求量。因為兩者服務的是不同的需求對象,而且對兩者的需求都遠大於供應。在市場巨大、資源稀缺、技術複雜這些因素的作用下,合作比排他性競爭能帶來更高的回報。AI巨頭們對前沿公司,如Anthropic、OpenAI的投資,能獲得技術,商業機會和投資回報等多重收益:通過鎖定技術和人才來對衝落後的風險。投資競爭對手的模型可以讓雲巨頭們獲得對最新AI 技術、能力和人才的近距離觀察,有助於他們縮小自身模型的差距。股權合作可以確保最新的頂尖模型優先部署在自己的雲服務上。Anthropic授權Google雲和亞馬遜雲AWS,將 Claude模型整合到Google雲的AI 服務生態Vertex AI和亞馬遜的AI 模型服務平台Amazon Bedrock 上。這允許Google雲和AWS的使用者通過 API 介面,直接在兩者的環境中呼叫 Claude用於建構自己的應用。使用者使用 Claude 模型時,Google雲和AWS會向 Anthropic 支付授權費用。由此,Google和亞馬遜成為Anthropic的戰略合作夥伴和分銷商,而不僅僅是算力供應商。這是AI時代基礎設施與模型技術深度繫結的競合模式。自然而然地,Anthropic盈利能力的提升,推動估值,也會給Google和亞馬遜帶來巨大的投資回報。從Anthropic的角度來看,則獲得了將計算資源進行最優配置的能力。它同時獲得Google的 TPU,亞馬遜的 Trainium/ Inferentia,以及微軟的 Azure的基礎設施支援,可以確保最先進的模型可以運行在最適合它們的硬體上,最大化技術產出。社會意義這些非排他性的投資與合作,還會產生一個更宏大、更具社會意義的結果。那就是促進整個AI行業的技術進步、擴大其社會應用範圍,進而激發全社會對AI的接受度和需求。首先,非排他性能更好地支援分散式創新,更有可能突破技術瓶頸,達到效率的極致化。Anthropic專注於 AI 安全和編碼,OpenAI 專注於通用智能,DeepMind 專注於科學發現。這種多點開花的競爭模式比任何一家公司內部研發都更有效率。巨頭們通過非排他性投資,可以外包一部分前沿研究的風險和成本,同時受益於所有方向的突破。其次,當市場上多個優秀且可信賴的AI 產品(Claude, ChatGPT, Gemini)出現時,企業和公眾對AI 技術的接受度會更快、更廣泛。當前這波由生成式AI 驅動的社會接受速度,在科技史上是前所未有的。參考歷史上,新技術達到1億使用者所需的時間,固定電話用了75年,手機16年,網際網路7年,臉書4.5年,而ChatGPT才僅僅用了2個月。如果用技術採納生命周期來衡量,AI目前正處於從早期採納,向加速滲透過渡的關鍵時期。在個人層面,已經超過數億人在使用AI 進行寫作輔助、程式碼查詢、資訊總結、日程規劃和創意生成。Google的生成式搜尋體驗和微軟的Copilot,正在將 AI 回答直接整合到搜尋結果中,這意味著每一次搜尋都在使用 AI。新一代智慧型手機、電腦作業系統正在將大語言模型作為底層能力內建,使用者在不知不覺中已經在使用AI。企業也已經認識到AI 不是可選項,而是保持競爭力是必須項,正在重金投資部署。Microsoft Copilot、GitHub Copilot 等工具被大規模採購,用於提升知識工作者和程式設計師的效率。企業正在將AI 模型,如Anthropic 的 Claude 或 Gemini,作為新的 API 介面整合到其核心業務系統和軟體中,實現資料分析和決策的自動化。未來當AI模型更加安全、專業和可信賴,垂直領域的關鍵應用也被成功開發和部署後,AI 會真正嵌入到各個傳統行業中,真正提升實體行業在物理世界的生產力。那時,AI 的廣泛應用將創造出目前我們無法想像的新商業模式和工作流程,這反過來會產生對大規模、持續、複雜算力的巨大需求。最終回到巨頭們投資的核心收益:建立未來的盈利基礎。算力消耗本質上是技術被社會接受度提高的最終結果。因為如果AI 不能廣泛應用於社會並改變生產力,那麼對算力的需求就會停滯不前。通過非排他性協議,讓被投資企業取得成功,從而最大程度地激發整個AI 生態系統的繁榮,最終將推動底層基礎設施和巨頭們自身產品的需求。 (一顆南瓜籽的成長)
挑戰國際巨頭,中國初創公司發佈新一代AI訓練晶片
一家由中國科技企業家創立的美國初創公司Enther AI,近日正式發佈了其首款自研AI訓練晶片——Enther TPU。據公司宣稱,該晶片在運行特定AI模型時,其速度可達輝達2020年發佈的A100 GPU的1.5倍,能效提升42%。Enther AI由前Google工程師郭志雄(Zhixiong Guo)於2023年創立。公司在推出Enther TPU的同時,也展示了整合該晶片的E1伺服器節點。每個E1節點搭載4顆Enther TPU,可提供高達10.8 petaFLOPS的BF16訓練算力。Enther AI進一步提出了建構萬卡叢集的藍圖,其設計的“E1超級叢集” 通過光學電路切換網路連線多達2500個E1節點(即10,000顆TPU),旨在為兆參數大模型提供訓練支援。值得注意的是,儘管Enther AI總部位於美國,但其研發活動具有鮮明的跨太平洋特徵。公司的研發團隊主要在中國,這使其發展路徑和動向備受業界關注。在軟體生態方面,Enther AI推出了E-SDK,聲稱其能“無縫”將基於NVIDIA GPU的AI訓練項目遷移至其Enther TPU平台上,並支援PyTorch、JAX等主流AI框架。不過,目前該晶片的公開性能資料均來自Enther AI自身的測試報告,尚未有第三方機構的獨立驗證。此外,Enther TPU作為市場新入者,其實際量產交付能力、在更廣泛AI工作負載下的穩定性以及能否成功建構起持續的開發者生態,仍是其未來需要面對的關鍵挑戰。在全球AI算力競爭日益激烈的背景下,Enther AI的亮相為市場帶來了新的選擇。然而,從技術發佈到獲得產業界的廣泛認可和採用,這家年輕的初創公司仍有很長的路要走。其後續發展,特別是產品的實際應用表現,將成為衡量其成功與否的真正試金石。 (晶片行業)
沒想到,驅動下一代美國創新的,竟然是中國搞出來的AI……
下一個時代的AI領導力,將不再取決於誰的模型最強大,而取決於誰的模型無處不在。日前,矽谷頂級風險投資公司Andreessen Horowitz(a16z)的普通合夥人馬丁·卡薩多(Martin Casado)在接受《經濟學人》採訪時,透露了一個驚人資料:在其投資組合中,高達80%的AI初創公司,其底層技術正建構於來自中國的開源大模型之上。01. 翻轉發生資料不會說謊:我們來看模型的下載量。在AI領域,模型的下載量如同一個國家的數字GDP,直觀地反映了其技術影響力與生態系統的活躍度。要看最公正的資料,那得看全球最大的AI社區和模型託管平台Hugging Face。最近,AI研究員內森·蘭伯特(Nathan Lambert)繪製的一張圖表,直觀地記錄了這場“翻轉”的軌跡。https://www.interconnects.ai/p/on-chinas-open-source-ai-trajectory圖表上,代表中美兩國開源模型累計下載量的兩條曲線,從2023年下半年開始,代表美國的藍線雖保持增長,勢頭也很不錯,但中國的紅線更猛,以更陡峭的斜率向上竄,在2025年上半年會成功超越美國,並預計在2026年上半年衝向驚人的3.2億次下載量,建立起決定性的領先優勢。蘭伯特在這張圖上標註了一個詞:“The Flip”(翻轉)。如果你看最近Hugging Face的趨勢榜單,幾乎都被中國模型“屠榜”:阿里巴巴的Qwen(通義千問)系列、百度的ERNIE(文心)大模型、DeepSeek(深度求索)以及月之暗面(Moonshot AI)的Kimi等等模型,長期佔據下載量和關注度的前列。即使有些模型名字看上去不像中國的,但你點進去,大機率會發現我們的開源模型是以base model的面目出現的。更讓人震驚的是另一個全球性平台 Design Arena,主要是設計相關功能,其模型排名由使用者直接投票決定,我們看到:排名前18的開源大模型均為中國模型,而第一個非中國模型(來自美國)僅排在第19位。02. 雙重優勢問題是,這一切是怎麼發生的呢?為什麼美國初創團隊要用中國AI模型呢?很顯然,一大原因就是成本。允許我們舉個現實的例子:優一家名為“LinguaBot”的AI翻譯初創公司,每月需處理10億tokens的請求。如果使用OpenAI的API,根據模型不同,其每月的帳單至少在1萬到2萬美元之間。但如果使用中國的開源模型,如Qwen、DeepSeek系列,它們大多遵循Apache 2.0等寬鬆的開源協議,允許開發者免費下載、本地部署和微調,完全掌控自己的資料和應用。創業公司前期可能需要投入數千美元購買或租賃雲端伺服器,但此後的每月營運成本可能驟降至2000至4000美元——直接打了骨折!對於任何一家需要進行大量模型微調、測試和迭代的初創公司而言,這節省下來的每一美元,都是其在激烈市場競爭中得以存活的寶貴燃料。而且說實在的,開源模型已經很優秀了。它們在多個關鍵基準上實現了“性能平價”(Performance Parity),甚至在特定領域實現了超越。比如DeepSeek的V3模型在多項評測中擊敗了Meta的Llama 3.1;阿里巴巴的Qwen系列在Hugging Face等多個榜單上名列前茅;而百度的ERNIE 4.5系列則在混合專家(MoE)架構上取得了顯著突破,用更少的計算資源實現了媲美更大參數模型的性能。所以除了初創企業之外,像愛彼迎(Airbnb)這樣的矽谷巨頭,也公開承認正在“重度依賴”中國的開源AI。愛彼迎CEO布萊恩·切斯基(Brian Chesky)在一次採訪中坦言,其用以驅動核心AI客服系統的,正是阿里巴巴的通義千問(Qwen)模型。儘管愛彼迎採用了包含OpenAI和Google在內的13個不同模型,但通義千問是當之無愧的“頭號主力”,因為它在多語言處理上的具有非常明顯的優勢,機器人專家的創始人Nicolas de Cameret評價道:通義千問的多語言支援是原生的,聽起來自然得多。這種能力對於一個業務遍及全球220個國家的平台而言,就是核心競爭力。切斯基的理由直截了當:“ChatGPT的整合能力還‘沒有完全準備好’,而通義千問‘非常好’,而且‘又快又便宜’。”03. 圍牆花園 V.S. 開放廣場至此,你可以看到中美兩國AI發展的不同路徑:美國最頂尖的模型被嚴格地保護在“圍牆花園”內;而中國的AI實驗室則採取了截然不同的“廣場策略”,以極高的頻率發佈新模型、新權重,鼓勵全球開發者進行“二次創作”。這種開放性形成了一個強大的飛輪效應:更多的下載意味著更多的應用、更多的反饋和更多的改進。正如一位Reddit使用者評論道:“如果80%的美國創業公司都在用中國模型,你可以安全地假設,在全球其他地區,這個比例可能接近100%。”這場從矽谷開始的“秘密”轉向,正在成為全球性的陽謀。當前開源AI的格局,不禁讓人聯想到上世紀90年代的Linux。開源,通過匯聚全球智慧,最終在商業上戰勝了封閉。AI的革命,似乎正在重演這一幕。美國在引領了早期GPT系列模型的發展後,出於對“安全”的擔憂和商業利益的考量,逐漸關上了開放的大門。而中國,則抓住了這個戰略機遇期,選擇了一條“以開放換影響”的道路。眾所周知,美國試圖通過晶片出口管制等手段遏制中國AI的發展,但這反而加速了中國在自主AI框架上的自給自足。而當全球開發者越來越多地基於中國的開源模型進行創新時,中國實際上就在輸出技術標準和行業規則。這是一種比硬體出口更深遠、更持久的“軟實力”建構。自然,美國決策層已經意識到了這一威脅。一位不願透露姓名的西方網路安全專家說:“當你將核心業務邏輯運行在一個中國模型上時,你必須考慮到潛在地緣政治層面上的‘後門’風險。倘若未來中美關係進一步緊張,這些模型的更新、維護和社區支援是否會成為被利用的籌碼?”於是我們看到,川普政府在2025年7月發佈了《美國AI行動計畫》,其中明確提出,需要確保美國擁有“基於美國價值觀的領先開源模型”。隨後,OpenAI也像征性地發佈了其多年來的首個開源模型gpt-oss,但這被普遍視為一種被動的、遲緩的回應。更具實質性的努力來自於由蘭伯特等人倡導的“美國真正開放模型”(ATOM)項目,該項目呼籲政府和企業界聯合投入,重新奪回開源生態的主導權。在不少美國人看來,這場反擊不僅是技術之爭,更是一場關於未來AI應遵循何種價值觀和治理模式的“標準之戰”。04. 未來中國的開源AI模型下載量超越美國,以及在矽谷創業圈的高滲透率,標誌著一個新時代的開端。對中國而言,絕對稱得上是階段性的勝利——這一階段的成功,首先驗證了開源戰略的正確性。面對技術封鎖,開源不僅是有效的突圍方式,更是通過建構全球開發者社區,將中國的技術轉化為事實標準的聰明策略。其次,它展現了中國獨特市場優勢的巨大潛力。“人工智慧+”行動的核心,就是將AI模型與龐大的製造業、醫療等實體經濟相結合,這種大規模應用場景是任何其他國家都難以複製的護城河。同時,在高端晶片受限的背景下,以DeepSeek為代表的模型通過演算法和架構創新,證明了一條“低算力、高效能”的差異化路線是完全可行的。然而,下載量的激增並不能完全掩蓋潛藏的結構性問題。最現實的挑戰在於商業模式:如何將巨大的影響力轉化為可持續的收入,以支撐長期的研發投入,這是所有開放原始碼專案必須回答的問題。更深層次的風險則在於核心技術的自主可控,儘管模型層面進步很快,但在高端晶片、開發框架等底層技術上,“卡脖子”的風險依然存在。此外,隨著影響力的擴大,如何在全球範圍內建立信任與安全體系,回應地緣政治帶來的顧慮,將直接決定這條路能走多遠。最終,所有這些都指向一個根本目標:完成從應用大國到基礎研究強國的轉變,補齊原創性理論的短板。人工智慧的未來,不太可能由一家公司或一個國家壟斷,它將是一個由不同技術路線、商業模式和文化價值觀共同塑造的多極化世界。在新的競爭範式下,領導力不再僅僅取決於誰擁有最頂尖的模型,而在於誰的技術能夠成為全球創新的基礎。而幸運的是,中國已經憑藉其堅定的開源戰略,佔據了極其有利的位置。 (TOP創新區研究院)
估值上兆、現金流見底:AI盛宴背後的真相沒人敢說
【新智元導讀】AI泡沫,比網際網路泡沫還危險?投資人都在裝作看不見?最具價值的私有AI初創,都有誰?投資人Deedy Das總結了目前估值最高的15家AI初創,以及最新的公開的營收和增長情況。OpenAI、xAI和Anthropic毫無意外霸榜前三。OpenAI以約5000億美元估值領跑,xAI、Anthropic緊追;零收入的Figure AI、SSI依然躋身超獨角獸行列。目前,上榜企業最少100億美元估值,最多為5000億美元。0客戶、0產品、0計畫,估值照樣上千億沒有客戶、沒有產品、也沒有計畫,有些AI初創估值高得嚇人——說的是Figure AI、Safe SuperIntelligence和Thinking Machiens Lab。根據Deedy Das的統計,這三家公司收入為零,但估值分別為390億美元、320億美元和120億美元。華盛頓大學電腦科學教授、《2040》和《終極演算法》作者Pedro Domingos,直指Ilya的Safe Superintelligence最搞笑。這些AI初創的融資,著實讓人看不懂——估值幾乎沒有體現任何風險,但再強的技術也存在失敗的可能。目前,市場對未來的樂觀程度接近「完美執行」的預期——而且別忘了,微軟擁有OpenAI的全部訪問權,包括其IP,但卻並沒有滿足OpenAI提出的所有算力採購需求。要知道,微軟擁有「優先購買權」,本可以選擇接下Oracle那筆訂單,但最終沒做。微軟CEO納德拉一直以理性著稱,如果連他都不完全下注,那我們至少要保持審慎。即便AI技術不會停滯,但相關的金融泡沫正在形成,且比網際網路泡沫更危險。一個經常被忽略的事實是,如今很多科技公司的巨額支出,其實不是用來開闢新業務,而是用來「保住」原有的護城河。大家都被捲入了一場已經失控的競賽。正如Meta的祖克柏所言,「投入幾千億美元的風險,小於被邊緣化的風險。」這或許能夠解釋這些巨頭為何必須奮力一搏。但資本市場的責任是:在估值倍數中精準反映風險。而現在,市場明顯沒做到這一點。燒錢循環 AI公司和晶片公司的合謀當前AI行業的估值水平,已遠超2000年網際網路泡沫高峰期。與2000年不同,當時的公司至少有「夢想」和「使用者增長」,而今天的AI公司卻普遍缺乏清晰的商業模式和盈利能力。AI基礎設施支出(如資料中心、晶片)與實際收入嚴重不匹配,形成「燒錢循環」:AI公司燒錢→晶片公司賺錢→AI公司繼續融資→繼續燒錢。過去,在資助獨角獸初創公司的經典路徑中,一般是:初期由大型風險投資公司出資(規模在10億至100億美元之間),發展到100億至300億美元時,像軟銀這樣的巨頭接手,接著就準備IPO(首次公開募股)。但像OpenAI和Anthropic這樣的AI實驗室,如今並不打算走上市這條路,因為一旦上市,就意味著它們的商業模式和盈利邏輯將被全面拆解,分析師會深入質詢那些是合理的、那些站不住腳。即便選擇IPO,他們也無法籌集到足夠的資金。現在一家AI初創所需融資,已經超過了過去五年整個科技五巨頭自由現金流的總和。今年,OpenAI的營收預計在150億至200億美元之間。即便明年翻倍甚至三倍增長,這個數字也遠遠無法支撐其擴張所需的投資體量。因此,OpenAI未來還得持續融資,甚至可能會舉債。此外,即使有這些收入,OpenAI今年預計仍將虧損約90億美元,虧損將在未來繼續擴大,預計到2028年將達到470億美元。但問題是,誰有足夠的實力,一次性投入超過1000億美元?目前唯一有能力這麼做的似乎只有Nvidia。而Nvidia之所以願意出這筆錢,很大程度上是因為OpenAI如今是「AI無冕之王」。最近,在播客中Semianalysis的Dylan Patel表示,目前OpenAI和Anthropic兩家公司就買下了全球三分之一的Nvidia GPU。問題不僅在於這是一種「循環投資」的模式,更在於當項目規模達到1000億美元以上時,唯一可能出資的就只剩下像Nvidia或蘋果這樣的公司。更關鍵的是,即便Nvidia出了1000億,OpenAI還是需要籌集剩下的1.4兆美元——那又該誰來出這筆錢?另一個值得警惕的訊號是,這類融資交易中開始越來越多地引入債務。Meta最近也為一個資料中心融資290億美元,其中260億美元是債務,該資料中心本身則成為了貸款的抵押品。Oracle也完成了一筆380億美元的債務融資。微軟:寧願外包,不要晶片至於超級雲廠商如微軟等,也開始向新興雲端運算服務商(neocloud)尋求合作。比如,微軟與Nebius達成的174億美元(未來可能擴展至194億美元)協議就是其中之一。微軟為何與新興雲服務商(neoclouds)合作?因為它們正在目睹企業客戶對算力的強勁需求。微軟想要維持客戶關係、讓客戶滿意,但又不想繼續在CapEx上加碼。因此,它更願意把風險轉嫁出去。對客戶而言,誰提供的底層設施並不重要,他們只要結果。而一旦熱潮過去,那些舊晶片的損失就由neocloud承擔,不會體現在微軟帳上。對微軟來說,這是「雙贏」:既保住了客戶,又避免了晶片貶值帶來的損失。若未來需求持續增長,微軟也有足夠時間建設自己的資料中心,重新收回算力基礎。而在當前的「AI狂熱」周期裡,把「晶片貶值速度快」的風險外包出去,比自己承受更為明智。這也是微軟與neocloud合作的關鍵原因之一:他們對資本支出的未來不確定,因此更傾向於將其轉化為營運支出(OpEx)。更令人擔憂的是,現在連晶片本身都被裝入SPV中作為抵押品進行融資。不過,根據Google趨勢的資料,上個月中,網路上對「AI泡沫」的Google搜尋量急劇下降。這表明人們對估值的擔憂正在減輕。AI的繁榮可能會停止,但它可能不會破裂。雖然可能存在泡沫,但當每個人都發現它時,可能是它最不可能破裂的時刻。 (新智元)
《指環王》新成員來襲!美國科技富翁打造新矽谷銀行
美國多位科技界億萬富翁籌備創辦新銀行Erebor,以填補矽谷銀行倒閉後留下的市場空白,服務初創企業和加密貨幣公司。美國多位科技界的億萬富翁正籌備創辦一家新銀行“Erebor” ,旨在填補矽谷銀行(SVB)倒閉後留下的空白,服務包括加密貨幣公司在內的初創企業。知情人士透露,Erebor將獲得以科技界一眾重量級投資者支援,包括國防技術公司安杜里爾(Anduril)的聯合創始人帕爾默·拉基 (Palmer Luckey) 、帕蘭蒂爾(Palantir)的創始人喬·朗斯代爾(Joe Lonsdale)等。另外,帕蘭蒂爾的另一位創始人彼得·蒂爾(Peter Thiel)旗下的創投基金Founders Fund,也將是Erebor的投資者之一。在去年美國大選中,這三人都是川普的重要“金主”。值得一提的是,與“安杜里爾”和“帕蘭蒂爾”一樣,Erebor名字也出自托爾金的奇幻小說《指環王》,該銀行以書中的藏寶地“孤山”命名,安杜里爾是書中的“西方之焰”劍,帕蘭蒂爾則是神奇的水晶球。這些億萬富翁們希望Erebor這家銀行能接手矽谷銀行曾經佔據的市場業務——成為那些被傳統銀行拒之門外的高風險科技公司和加密貨幣企業的首選貸款機構。Erebor已向美國政府申請全國性銀行牌照,該牌照將允許銀行在全美國範圍內營運。根據本周公開的申請檔案,Erebor將為企業和個人提供傳統銀行產品,以及與虛擬貨幣相關的產品和服務。檔案顯示,該行的目標客戶是美國“創新經濟”中的企業,尤其是那些專注於虛擬貨幣、人工智慧、防務和製造領域的科技公司,同時也服務這些公司的員工和投資人,還計畫與“希望進入美國銀行體系”的非美企業合作。據接近項目的人士透露,Erebor的聯合創始人在2023年矽谷銀行倒閉後就開始討論創辦新銀行。當時矽谷銀行被第一公民銀行收購,部分矽谷銀行的銀行家跳槽至匯豐美國。自矽谷銀行倒閉以來,投資人和企業高管普遍抱怨新興科技企業在銀行服務方面面臨缺口,一些初創公司難以獲得原有水平的融資管道。Erebor在申請檔案中稱,將通過服務“未被傳統或新興金融機構良好覆蓋的客戶群體”來實現差異化,尤其關注那些“信貸管道不足”的群體。分析預計,近期火爆的穩定幣預計將成為該銀行業務的重要組成部分。申請檔案也提及,Erebor的目標是成為“開展和促進穩定幣交易方面監管最嚴格的實體”。知情人士透露,拉基和朗斯代爾預計不會參與銀行日常管理工作,該行將由兩位聯席CEO領導,分別是Jacob Hirshman(曾是Circle的顧問)和Owen Rapaport(數位資產合規軟體公司 Aer Compliance聯合創始人兼CEO)。銀行總部將設於俄亥俄州哥倫布市,並在紐約設有辦公室,但客戶服務將僅通過數字管道進行,所有產品和服務都將在手機App和官網上推廣。 (財聯社矽谷NEWS)