#AI初創
Anthropic有望衝擊9000億美元估值
最新消息顯示,Anthropic正在考慮一輪新的融資,該輪潛在的融資可能使其估值超過9000億美元,有望超越其長期競爭對手OpenAI,成為全球估值最高的AI初創公司。知情人士透露,Anthropic正在與投資者接洽,相關報價可能使其估值較當前水平增加超一倍。他們指出,目前的討論仍處於非常早期的階段,公司尚未接受任何投資要約。報導稱,此次磋商尚未公開,但當下正值Anthropic借其AI軟體爆發式成功而加大融資力度之際。與此同時,公司也在積極尋求更多基礎設施,以滿足不斷增長的產品需求。值得一提的是,Anthropic今年2月完成300億美元融資時,就有投資機構試圖以8000億美元甚至更高估值入股。另有消息稱,Anthropic正考慮最早於今年10月進行IPO。上周,Google承諾以3500億美元估值(這與今年2月融資時的估值相同)向Anthropic投資100億美元,並可能在後續追加300億美元,強化兩家公司之間的關係。亞馬遜也在以3500億美元估值向Anthropic投資50億美元,並計畫在未來逐步追加200億美元。目前尚不清楚這兩家公司是否會參與即將到來的新一輪融資。Anthropic成立於2021年,創始團隊大都來自OpenAI,包括OpenAI前研究副總裁達里歐·阿莫代(Dario Amodei)——目前阿莫代擔任公司的CEO。公司曾在2023年的融資推介書中寫道,“我們相信,公司將在2025年或2026年訓練出最好的模型,屆時它將遠遠領先其他競品,任何公司都無法在隨後的周期中追趕上來。”本月早些時候,Anthropic發佈了一款名為“Mythos”的新模型,據稱能夠識別主流軟體系統中大量此前未被發現的安全漏洞,並能開發出相應攻擊手段。由於潛在風險過高,Anthropic未對外全面發佈,僅允許少數企業在自身繫統中進行測試。隨著Anthropic勢頭增強,其也對OpenAI形成了更大壓力。本周早些時候,有報導稱OpenAI未能實現其內部多項目標,拖累了一眾與其關係密切的上市公司。 (科創板日報)
李開復陸奇重倉同一家Harness智能體公司,李笛帶隊,4個月2輪融資3-5年糧草
多智能體賽道爆發,Harness成為破局關鍵,資本加速佈局。剛剛,成立僅四個多月的AI初創公司明日新程(Nextie),宣佈連續完成兩輪融資。其中,天使輪由創新工場、Atypical Ventures聯合領投,奇績創壇繼續跟投。原微軟全球副總裁David Ku等個人投資者,以及公司獨家財務顧問安可資本等,也紛紛看好入局。公司表示,當前資金儲備已夠未來三到五年持續創新所需。幕後掌舵人,正是“小冰之父”、微軟亞洲互聯網工程院原副院長李笛,以及與他並肩多年的微軟小冰創始核心班底。△李笛在奇績創壇路演日上壓軸登場在一級市場整體降溫、機構出手愈發審慎的當下,一家成立不到半年的公司卻能連融兩輪,更迎來陸奇、李開復兩大AI圈頂級“風向標投資人”罕見同框、同步押注,這本身就是一種訊號,體現了資本對其團隊、技術、賽道的多重認可。所以這筆資金將投向何方?團隊給出的答案很明確,大方向只有一個——Harness群體多智能體。當下,無論是持續霸屏的OpenClaw,還是近期風頭正盛的Hermes Agent,AI Agent正以前所未有的熱度席捲整個行業。隨著實踐的不斷深入,Harness的價值逐漸清晰。包括OpenAI、Anthropic在內,越來越多頂尖團隊已意識到,Harness是智能體落地的核心支撐。有意思的是,這個判斷,明日新程團隊負責人李笛早在去年就已給出。去年12月7日,奇績創壇Demo Day上,李笛壓軸登場,系統性拋出群體智能理論,並對Harness趨勢有了準確預判和率先佈局。雖然他本人很低調:我們現在其實都比較羞於說我們早就看到了什麼,這個是沒有用的。這個世界上永遠都是,你做它比你看到它要難得多。就像《駭客帝國》裡有句話,知道路與走路,二者截然不同。如今,該賽道已成為投資人佈局AI下半場的核心標的。而明日新程,也已在這一領域形成了領跑態勢。Harness為何會成為行業共識?明日新程又憑什麼能夠殺出重圍?團隊下一步又將如何落地?量子位與李笛聊了聊。糧草已備,重倉佈局Harness群體多智能體OpenClaw火遍全網,無疑為智能體賽道按下了加速鍵,讓行業第一次真切看到了智能體主動幹活的潛力。但當人們開始把它當“正式員工”用時,問題來了。這事兒要說還得Meta最有發言權……Meta安全對齊總監Summer Yue的信箱,曾一夜之間被OpenClaw清空所有郵件。此事過去沒多久,OpenClaw未經授權擅自行動,將敏感的公司和使用者資料,洩露給無權限員工長達近倆小時。究其原因,該框架在工程實現上,尚處於早期階段,缺乏Harness等級的技術注入。在處理24小時以上的長程複雜任務時,其Token消耗量巨大,效果卻常常不盡如人意,穩定性與安全性仍有很大提升空間。用李笛的話來說,任何一個超級智能個體,無論它的智能水平達到什麼程度,都一定有盲區,沒有辦法自我糾偏。而當超級智能個體處理長程任務時,錯誤會隨著時間累積被指數級放大。隨著行業實踐的深入,AI廠商逐漸關注到這一問題。Harness,如今已成為AI工程領域的新共識。所以,Harness到底是什麼?從本質來看,Harness意為“馬具”,類比到AI領域,就是連接“模型(馬匹)”與“人類需求(騎手)”的核心框架。它不直接參與任務執行,卻能通過明確的約束、規範與協同機制,引導多智能體高效協作,避免失控,實現“約束換自主”的核心價值,這也是其區別於Prompt Engineering、Context Engineering的核心所在。今年2月,OpenAI發佈官方Blog《Harness Engineering: Leveraging Codex in an Agent-First World》,通過實驗證明AI是可以獨立完成全流程開發的執行主體,但必須有一套框架來駕馭它。通過Harness Engineering,3人工程師小組在5個月時間裡,可以利用Agent建構百萬行程式碼的產品。Anthropic最近也發佈了新Agent架構Managed Agents,技術文件中也有反覆強調“Agent Harness”。而明日新程在這條路上,堅持得比別人更專注一些。不同於行業內對Harness的單一架構解讀,明日新程所佈局的“Harness群體多智能體”,是將Harness工程化理念與群體智能深度融合的全新體系。它並非簡單的“多智能體+約束規則”,而是以原生群體智能與認知模型為核心,讓眾多具備不同認知能力、不同功能定位的Agent,按照明確的規則協同工作、互相校驗、迭代最佳化。李笛進一步解釋,Nextie的Harness核心包含三個關鍵元件:上下文管理、參與其中的多智能體、多智能體協同方法。其中,多智能體協同方法最為關鍵,團隊內部將其稱為“認知碰撞”,即通過辯論、挑戰、反思、同行評審、投票等方式,讓多智能體真正實現思辨與互補,而非“表演式一致”。上下文管理,則確保多智能體在協同過程中獲取的資訊精準、全面且適度,避免因資訊過載或偏差導致荒謬結果;Agent池最佳化,指的是根據任務需求動態搭配不同角度、不同功能的Agent,實現協同效率最大化。這種體系既能解決OpenClaw等框架的長程協同痛點,讓多智能體在長周期任務中保持穩定高效;又能通過群體思辨、共識機制,打破單一Agent的認知盲區,輸出經過權衡的最優解,真正實現“群體智能大於個體智能之和”。這也是明日新程對多智能體賽道未來的核心判斷。這其中的種種思考,繞不開一個詞——協同。“協同”這道題,他們在小冰時代就思考了李笛團隊的佈局並非一時興起。“自2022年以來,我們一直在準備這個時刻”,李笛把這段蟄伏期拆成了幾個關鍵節點。第一個節點,是在2022年底。彼時,Transformer架構的合理性已被徹底驗證,其顛覆性潛力讓行業看到了全新可能。在當時,團隊受到了決策體系的限制,但李笛最終還是帶著團隊自籌算力,把這條線先跑了起來:我們手裡有一套基於上一代技術的框架。我們能清晰感知到框架本身的潛力,但它被上一代技術拖累了。當看到新技術出現時,我們眼前一亮,很多過去棘手的難題,終於有了破解的可能。但興奮之餘,一個更為根本的問題浮現出來:有些障礙,不是靠模型能力變強就能繞過去的。這個問題,種子早在小冰時代就已埋下。團隊最初的目標就不止於打造一個“小冰”,而是建構千千萬萬個能精準匹配使用者需求、且彼此配合的AI。但實踐中他們發現,單個Agent再聰明,一旦放進多智能體場景,局面就失控了。要麼是“表演式一致”,表面上一團和氣,實則誰都沒往深裡想;要麼互相衝突內耗,整體效率還不如單干。完全依賴模型自身驅動協同,遠遠不夠。於是,一條新的研究方向被李笛團隊單獨闢出來:多智能體之間,到底應該怎麼協作?在他們看來,唯一的參考藍本,就是人類社會。畢竟,人類是迄今所知的、唯一實現了大規模高級認知協同,並持續產出價值的群體。為此,團隊還專門梳理了1800-2020年整整220年的人類文獻,只為拆解“群體智慧”的演進脈絡。時間來到2023年年初,團隊提出CoT是關鍵。他們自研了“小冰鏈”(X-CoTA),驗證了思考過程透明化的核心價值。小冰鏈僅使用了GPT-3約2%的參數量,便實現了可觀測、可追溯的思維鏈建構,並能夠在推理過程中即時獲取外部資訊、做出行動決策。實際上,CoT也是多智能體協同大計畫中的一塊關鍵拼圖。在團隊的構想裡,真正高效的協同,不能只共享結論,更要同步思考過程。就像人與人協作,只有知道對方的推導邏輯,而非僅僅拿到一個結果,才能實現超越表層的深度配合。到了2023年年底,團隊做的開源大模型性能超越了Meta同期產品。他們欲乘勢而上,提出研發推理模型的新計畫,但在當時的決策框架下,這個方向再次被擱置。2025年12月9日,李笛帶領微軟小冰創始核心團隊成立新公司明日新程(Nextie)。如今,技術條件、市場環境、團隊狀態終於迎來同頻共振的時刻。團隊現在手握完全的決策權,可以心無旁騖地深耕Harness群體多智能體賽道。延續對“多智能體協同”的長期思考,明日新程團隊組建之初,便將核心方向鎖定為原生群體智能與認知模型。今年2月份,團隊打造的首個原生群體智能平台——“糰子(tuanzi.ai)”發佈內測版。量子位在產品剛發佈時,就上手實測過:使用者提出問題後,幾十個Agent成團“圍坐一桌”,各抒己見、互相補充、辯論交鋒,甚至還有投票表決、同行評審這樣的專業環節。它不追求單一智能體的能力極致,而是聚焦“群體協同價值”,既能勝任高認知複雜度的深度研究任務(通過多智能體思辨、碰撞,破解單一模型的認知侷限),也能適配以OpenClaw為代表的長程多智能體協同、大規模群體模擬等核心場景,真正將Harness理念落地到了產品層面。在團隊設計的視角完備性、辯證深度、落地實操性、隱含訴求滿足度、決策五維度評測指標中,Nextie綜合表現顯著優於競品。不僅超過了包括ChatGPT-5.2 Thinking在內的單一大模型;同時,在達到同等思考深度的情況下,整體計算消耗(Token)可降低約50%。此外,前段時間引發關注的“衛士蝦”TuanziGuardianClaw,則是群體智能能力的又一次實戰驗證。這只專門堵OpenClaw安全漏洞的Agent,完全由糰子群體智能體自主協同設計而成。量子位還打探到,目前明日新程內部大量使用Agent作為“人機共生的同事”,採用“常駐Agent+臨時Agent”的協作模式——常駐Agent負責常規開發與產品設計,臨時Agent根據具體任務需求動態補充。“衛士蝦”就是安全領域的臨時Agent與常駐Agent協同完成的。“小冰島”將以新形態重現談到近期產品規劃,李笛向我們透露了團隊醞釀已久的全新動作。他們正在全力打造一款形態接近“小冰島”的全新產品。它不再侷限於簡單陪伴,而是能夠協同完成各類複雜、長期任務,讓一群Agent真正做到幫使用者幹活、陪使用者成長,並在持續互動中與使用者建立深度繫結關係。李笛表示,新產品最大的延續,在於小冰島最初的設計理念:觀察圍繞每一個人,究竟配備一群怎樣的Agent才是最適配的。每個人的需求不同,有人需要工作支援與情感陪伴兼顧,有人更需要理性、專業的決策輔助。我們要做的,就是讓Agent群體真正貼合使用者本身。而產品最核心的升級,則是技術層面的全面迭代,深度融入糰子的Harness群體智能能力。李笛解釋,當年做小冰時,受限於技術水平,很多複雜的協同邏輯只能靠工程抹平,無法實現真正的智能協同;如今有了大模型與Harness,終於能實現當初的設想。以前在小冰島上,你告訴一個AI“我失戀了”,這個AI無法判斷是否要把這個私密資訊傳遞給其它AI,要麼所有人都來安慰你,讓你尷尬;要麼只有這一個AI知道,無法形成真正的情感支援。但現在,Agent會通過智能判斷,做出最合理的反應,你的每一次互動,都會在Agent群體中產生智能、合理的漣漪。未來,使用者可以擁有一組像OpenClaw一樣的自主Agent,他們能夠根據你的自身需求靈活調整。換句話說,這群Agent,從來都只是為你而存在。由此,這也將打開多智能體全新的應用場景。By the way,新版“小冰島”預計本月底推出~ (量子位)
晶片初創公司,單挑輝達和博通
日前,一家名為Upscale AI的晶片初創公司宣佈。已完成 2 億美元的 A 輪融資,旨在挑戰輝達在機架級 AI 系統交換機領域的統治地位,與思科、博通和 AMD 等公司展開競爭。據該公司在新聞中介紹,本輪融資由Tiger Global、Premji Invest和Xora Innovation領投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures參投。此次融資使Upscale AI的總融資額超過3億美元。他們進一步指出,投資者的迅速湧入反映了行業日益增長的共識:網路是人工智慧擴展的關鍵瓶頸,而旨在連接通用計算和儲存的傳統網路架構從根本上來說並不適用於人工智慧時代。在他們看來,關鍵的區別在於:傳統網路連線的是終端節點,而人工智慧網路則統一整個叢集。隨著專用人工智慧計算的不斷擴展,它越來越受到改造或專有網路架構的限制。傳統的資料中心網路解決方案是為人工智慧出現之前的世界而設計的,而不是為機架級規模所需的大規模、高度同步的擴展而設計的。一個旨在撼動輝達護城河的團隊大家都知道輝達的GPU,但正如我們再很多報導中所說,這家巨頭在網路方面也表現很不錯。受人工智慧資料中心連接需求強勁的推動,輝達2026財年第三季度的網路業務收入同比增長162%,達到81.9億美元,這已經遠超他們當年收購Mellanox所耗費的資金。NVlink也成為了輝達當之無愧的護城河。考慮到當前單晶片性能擴展乏力,Scale Up和Scale Out的連接需求在未來很長一段時間必將成為主流。換而言之,如果能夠製造出高基數(即連接埠數量眾多)且連接埠間總頻寬高,足以與輝達NVSwitch記憶體架構和NVLink連接埠相媲美的UALink交換機的公司,必將大賺一筆。Upscale AI,就是一家抱著這個理想而成立的公司。而該公司的創始人Rajiv Khemani,則是行業中讓人如雷貫耳的連續晶片創業專家。據介紹,Rajiv Khemani曾擔任Sun Microsystems公司的高級產品經理,負責Sparc伺服器和Solaris作業系統。他還曾在NetApp和英特爾公司任職,負責多個業務部門的戰略和市場行銷。2003年,他出任晶片初創公司Cavium Networks的首席營運官。該公司成立於2000年,最初以生產MIPS處理器起家,但後來憑藉2014年推出的ThunderX伺服器CPU進軍Arm伺服器市場,並因此聲名鵲起。同年,Cavium收購了新興可程式設計交換機ASIC製造商XPliant。2016年6月,Cavium斥資13.6億美元收購了QLogic的儲存業務。2017年11月,晶片巨頭Marvell斥資60億美元收購Cavium,正式進軍資料中心領域。Khemani 於 2015 年離開 Cavium,成為 Innovium 的聯合創始人兼首席執行長。Innovium 是一家設計高頻寬、極簡主義超大規模乙太網路交換機 ASIC 的公司,其產品名為 TeraLynx。Marvell於 2021 年 8 月以 11 億美元收購了 Innovium ,以進一步推進其資料中心晶片的雄心壯志。到了2022年2月,Rajiv Khemani和Barun Kar創立了一家名為Auradine的公司,該公司致力於研發4奈米和3奈米製程的人工智慧和區塊鏈計算及網路晶片。Auradine在2024年之前完成了兩輪融資,共籌集了1.61億美元,並在2025年4月的B輪融資中又籌集了1.53億美元。到了2024年5月,Khemani和Kar決定將Auradine的部分網路業務剝離出來,成立一家名為Upscale AI的新公司,以便更直接地開拓預計到本十年末將達到1000億美元的人工智慧互連市場。在成立之初,該公司得了英特爾、AMD 和高通等公司的支援,值得一提的是,Kar是Auradine和Upscale AI的另一位聯合創始人,曾任Palo Alto Networks(一家防火牆和其他安全產品製造商)的工程高級副總裁兼創始團隊成員。在此之前,早在網際網路泡沫時期,Kar就曾擔任Juniper Networks的高級系統經理,負責管理其乙太網路路由器和交換機產品。Upscale AI表示,公司的策略是將 GPU、AI 加速器、記憶體、儲存和網路整合到一個單一的同步 AI 引擎中。作為 Upscale AI 戰略的核心要素,專為擴展而打造的 SkyHammer解決方案通過縮短加速器、記憶體和儲存之間的距離,實現了統一機架,並將整個堆疊轉換為一個統一的同步系統。Upscale 的 AI 平台基於開放標準和開源技術建構,並積極推進這些標準和開源技術的發展,包括 ESUN、Ultra Accelerator Link (UAL)、Ultra Ethernet (UEC)、SONiC 和交換機抽象介面 (SAI)。該公司積極參與 Ultra Accelerator Link 聯盟、Ultra Ethernet 聯盟、開放計算項目 (OCP) 和 SONiC 基金會。憑藉新增的 2 億美元融資,Upscale AI 將推出首個涵蓋晶片、系統和軟體的全端式交鑰匙平台,旨在連接未來通用人工智慧 (AGI) 的異構系統。一款專為網路而最佳化的晶片如上所述,人工智慧叢集由多個機架組成,每個機架可容納數十台伺服器。這些伺服器通過內建於主機機架中的交換機相互交換資料。機架交換機的技術特性通常與其他網路裝置(例如用於連接不同機架的裝置)的技術特性有顯著差異。而Upscale AI 正在開發的這款名為 SkyHammer 的產品是一款專為縱向擴展網路(即連接機架內部硬體元件)而最佳化的晶片,能提供確定性延遲。這意味著可以高精度地預測資料在機架元件之間傳輸所需的時間。眾所周知,人工智慧模型通過計算來處理資料,而這些計算必須按特定順序執行。因此,一次計算的延遲往往會導致後續所有處理步驟的延遲。提前預測網路延遲可以避免意外的資料傳輸延遲,從而防止人工智慧工作負載變慢。在接受Nextplatform採訪的時候,Upscale AI闡述了自己的目標:首先,如今,對於規模化 AI 網路而言,真正切實可行的選擇其實只有一個,那就是 NVSwitch。這也是輝達在 GenAI 浪潮中取得巨大成功的原因之一(當然還有其他原因)。而Upscale AI 希望為客戶提供更多選擇。“我一直堅信異構計算和異構網路是未來的發展方向,”Upscale AI高管告訴The Next Platform。“人們應該有自由選擇權,可以靈活組合各種資源,因為每個人都有其獨特之處,而這種組合方式能夠根據每個人的需求進行最佳化。有見及此,Upscale AI 致力於普及 AI 計算的網路,他們堅信異構計算的潛力。“我們認為輝達擁有卓越的技術,在創新方面也是一家傑出的公司。但展望未來,隨著 AI 創新的步伐不斷加快,我認為沒有任何一家公司能夠提供 AI 所需的所有技術——尤其是在未來發展趨勢方面。因此,這必然意味著不同供應商將提供不同類型的計算解決方案。”Upscale AI 強調。Upscale AI 同時認為,當少量 CPU 與少量 GPU 通訊,且 GPU 的相對記憶體頻寬較低,並且 CPU 和 GPU 在伺服器節點中緊密排列時,PCI-Express 交換機制能夠很好地工作。Upscale AI 於 2024 年初啟動時,UALink 聯盟和 Meta Platforms 提出的 ESUN 標準尚未成立,但異構基礎設施的概念早已存在,其目的並非僅僅是為了建構一套能夠完成所有任務的單一基礎設施,而是為了建構一套能夠更好地匹配不同任務工作流程的基礎設施。“未來,單個GPU可能無法完成所有計算任務,異構計算將會成為主流,”Upscale AI 方面解釋道。“某些CPU、GPU或XPU可能擅長預編碼和預填充,而其他裝置可能擅長解碼。但如果X廠商擅長預填充,Y廠商擅長解碼,又該怎麼辦呢?交換如今已成為這台機器的核心,它將所有這些功能連接起來,必須確保連接的公平性,並且還要具備可擴展性和可靠性。可靠性至關重要,因為你的任何操作都會直接影響系統中的所有計算。”在NextPlaform的採訪中,Upscale AI 對那些通過美化 PCI-Express 交換機 ASIC 或拆解乙太網路交換機 ASIC 來製造 UALink、ESUN 或 SUE 交換機的做法嗤之以鼻。“我看到的很多做法都像是對PCI-Express進行改造,也就是拿PCI-Express的基板來嘗試做其他事情,或者其他廠商拿乙太網路來嘗試改造。但整個記憶體領域的關鍵在於它無法改造。那樣做無法為客戶提供真正最佳化的、僅能向上擴展的堆疊,因為最終的結果只是拿一個基板,試圖移除不需要的東西。長期從事ASIC行業的人都知道,你可以移除很多模組,但基本單元仍然保持不變。每個ASIC都有其不變的基本DNA。”因此,Khemani 和 Kar 著手從頭開始建構一個記憶體結構 ASIC,專門用於此目的,然後確保它支援記憶體語義協議的更新。雖然並沒有披露AISC細節,但Upscale AI 表示,SkyHammer 將生成即時遙測資料。遙測資料,即關於系統的技術資料,不僅對故障排除至關重要,對配置任務也必不可少。管理員可以分析網路裝置的狀態遙測資料,從而找到最佳化其性能的方法。SkyHammer還相容多種開源網路技術,其中包括UALink和ESUN。這兩個項目都致力於利用乙太網路實現可擴展的網路應用場景。ESUN是其中較新的項目,於去年啟動,並獲得了輝達、博通和其他主要行業參與者的支援。SkyHammer還將支援一種名為UEC的網路技術。ESUN旨在連接機架內部的元件,而UEC則專注於連接不同的機架。它可以為多達100萬個晶片的AI叢集提供支援。“我們正在研發一種高基數交換機(high radix switch )和一款能夠實現這一切的專用積體電路(ASIC)。”Upscale AI強調。寫在最後NVLink 是輝達開發的一種高速互連技術,用於將記憶體和計算資源從多個 GPU 中抽象出來,使它們看起來像一個單一的邏輯資源。這項技術於2024年問世,此後,AMD和思科等公司一直在嘗試開發替代方案。但他們迄今為止的努力(例如UALink和ESUN),仍不成熟。AMD首批基於UALink的機架式系統將於今年晚些時候上市,但它們將通過乙太網路隧道傳輸該協議。能夠與Nvidia的NVSwitch競爭的專用UALink交換機目前尚未問世。Upscale的目標是通過其SkyHammer定製ASIC晶片改變這一現狀。Upscale AI 首席執行長 Barun Kar 告訴外媒El Reg:“我們不是在改造傳統系統,而是在重新構想 AI 網路中規模的真正含義。”“這種架構的核心本質上是為了擴展規模。它是專門為人工智慧工作負載而設計的,不適用於其他任何用途。”雖然我們沒有足夠的資訊將這款晶片與 NVSwitch 6 或 Broadcom 的 Tomahawk 6 進行比較,但 Kar 告訴我們,它採用了基於記憶體語義的載入-儲存網路架構,並將具有類似於 Nvidia Sharp 的集體通訊加速功能。該平台還將同時支援 UALink 和與其競爭的 ESUN 協議。為了使整個系統能夠大規模管理,Upscale 正在努力擴展對 SONiC 網路作業系統 (NOS) 的支援。SONiC 是一款開源 NOS,最初由微軟開發,已被廣泛部署,並深受超大規模客戶的青睞。目前,Upscale 主要專注於縱向擴展網路產品,但長期來看,計畫將產品線擴展到更傳統的橫向擴展交換機。Kar 告訴我們,為此,公司仍在評估各種方案,並可能借助合作夥伴的第三方智慧財產權。“我們已經與超大規模資料中心營運商和GPU供應商建立了合作關係,他們已經驗證了該架構。這部分工作已經完成。現在,這筆資金的重點是將創新轉化為實際部署,”Kar說道Upscale AI執行董事長Rajiv Khemani也表示:“Upscale AI在極短的時間內就取得了非凡的發展勢頭。市場需要開放、可擴展的AI網路解決方案,而Upscale AI憑藉其獨特的優勢,能夠幫助客戶突破當前網路方面的限制。” (半導體行業觀察)
從Google投資Anthropic案例思考AI投資的非排他性
今年三季度Google的財報中,投資收益引人注目,前三季度的浮盈已經達到220億。Google的這類非市場化股權投資通常與其戰略需求,或對其生態系統至關重要的AI 初創公司投資有關。今年的盈利主要來源於對Anthropic的投資。Anthropic是目前全球估值最高的未公開上市AI 公司之一。相比其它股東,Google投資金額較小,但入局早。從Anthropic的籌資歷史與估值變化中,可以看到其受到了資金的極度追捧。2021-2022,早期投資5.8億,來自於現在已經破產的FTX。2023年9月-2024年11月,亞馬遜承諾投資40 億美元。2023年10月,Google承諾投資20億。2024年3月,由 Lightspeed 領投E輪,籌資27.5億,估值達到615 億美元.2025年8月,由ICONIQ Capital 領投,籌資130億,估值達到 1830 億美元。2025年11月,微軟和輝達聯合投資150億。微軟約 50 億美元,輝達約 100 億美元。估值猛增至約 3500 億美元,是Google投資時的87倍!Anthropic是由前OpenAI 的核心研究人員在2021年創立的。其Claude 系列大型語言模型是當前市場上唯一能在性能上與ChatGPT 和Gemini抗衡的頂級模型。Claude與其它模型的不同之處,在於其專注於那些能在近期產生經濟效益的,企業級市場,模型的程式設計能力尤其強大。它對Google的DeepMind和 OpenAI關注的數學推理等領域則投入較少。可以看到,科技公司們正在根據自身技術稟賦和戰略目標,來選擇最能實現商業變現的細分領域進行深度挖掘。市場足夠大,容得下差異化競爭。2024年3月,Anthropic的E輪融資估值為615億美元。一年半後的2025年8月F輪融資,估值為1830億美元。這給Google和亞馬遜帶來巨大的帳面收益。短短兩個月後的11月,微軟和輝達也投資入股,估值幾乎翻倍,達到3500億美元。這說明Google的第四季度將同樣獲得可觀的帳面股權投資收益。Google和亞馬遜投資的主要目的之一是確保Anthropic 在其 AI 模型開發和訓練中,使用自己的雲服務。Google雲在與 Anthropic 簽訂的價值高達數百億美元的合同中,承諾提供大規模的Google自研的TPU AI 晶片,為其提供超過千兆瓦的計算能力,用於模型訓練和擴展。通過融資,Anthropic巧妙地鞏固了所有主要雲服務提供商和輝達的算力支援。從這個案例中可以看到,這些科技巨頭之間的關係錯綜複雜,Anthropic與它的股東們的關係既競爭又合作,還互相投資。比如Gemini 是Claude在產品和技術上的主要對手,而Google雲又提供了Anthropic關鍵的基礎設施。這樣的關聯交易就是大空頭Micheal Burry認為AI有泡沫的依據之一。非排他性值得注意的是,所有這些股權投資和業務上的合約都沒有排他性條款。比如,Google和亞馬遜在投資Anthropic的時候,並不限制Anthropic使用對方的雲。類似的,輝達投資OpenAI時,也不限制OpenAI買別家的晶片。在傳統行業,排他性競爭是主流。股權投資經常作為換取稀缺實物資源,比如礦產,的長期獨家控制權的籌碼。這是因為,傳統行業的市場規模增長速度通常與經濟增長速度持平或略高,是線性增長。在有限的市場中,競爭必然是排他性的。企業會通過法律合同、獨家供應協議、收購競爭對手等方式來消除競爭,實現市場份額最大化和垂直整合。而AI領域的技術和市場特徵與傳統行業截然不同。首先,AI創造了全新的、指數增長的需求,尤其是在算力和應用領域。ai技術的複雜性與垂直整合難度,意味著沒有一家企業能從底層晶片、中介軟體、基礎模型、到應用層都做到最好。每一家都可以在自己擅長的領域發展,而不威脅到競爭對手。比如,Google的TPU晶片即使開始對外銷售,擴大市場份額,也不會影響輝達GPU的需求量。因為兩者服務的是不同的需求對象,而且對兩者的需求都遠大於供應。在市場巨大、資源稀缺、技術複雜這些因素的作用下,合作比排他性競爭能帶來更高的回報。AI巨頭們對前沿公司,如Anthropic、OpenAI的投資,能獲得技術,商業機會和投資回報等多重收益:通過鎖定技術和人才來對衝落後的風險。投資競爭對手的模型可以讓雲巨頭們獲得對最新AI 技術、能力和人才的近距離觀察,有助於他們縮小自身模型的差距。股權合作可以確保最新的頂尖模型優先部署在自己的雲服務上。Anthropic授權Google雲和亞馬遜雲AWS,將 Claude模型整合到Google雲的AI 服務生態Vertex AI和亞馬遜的AI 模型服務平台Amazon Bedrock 上。這允許Google雲和AWS的使用者通過 API 介面,直接在兩者的環境中呼叫 Claude用於建構自己的應用。使用者使用 Claude 模型時,Google雲和AWS會向 Anthropic 支付授權費用。由此,Google和亞馬遜成為Anthropic的戰略合作夥伴和分銷商,而不僅僅是算力供應商。這是AI時代基礎設施與模型技術深度繫結的競合模式。自然而然地,Anthropic盈利能力的提升,推動估值,也會給Google和亞馬遜帶來巨大的投資回報。從Anthropic的角度來看,則獲得了將計算資源進行最優配置的能力。它同時獲得Google的 TPU,亞馬遜的 Trainium/ Inferentia,以及微軟的 Azure的基礎設施支援,可以確保最先進的模型可以運行在最適合它們的硬體上,最大化技術產出。社會意義這些非排他性的投資與合作,還會產生一個更宏大、更具社會意義的結果。那就是促進整個AI行業的技術進步、擴大其社會應用範圍,進而激發全社會對AI的接受度和需求。首先,非排他性能更好地支援分散式創新,更有可能突破技術瓶頸,達到效率的極致化。Anthropic專注於 AI 安全和編碼,OpenAI 專注於通用智能,DeepMind 專注於科學發現。這種多點開花的競爭模式比任何一家公司內部研發都更有效率。巨頭們通過非排他性投資,可以外包一部分前沿研究的風險和成本,同時受益於所有方向的突破。其次,當市場上多個優秀且可信賴的AI 產品(Claude, ChatGPT, Gemini)出現時,企業和公眾對AI 技術的接受度會更快、更廣泛。當前這波由生成式AI 驅動的社會接受速度,在科技史上是前所未有的。參考歷史上,新技術達到1億使用者所需的時間,固定電話用了75年,手機16年,網際網路7年,臉書4.5年,而ChatGPT才僅僅用了2個月。如果用技術採納生命周期來衡量,AI目前正處於從早期採納,向加速滲透過渡的關鍵時期。在個人層面,已經超過數億人在使用AI 進行寫作輔助、程式碼查詢、資訊總結、日程規劃和創意生成。Google的生成式搜尋體驗和微軟的Copilot,正在將 AI 回答直接整合到搜尋結果中,這意味著每一次搜尋都在使用 AI。新一代智慧型手機、電腦作業系統正在將大語言模型作為底層能力內建,使用者在不知不覺中已經在使用AI。企業也已經認識到AI 不是可選項,而是保持競爭力是必須項,正在重金投資部署。Microsoft Copilot、GitHub Copilot 等工具被大規模採購,用於提升知識工作者和程式設計師的效率。企業正在將AI 模型,如Anthropic 的 Claude 或 Gemini,作為新的 API 介面整合到其核心業務系統和軟體中,實現資料分析和決策的自動化。未來當AI模型更加安全、專業和可信賴,垂直領域的關鍵應用也被成功開發和部署後,AI 會真正嵌入到各個傳統行業中,真正提升實體行業在物理世界的生產力。那時,AI 的廣泛應用將創造出目前我們無法想像的新商業模式和工作流程,這反過來會產生對大規模、持續、複雜算力的巨大需求。最終回到巨頭們投資的核心收益:建立未來的盈利基礎。算力消耗本質上是技術被社會接受度提高的最終結果。因為如果AI 不能廣泛應用於社會並改變生產力,那麼對算力的需求就會停滯不前。通過非排他性協議,讓被投資企業取得成功,從而最大程度地激發整個AI 生態系統的繁榮,最終將推動底層基礎設施和巨頭們自身產品的需求。 (一顆南瓜籽的成長)
沒想到,驅動下一代美國創新的,竟然是中國搞出來的AI……
下一個時代的AI領導力,將不再取決於誰的模型最強大,而取決於誰的模型無處不在。日前,矽谷頂級風險投資公司Andreessen Horowitz(a16z)的普通合夥人馬丁·卡薩多(Martin Casado)在接受《經濟學人》採訪時,透露了一個驚人資料:在其投資組合中,高達80%的AI初創公司,其底層技術正建構於來自中國的開源大模型之上。01. 翻轉發生資料不會說謊:我們來看模型的下載量。在AI領域,模型的下載量如同一個國家的數字GDP,直觀地反映了其技術影響力與生態系統的活躍度。要看最公正的資料,那得看全球最大的AI社區和模型託管平台Hugging Face。最近,AI研究員內森·蘭伯特(Nathan Lambert)繪製的一張圖表,直觀地記錄了這場“翻轉”的軌跡。https://www.interconnects.ai/p/on-chinas-open-source-ai-trajectory圖表上,代表中美兩國開源模型累計下載量的兩條曲線,從2023年下半年開始,代表美國的藍線雖保持增長,勢頭也很不錯,但中國的紅線更猛,以更陡峭的斜率向上竄,在2025年上半年會成功超越美國,並預計在2026年上半年衝向驚人的3.2億次下載量,建立起決定性的領先優勢。蘭伯特在這張圖上標註了一個詞:“The Flip”(翻轉)。如果你看最近Hugging Face的趨勢榜單,幾乎都被中國模型“屠榜”:阿里巴巴的Qwen(通義千問)系列、百度的ERNIE(文心)大模型、DeepSeek(深度求索)以及月之暗面(Moonshot AI)的Kimi等等模型,長期佔據下載量和關注度的前列。即使有些模型名字看上去不像中國的,但你點進去,大機率會發現我們的開源模型是以base model的面目出現的。更讓人震驚的是另一個全球性平台 Design Arena,主要是設計相關功能,其模型排名由使用者直接投票決定,我們看到:排名前18的開源大模型均為中國模型,而第一個非中國模型(來自美國)僅排在第19位。02. 雙重優勢問題是,這一切是怎麼發生的呢?為什麼美國初創團隊要用中國AI模型呢?很顯然,一大原因就是成本。允許我們舉個現實的例子:優一家名為“LinguaBot”的AI翻譯初創公司,每月需處理10億tokens的請求。如果使用OpenAI的API,根據模型不同,其每月的帳單至少在1萬到2萬美元之間。但如果使用中國的開源模型,如Qwen、DeepSeek系列,它們大多遵循Apache 2.0等寬鬆的開源協議,允許開發者免費下載、本地部署和微調,完全掌控自己的資料和應用。創業公司前期可能需要投入數千美元購買或租賃雲端伺服器,但此後的每月營運成本可能驟降至2000至4000美元——直接打了骨折!對於任何一家需要進行大量模型微調、測試和迭代的初創公司而言,這節省下來的每一美元,都是其在激烈市場競爭中得以存活的寶貴燃料。而且說實在的,開源模型已經很優秀了。它們在多個關鍵基準上實現了“性能平價”(Performance Parity),甚至在特定領域實現了超越。比如DeepSeek的V3模型在多項評測中擊敗了Meta的Llama 3.1;阿里巴巴的Qwen系列在Hugging Face等多個榜單上名列前茅;而百度的ERNIE 4.5系列則在混合專家(MoE)架構上取得了顯著突破,用更少的計算資源實現了媲美更大參數模型的性能。所以除了初創企業之外,像愛彼迎(Airbnb)這樣的矽谷巨頭,也公開承認正在“重度依賴”中國的開源AI。愛彼迎CEO布萊恩·切斯基(Brian Chesky)在一次採訪中坦言,其用以驅動核心AI客服系統的,正是阿里巴巴的通義千問(Qwen)模型。儘管愛彼迎採用了包含OpenAI和Google在內的13個不同模型,但通義千問是當之無愧的“頭號主力”,因為它在多語言處理上的具有非常明顯的優勢,機器人專家的創始人Nicolas de Cameret評價道:通義千問的多語言支援是原生的,聽起來自然得多。這種能力對於一個業務遍及全球220個國家的平台而言,就是核心競爭力。切斯基的理由直截了當:“ChatGPT的整合能力還‘沒有完全準備好’,而通義千問‘非常好’,而且‘又快又便宜’。”03. 圍牆花園 V.S. 開放廣場至此,你可以看到中美兩國AI發展的不同路徑:美國最頂尖的模型被嚴格地保護在“圍牆花園”內;而中國的AI實驗室則採取了截然不同的“廣場策略”,以極高的頻率發佈新模型、新權重,鼓勵全球開發者進行“二次創作”。這種開放性形成了一個強大的飛輪效應:更多的下載意味著更多的應用、更多的反饋和更多的改進。正如一位Reddit使用者評論道:“如果80%的美國創業公司都在用中國模型,你可以安全地假設,在全球其他地區,這個比例可能接近100%。”這場從矽谷開始的“秘密”轉向,正在成為全球性的陽謀。當前開源AI的格局,不禁讓人聯想到上世紀90年代的Linux。開源,通過匯聚全球智慧,最終在商業上戰勝了封閉。AI的革命,似乎正在重演這一幕。美國在引領了早期GPT系列模型的發展後,出於對“安全”的擔憂和商業利益的考量,逐漸關上了開放的大門。而中國,則抓住了這個戰略機遇期,選擇了一條“以開放換影響”的道路。眾所周知,美國試圖通過晶片出口管制等手段遏制中國AI的發展,但這反而加速了中國在自主AI框架上的自給自足。而當全球開發者越來越多地基於中國的開源模型進行創新時,中國實際上就在輸出技術標準和行業規則。這是一種比硬體出口更深遠、更持久的“軟實力”建構。自然,美國決策層已經意識到了這一威脅。一位不願透露姓名的西方網路安全專家說:“當你將核心業務邏輯運行在一個中國模型上時,你必須考慮到潛在地緣政治層面上的‘後門’風險。倘若未來中美關係進一步緊張,這些模型的更新、維護和社區支援是否會成為被利用的籌碼?”於是我們看到,川普政府在2025年7月發佈了《美國AI行動計畫》,其中明確提出,需要確保美國擁有“基於美國價值觀的領先開源模型”。隨後,OpenAI也像征性地發佈了其多年來的首個開源模型gpt-oss,但這被普遍視為一種被動的、遲緩的回應。更具實質性的努力來自於由蘭伯特等人倡導的“美國真正開放模型”(ATOM)項目,該項目呼籲政府和企業界聯合投入,重新奪回開源生態的主導權。在不少美國人看來,這場反擊不僅是技術之爭,更是一場關於未來AI應遵循何種價值觀和治理模式的“標準之戰”。04. 未來中國的開源AI模型下載量超越美國,以及在矽谷創業圈的高滲透率,標誌著一個新時代的開端。對中國而言,絕對稱得上是階段性的勝利——這一階段的成功,首先驗證了開源戰略的正確性。面對技術封鎖,開源不僅是有效的突圍方式,更是通過建構全球開發者社區,將中國的技術轉化為事實標準的聰明策略。其次,它展現了中國獨特市場優勢的巨大潛力。“人工智慧+”行動的核心,就是將AI模型與龐大的製造業、醫療等實體經濟相結合,這種大規模應用場景是任何其他國家都難以複製的護城河。同時,在高端晶片受限的背景下,以DeepSeek為代表的模型通過演算法和架構創新,證明了一條“低算力、高效能”的差異化路線是完全可行的。然而,下載量的激增並不能完全掩蓋潛藏的結構性問題。最現實的挑戰在於商業模式:如何將巨大的影響力轉化為可持續的收入,以支撐長期的研發投入,這是所有開放原始碼專案必須回答的問題。更深層次的風險則在於核心技術的自主可控,儘管模型層面進步很快,但在高端晶片、開發框架等底層技術上,“卡脖子”的風險依然存在。此外,隨著影響力的擴大,如何在全球範圍內建立信任與安全體系,回應地緣政治帶來的顧慮,將直接決定這條路能走多遠。最終,所有這些都指向一個根本目標:完成從應用大國到基礎研究強國的轉變,補齊原創性理論的短板。人工智慧的未來,不太可能由一家公司或一個國家壟斷,它將是一個由不同技術路線、商業模式和文化價值觀共同塑造的多極化世界。在新的競爭範式下,領導力不再僅僅取決於誰擁有最頂尖的模型,而在於誰的技術能夠成為全球創新的基礎。而幸運的是,中國已經憑藉其堅定的開源戰略,佔據了極其有利的位置。 (TOP創新區研究院)
估值上兆、現金流見底:AI盛宴背後的真相沒人敢說
【新智元導讀】AI泡沫,比網際網路泡沫還危險?投資人都在裝作看不見?最具價值的私有AI初創,都有誰?投資人Deedy Das總結了目前估值最高的15家AI初創,以及最新的公開的營收和增長情況。OpenAI、xAI和Anthropic毫無意外霸榜前三。OpenAI以約5000億美元估值領跑,xAI、Anthropic緊追;零收入的Figure AI、SSI依然躋身超獨角獸行列。目前,上榜企業最少100億美元估值,最多為5000億美元。0客戶、0產品、0計畫,估值照樣上千億沒有客戶、沒有產品、也沒有計畫,有些AI初創估值高得嚇人——說的是Figure AI、Safe SuperIntelligence和Thinking Machiens Lab。根據Deedy Das的統計,這三家公司收入為零,但估值分別為390億美元、320億美元和120億美元。華盛頓大學電腦科學教授、《2040》和《終極演算法》作者Pedro Domingos,直指Ilya的Safe Superintelligence最搞笑。這些AI初創的融資,著實讓人看不懂——估值幾乎沒有體現任何風險,但再強的技術也存在失敗的可能。目前,市場對未來的樂觀程度接近「完美執行」的預期——而且別忘了,微軟擁有OpenAI的全部訪問權,包括其IP,但卻並沒有滿足OpenAI提出的所有算力採購需求。要知道,微軟擁有「優先購買權」,本可以選擇接下Oracle那筆訂單,但最終沒做。微軟CEO納德拉一直以理性著稱,如果連他都不完全下注,那我們至少要保持審慎。即便AI技術不會停滯,但相關的金融泡沫正在形成,且比網際網路泡沫更危險。一個經常被忽略的事實是,如今很多科技公司的巨額支出,其實不是用來開闢新業務,而是用來「保住」原有的護城河。大家都被捲入了一場已經失控的競賽。正如Meta的祖克柏所言,「投入幾千億美元的風險,小於被邊緣化的風險。」這或許能夠解釋這些巨頭為何必須奮力一搏。但資本市場的責任是:在估值倍數中精準反映風險。而現在,市場明顯沒做到這一點。燒錢循環 AI公司和晶片公司的合謀當前AI行業的估值水平,已遠超2000年網際網路泡沫高峰期。與2000年不同,當時的公司至少有「夢想」和「使用者增長」,而今天的AI公司卻普遍缺乏清晰的商業模式和盈利能力。AI基礎設施支出(如資料中心、晶片)與實際收入嚴重不匹配,形成「燒錢循環」:AI公司燒錢→晶片公司賺錢→AI公司繼續融資→繼續燒錢。過去,在資助獨角獸初創公司的經典路徑中,一般是:初期由大型風險投資公司出資(規模在10億至100億美元之間),發展到100億至300億美元時,像軟銀這樣的巨頭接手,接著就準備IPO(首次公開募股)。但像OpenAI和Anthropic這樣的AI實驗室,如今並不打算走上市這條路,因為一旦上市,就意味著它們的商業模式和盈利邏輯將被全面拆解,分析師會深入質詢那些是合理的、那些站不住腳。即便選擇IPO,他們也無法籌集到足夠的資金。現在一家AI初創所需融資,已經超過了過去五年整個科技五巨頭自由現金流的總和。今年,OpenAI的營收預計在150億至200億美元之間。即便明年翻倍甚至三倍增長,這個數字也遠遠無法支撐其擴張所需的投資體量。因此,OpenAI未來還得持續融資,甚至可能會舉債。此外,即使有這些收入,OpenAI今年預計仍將虧損約90億美元,虧損將在未來繼續擴大,預計到2028年將達到470億美元。但問題是,誰有足夠的實力,一次性投入超過1000億美元?目前唯一有能力這麼做的似乎只有Nvidia。而Nvidia之所以願意出這筆錢,很大程度上是因為OpenAI如今是「AI無冕之王」。最近,在播客中Semianalysis的Dylan Patel表示,目前OpenAI和Anthropic兩家公司就買下了全球三分之一的Nvidia GPU。問題不僅在於這是一種「循環投資」的模式,更在於當項目規模達到1000億美元以上時,唯一可能出資的就只剩下像Nvidia或蘋果這樣的公司。更關鍵的是,即便Nvidia出了1000億,OpenAI還是需要籌集剩下的1.4兆美元——那又該誰來出這筆錢?另一個值得警惕的訊號是,這類融資交易中開始越來越多地引入債務。Meta最近也為一個資料中心融資290億美元,其中260億美元是債務,該資料中心本身則成為了貸款的抵押品。Oracle也完成了一筆380億美元的債務融資。微軟:寧願外包,不要晶片至於超級雲廠商如微軟等,也開始向新興雲端運算服務商(neocloud)尋求合作。比如,微軟與Nebius達成的174億美元(未來可能擴展至194億美元)協議就是其中之一。微軟為何與新興雲服務商(neoclouds)合作?因為它們正在目睹企業客戶對算力的強勁需求。微軟想要維持客戶關係、讓客戶滿意,但又不想繼續在CapEx上加碼。因此,它更願意把風險轉嫁出去。對客戶而言,誰提供的底層設施並不重要,他們只要結果。而一旦熱潮過去,那些舊晶片的損失就由neocloud承擔,不會體現在微軟帳上。對微軟來說,這是「雙贏」:既保住了客戶,又避免了晶片貶值帶來的損失。若未來需求持續增長,微軟也有足夠時間建設自己的資料中心,重新收回算力基礎。而在當前的「AI狂熱」周期裡,把「晶片貶值速度快」的風險外包出去,比自己承受更為明智。這也是微軟與neocloud合作的關鍵原因之一:他們對資本支出的未來不確定,因此更傾向於將其轉化為營運支出(OpEx)。更令人擔憂的是,現在連晶片本身都被裝入SPV中作為抵押品進行融資。不過,根據Google趨勢的資料,上個月中,網路上對「AI泡沫」的Google搜尋量急劇下降。這表明人們對估值的擔憂正在減輕。AI的繁榮可能會停止,但它可能不會破裂。雖然可能存在泡沫,但當每個人都發現它時,可能是它最不可能破裂的時刻。 (新智元)