#API
10家新公司、9家獨角獸,這個新賽道憑什麼讓矽谷風投瘋狂下注?
估值百億,產品幾無,這便是當下最瘋狂的AI資本敘事。最近,前OpenAI CTO米拉·穆拉蒂創立的Thinking Machines Lab,正以高達500億美元的估值,籌劃新一輪40億至50億美元的融資。而它拿得出手的,僅是一個名為Tinker、介面尚待考證的API介面。相比傳統商業邏輯,這無異於一場豪賭:資本押注的,早已不是產品,而是人,是那串貼在創始人身上的“OpenAI開國元老”的黃金標籤。穆拉蒂的實驗室,正是席捲矽谷的neolab(新生代實驗室)風潮中最耀眼的一朵浪花。據國外知名VC menlo合夥人Deedy推文,AI領域新興的10家neolab中,9家在種子輪階段就斬獲10億美元估值。一批從OpenAI、DeepMind等巨頭出走的頂尖研究員,正以反叛者的姿態,用全新的範式重建AI研究的邏輯。他們不談營收,不論商業化,只談那些看似天方夜譚的方向:情感智能、AI社會、自動化科學家等。資本的反應則更為直接與狂熱:Humans&成立數月估值40億,SSI瞄準超智能安全估值320億,Periodic Labs一出手種子輪便是3億……這些在傳統視角下“啥也沒有”的實驗室,正以令人咋舌的估值,鯨吞著數十億美金。當最聰明的大腦決定另起爐灶,資本的選擇是不看PPT,只認履歷,用真金白銀為他們的直覺與純粹投票,賭他們能用履歷兌換一個不一樣的未來。/ 01 /5家,拿下 25億美元當OpenAI和Anthropic的估值飆升至1830億美元量級,變得“貴得離譜”時,資本的洪流正悄然湧向一批更為神秘、精悍的新型實驗室neolab。根據The Information報導,僅五家neolab初創公司,就在過去一個月內完成或洽談了高達 25億美元 的融資。如果只看研究方向,neolab的主題幾乎毫無共識:有人在做多智能體數字社會,有人在研究情感智能,有人在做自動化科學家,有人探索身體化智能,有人在推進實驗物理材料,有人在逼近通用智能的邊界。它們共同點只有一個——創始人都是那批走出巨頭實驗室的最能打的人。這些neolab的創始人,幾乎全部從OpenAI、DeepMind、Anthropic等巨頭出走,個人財富早已達到千萬乃至億美元等級。然而,他們放棄了巨頭的穩定與高薪,選擇all in一種新的AI範式。正是這種財務自由帶來的純粹性,構成了neolab最核心的魅力。他們可以無視短期商業化壓力,專注於那些巨頭不屑或無力觸及的高風險、長周期探索。於是,我們看到了研究方向呈現出前所未有的多元化:前xAI研究員Eric Zelikman籌集10億美元打造情感型AI初創Humans&,他不追求更快的推理速度,而是讓AI理解情緒、進行價值權衡,並建立長期關係。OpenAI安全研究員Eddie Zhang創業打造“多智能體數字社會”Isara,試圖讓上千個AI智能體像真實公司一樣自主分工、協作與治理。前OpenAI首席科學家Ilya Sutskever創立SSI,將“開發可控的超智能”作為唯一使命,安全優先於一切,據傳估值已觸及320億美元。相比之下,巨頭們似乎被禁錮在大模型最佳化的單一路徑上,追求參數與算力的線性增長。而neolab則追求迭代智能,其使命不是把模型做得更大,而是去發現新的智能結構。這種純粹性也讓他們能夠保持極度小而精的團隊,將“技術複利”做到極致。當然,這也催生了“夢想驅動估值”的奇觀。這些實驗室普遍收入極低甚至為零,沒有成熟產品,卻憑藉創始人的光環效應和顛覆性願景,在早期就獲得令人瞠目的估值。最典型的案例莫過於前OpenAI CTO Mira Murati創立的Thinking Machines Lab。在僅推出一個初步的開發者工具Tinker、產品能力有待考證的情況下,其估值據傳已高達500億美元。相比巨頭,neolab的10億美元估值幾乎是白菜價,例如Murati作為OpenAI開國元老的標籤,其加成就已值百億。/ 02 /情感智能、遊戲視訊模型……九成種子輪拿10億美元估值接下來依次介紹這些neolab。①OpenAI“開國元老”單干,做超智能保險Safe Superintelligence(SSI)由前OpenAI首席科學家Ilya Sutskever聯合Daniel Gross與Daniel Levy創立,將"開發可控的超智能"作為唯一使命,安全優先於短期商業化。團隊聚焦精銳科研與安全工程,而非消費級產品化。▲ Ilya Sutskever、Paul Christiano、aniel Kokotajlo(從左到右)披露融資規模接近/超過十億美元,並與雲基礎設施方戰略合作保障算力。技術上需解決三大核心:推進能力時確保安全邊界領先、將理論對齊工程化、在無產品壓力下維持透明治理。短期內SSI是"科研+安全驗證"的高強度實驗室。儘管目前無商用產品,但其獲得Google(TPU支援)與Nvidia投資,估值據報達320億美元等級,表明資本對“長周期、安全性極高”的AGI實驗室有信心。②前OpenAI CTO出走創業,聚焦“企業定製模型”相比Cursor的290億美金估值,Thinking Machines啥也沒有就快估值500億美元。原因在於其創始人Mira Murati給它的加成太大。這位前OpenAI CTO、臨時CEO技術背景聚焦工程研發+產品落地+AI前沿技術操盤,她於今年出走創立新公司。▲Mira Murati新公司主攻“可解釋的群體智能”與符號-機率混合架構,將大量輕量級模型組織成層級化“工作流工廠”,通過可驗證協議在金融風控、藥物發現等高風險場景,實現可審計的多智能體協同。實驗方向包括任務分解語言、跨智能體信任評分與動態合約(以弱監督獎勵流標註),安全邊界被設為首要原則。10月,Thinking Machines推出了Tinker。近期,Thinking Machines Lab在籌集40億至50億美元。此前它已籌集了20億美元資金,最近一次的估值為100億美元。③前xAI研究員籌集10億美元打造情感型AIEric Zelikman來自xAI,是行業內罕見專注“情緒、價值觀與長期關係建模”的研究者。他的方向不追求更快的推理速度或更長的上下文,而是讓AI更像人。其能處理數周乃至數月的任務,理解情緒、做價值權衡,並建立長期關係。▲Eric Zelikman由Zelikman創立的Humans&致力於打造“情感智能”AI,把傳統強化學習從分鐘級、小時級任務,延伸到用時數周甚至數月的現實任務,如長期決策、戰略規劃、陪伴式互動等。其目標是讓AI不再追求“一次答對”,而是追求“長期最優”,具備自我情緒建模與長期目標協調能力。儘管研究尚未商業化,也沒有成熟產品,Humans&仍在成立數月內與投資人洽談以40億美元估值融資10億美元。知情人士稱,Nvidia與AMD均有意投資,希望這類新實驗室成為下一代算力大戶。④前DeepMind 12年元老創業Reflection AI,逐夢超級智能Reflection AI的CEO Misha Laskin,DeepMind前研究科學家,主導了Gemini從初代到1.5的RLHF訓練體系和獎勵模型架構設計,負責模型與人類反饋的閉環最佳化。芝加哥大學理論物理博士+伯克利博士後,2017年創業做AI需求預測,25歲入選福布斯“30 Under 30”。CTO Ioannis Antonoglou是DeepMind 12年元老,AlphaGo、AlphaZero、MuZero核心架構設計者,直接參與策略搜尋與價值網路建構,推動強化學習在複雜棋類和決策任務中實現突破。兩位創始人聯手,帶領60人團隊大部分來自DeepMind、OpenAI,專注於高性能模型訓練、強化學習演算法最佳化與大模型架構設計。他們的目標是,將強化學習、獎勵建模和大規模生成模型緊密結合,首先打造自主編碼智能體,使其能夠在複雜程式設計任務中自我最佳化、規劃與執行,再逐步擴展到通用推理與跨領域問題解決。投資人直接投入1.3億美元,A輪估值5.55億美元,紅杉、輝達、LinkedIn聯合創始人Reid Hoffman等均在股東名單上。⑤You.com CEO雙線作戰,10億美元建AI實驗室前Salesforce首席科學家、You.com創始人、史丹佛NLP博士Richard Socher,正在籌建一家以他本人命名的新型研究所,目標直指“自動化AI研究”。同名研究所Richard Socher在籌備階段就計畫募資近10億美元。▲Richard SocherSocher的設想是把科研流程徹底機器化:建構一套能夠自動完成模型設計、實驗執行與迭代最佳化的閉環系統,讓AI能自主生成新想法、自我反思、自動驗證,從而顯著壓縮從概念提出到可復現結果之間的周期。這種理念瞄準的是“研究生產力的系統級解放”。短期內,Socher團隊的能力對藥物研發、材料科學、半導體等高實驗密度行業尤其具有吸引力。這一方向不是堆算力,而是重構科學家的工作方式。團隊強調三條核心路徑:1)自動化實驗設計與超參搜尋,減少人工反覆偵錯;2)強化實驗可復現性,並建構完善的閉環驗證體系;3)將“自動化研究”的產出標準化為可工程化模組,使其能真正應用在企業級場景中。⑥OpenAI和DeepMind大佬離職聯手,押注“AI做科學”Periodic Labs由前OpenAI後訓練研究副總裁Liam Fedus與前DeepMind資深研究員Ekin Dogus Cubuk創立,目標是打造“AI科學家”:不僅生成論文和預測,而是真正開啟“從模擬→設計→實驗→驗證”的全鏈路自動化科研流程。▲Ekin Dogus Cubuk(左)和William(Liam)Fedus(右)Periodic Labs首要研究方向聚焦於低能耗超導材料、新材料與催化劑等高壁壘、實驗密集型領域。其願景是讓AI不只是理論工具,而是能在實驗室裡自主提出假設、設計合成路線、執行物理實驗,並完成結果反饋,實現“真AI科學家”的閉環。據公開融資文件,Periodic Labs已完成首輪種子融資,金額約為3億美元,由風投機構Andreessen Horowitz (a16z)與Felicis Ventures領投。⑦史丹佛三教授做“身體化擴散智能”,專注長期決策Inception Labs是一家由三位史丹佛背景的頂尖學者聯合創立的新型AI公司:擴散模型和FlashAttention關鍵推動者Stefano Ermon、UCLA助理教授Aditya Grover、康奈爾大學助理教授Volodymyr Kuleshov。三人長期深耕生成模型、強化學習與科學計算,並擁有將前沿技術成功推向產業的履歷,為公司帶來罕見的“學術深度+商業落地”雙重優勢。公司聚焦“身體化智能”與“長期學習系統”,試圖突破傳統模型僅停留在文字或靜態資料中的侷限,讓AI置身真實世界,通過持續的物理互動積累經驗,形成可長期更新的策略與習慣。他們試圖打造“任務生命周期管理器”,讓智能體在數周甚至數月中依環境變化不斷迭代策略。在商業端,Inception Labs採用軟硬體一體路線,通過機器人與感測系統切入製造業和物流業這些需要長期適應、高頻執行的場景。團隊已推出Mercury系列擴散語言模型,其中Mercury Coder在程式設計任務上實現了數倍效率提升,為身體化智能提供高效推理引擎。⑧遊戲視訊專家專注於“時空推理”模型General Intuition由Pim de Witte聯合James Swingos、Ken Colton等核心成員創立。創始團隊彙集科研、技術基建及視訊處理領域專家,Pim此前執掌視訊平台Medal九年,帶領團隊積累海量遊戲視訊資料,其他成員深耕世界建模與策略學習前沿,兼具技術研發與產業落地經驗。General Intuition起源於視訊平台Medal,利用其每年數十億條遊戲視訊作為訓練集,專注於“時空推理”與環境感知基礎模型,讓智能體理解物理世界中的運動因果。2025年10月,公司獲得1.34億美元種子/早期融資,是2025年AI領域規模最大的早期融資之一。資金將用於擴展團隊、基礎設施及加速機器人/無人機原型驗證。其核心主張是,遊戲視訊提供了豐富的稀有成功/失敗鏡頭,適合訓練理解物體運動、碰撞與長期因果關係的模型。商業路徑從遊戲AI代理延伸至現實世界的感知控制,如搜救無人機、倉儲機器人。⑨金融圈名人下場做“數學超級智能”,可用於金融分析Harmonic的故事從一個金融圈明星開始:其聯合創始人Vlad Tenev,就是知名券商Robinhood的聯合創始人與前CEO。這一次,他從金融與演算法交易領域進入AI,引發了資本與媒體的廣泛關注。Harmonic是一家以“人類數學直覺”為起點的AI公司。它並不追求建立更大的模型、堆滿算力,而是重新設計數學推理系統:讓AI像人一樣抽象、驗證、反思,把複雜數學任務拆解成結構化步驟。公司已於2025年完成C輪融資,估值達約14.5億美元。Harmonic的技術路線是建構“數學層”的系統化推理引擎,與傳統大模型平行,而不是取代。他們面向的是科研、量化、工程與高複雜度任務,強調輸出必須可驗證、可審計、邏輯嚴謹。與當前主流AIagent趨勢相比,Harmonic的定位是提供底層高可靠性的“數學思維元件”。⑩OpenAI安全研究員創業“多智能體數字社會”前OpenAI安全研究員Eddie Zhang曾專注於多智能體系統的安全與協作機制研究。他認為未來智能不是一個超級大腦,而是一整個“AI社會”。於是他從最前沿的安全/協作研究中走出來,轉身搭建一個全新的“智能體社會平台”。其創業的公司Isara嘗試讓上千甚至上萬智能體自主分工、協作、達成治理共識,像一個有部門、有責任、有激勵機制的公司。它的AI智能體可以在不確定環境中自動分工、協作、分配“責任/信用”、共同完成諸如財報預測、企業盡調、法律檔案分析等複雜任務。從行業趨勢來看,Isara的產品與當前流行的“單體AI agent自動化”形成對比。它不只是為了替人做事,而是為了模擬“組織結構+社會機制+群體智能”。Neo Lab成為了這個時代的訊號。AI未來的發電機,正從資源密集但可能陷入路徑依賴的巨頭實驗室,重新回到那些手握新範式藍圖、極致專注的頂尖研究者手中。而資本所能做的,就是搶在最早期,給他們足夠的彈藥,去打開那些連巨頭都未曾設想的大門。 (矽基觀察Pro)
點點簽 API 助企業從開發到營運,輕鬆整合電子簽名到現有系統
KDAN凱鈿推出點點簽DottedSign API協助企業加速導入電子簽署與流程自動化,強化文件管理效率與法遵安全。KDAN凱鈿/提供隨著企業加速導入數據驅動的營運管理,文件流程自動化已成為提升效率與降低風險的核心策略。在這樣的背景下,傳統依賴紙本或人工簽署的流程,往往成為自動化與數據化管理的瓶頸。根據 MSB Docs報告,65% 的公司因需要實體簽名,導致合約完成時間延遲至少一天以上;而簽署延宕數天甚至數週的情況已成為常態。這種延遲不僅影響合約成交與決策速度,也增加法遵與營運成本。Fortune Business Insights市場研究顯示,全球電子簽名市場將從 2025 年的 98.5 億美元增長至 2032 年的 1,044.9 億美元,年複合成長率(CAGR)高達 40.1%。這表明企業正將電子簽署納入核心業務系統,不僅提升流程自動化,也能透過數據分析追蹤簽署進度、評估流程效率及風險,實現更精準的營運決策。點點簽 DottedSign API:整合靈活,提升流程效率與法遵保障針對前述簽署流程延宕與效率低的痛點,KDAN 凱鈿 (TPEx: 7737) 推出點點簽 DottedSign API,協助企業及系統整合商將電子簽署功能無縫整合至既有平台或應用中,例如:客戶關係管理(CRM)、企業資源規劃 (ERP)、人員資源管理 (HRM) 或 企業流程管理 (BPM) 等系統,無需從頭開發,可降低成本與風險。典型企業應用情境包括:●人資管理:HRM 入職文件自動生成、簽署與歸檔,文件欄位填寫資料回傳自動更新系統,減少郵寄與人工作業時間,提升招募效率及新人報到率。●業務簽約:以Salesforce 知名CRM 系統為例,可一鍵發送合約,簽署完成自動回存並通知團隊,縮短成交週期。●供應鏈協作: 採購、NDA 或合約審批可在 BPM 系統自動推進簽核,提供身分驗證與稽核軌跡。系統內可自訂文件範本,並由企業管理者控管權限給予員工使用。從人資、業務簽約到供應鏈協作,全流程數位化簽署有效縮短決策時間。KDAN凱鈿/提供企業整合點點簽 API 於自家系統,可打通文件處理流程斷點,從文件生成、簽署、審核到存檔皆能自動推進。不僅有效縮短文件作業時間、降低人工操作錯誤,透過身分驗證、稽核軌跡嚴防文件被竄改風險,更能強化法遵與資料安全管理。同時,API 的靈活整合能力,也為系統整合商提供快速嵌入電子簽署功能的機會,拓展增值服務與商業模式。從企業實際導入數據顯示,採用點點簽後加速簽署時間,從數週縮短至 30 分鐘內完成一份文件的簽署。更有客戶分享,導入電子簽名後獲客成長達 1.8 倍,可節省人事成本高達 16 倍。種種成功案例佐證,數位化簽署流程的成果不僅反映在營運效能上,也能推動外部業務拓展,加速整體組織的決策節奏與市場反應速度。API 技術優勢:開發者友善、整合靈活、安全合規點點簽 API 採用開放式架構與企業級安全規範,開發團隊可在最短時間內完成整合並上線,同時維持穩定與法遵要求。實際應用數據顯示,導入點點簽 API 後,企業可最多縮短 99% 文件簽署時間,顯著提升流程效率與決策速度。主要技術特性:●RESTful 架構設計:結構清晰、參數靈活,支援多種語言 (Python、Java、Node.js 等),快速嵌入現有系統。●完整開發文件與即用範例:提供 SDK、API 測試工具與範例程式碼,縮短整合週期。●法遵與安全雙重保障:遵循國際與本地安全規範,全程 TLS/SSL 加密傳輸,保障文件簽署的合法性與資料安全。●全球化支援:多語系與跨平台整合,滿足跨國業務與經銷夥伴整合商機。點點簽 API 可靈活運作於雲端應用、行動服務或私有化部署環境,讓簽署功能即時融入企業內部工作流程,既提高效率又保障安全。安全與效率並重,深化數位轉型的 ROI在防詐意識高漲的今天,電子簽名不只是「線上簽文件」,更是確保文件真實性與營運合規的核心。透過導入點點簽 API,企業可兼顧法律效力、防偽安全與流程自動化,減少人力成本與時間浪費,不僅優化營運效率,也讓數位轉型投資報酬 (ROI) 具體可衡量。作為全球信賴的電子簽名品牌,點點簽服務已涵蓋 4,200 間企業客戶,並獲得臺灣政府核可電子簽章服務廠商資格,符合《電子簽章法》規範,同時通過 ISO 27001/27017/27018 與 CSA STAR 認證,提供企業合法、穩定且安全的簽署服務。立即體驗點點簽 DottedSign API想了解更多技術細節與串接應用方式,歡迎造訪點點簽 API 官方頁面免費註冊沙盒帳號,或聯繫點點簽專業團隊諮詢,立即開啟高效、安全、專業數位簽署新篇章。參加 2025 KDAN Solution Day,掌握企業數位賦能新趨勢KDAN 凱鈿(TPEx: 7737)將於 2025 年11月 25 日(二)舉行 「2025 KDAN Solution Day」,集結來自 AWS、點點簽DottedSign 及其他 KDAN 產品代表,共同揭示KDAN「數位生態圈」的全新策略佈局與應用實戰。誠摯邀請企業合作夥伴蒞臨現場,與產業領袖一同洞見未來、共創價值。請至凱鈿官網或Accupass活動頁報名。
AI軍備競賽的真相:1.4兆砸下去,才發現瓶頸不是晶片!
當今科技界最有權勢的兩個人——OpenAI 的 CEO 山姆·奧特曼(Sam Altman)和微軟的 CEO 薩提亞·納德拉(Satya Nadella)——最近坐到了一起。在播客《All things AI》上,他們的一場對話,不小心洩露了 AI 革命背後一個驚人又好笑的秘密。大家都以為 AI 競賽的關鍵是演算法、是資料、是更牛的晶片。但納德拉親口承認,今天限制他們狂飆的最大瓶頸,甚至不是缺輝達的 GPU,而是缺能把這些晶片插進去的“暖房”(warm shells)。你沒聽錯,就是物理世界的資料中心、配套的電力、乃至於施工隊的進度,成了數字世界狂奔的最大“絆腳石”。1.4兆的豪賭:唯一的風險是“彈藥不夠”對話中最尖銳的問題,莫過於主持人拋出的那個天文數字:OpenAI 承諾在未來幾年投入高達 1.4 兆美元去搞算力基礎設施建設。 而 OpenAI 今年的營收,據報導“也就”130億美金。這聽起來簡直是“蛇吞象”,錢從那來?奧特曼的回答相當霸氣,他先是糾正:“我們的收入比你報的多得多。” 接著半開玩笑地說:“你要是擔心,想賣手裡的 OpenAI 股票,我立馬就能給你找到買家。”潛台詞很明顯:我們不愁錢,更不愁沒人信。奧特曼承認這是一場豪賭,賭的就是 AI 的能力和收入會繼續“陡峭地增長”。在他看來,那 1.4 兆不是負債,而是實現下一個目標的“彈藥”。他們真正恐懼的,不是錢花多了,而是“彈藥不夠”。沒有足夠的算力,就做不出更強的模型,也就無法產生更多收入。而作為最大的“彈藥供應商”,納德拉也力挺奧特曼,他說 OpenAI 交給微軟的每一版商業計畫,“每一次都超額完成了”。拆解新協議:微軟血賺,OpenAI 也沒虧這場對話的另一個核心,是雙方剛敲定的新合作協議。外界一直好奇,在這場聯姻中,到底誰佔了便宜?答案是:微軟拿到了“裡子”,OpenAI 獲得了自由。根據新的協議,微軟拿到的最大王牌,不是那 27% 的股權(估值約1350億美元),而是一項長達七年的“免版稅使用權”(Royalty-free access),可以盡情使用 OpenAI 的模型和 IP。 納德拉自己都興奮地表示,這相當於“免費獲得了一個前沿模型”(a frontier model for free)。這意味著,微軟可以把這個星球上最強的 AI 大腦,幾乎“零成本”地塞進它所有的核心產品裡——Office、Windows、GitHub、Bing……這筆買賣,堪稱科技史上最划算的投資之一。那麼 OpenAI 得到了什麼?答案是“有控制的自由”。新協議規定,OpenAI 的核心模型 API(你可以理解為 GPT-4o 或未來的 GPT-5)在 2030 年之前,將繼續在微軟的 Azure 雲上向大企業客戶“獨家”提供。 但是,其他所有產品——包括萬眾矚目的視訊模型 Sora、AI 智能體(Agents)、開源模型,以及未來可能推出的可穿戴裝置等——都不再受此限制。 OpenAI 可以自由地在亞馬遜的 AWS 或Google的雲平台上分發這些產品。這是一個精妙的平衡,微軟鎖定了雲服務的核心競爭力,而 OpenAI 則獲得了探索更多商業模式的廣闊空間。AI 的終極目標:科學發現與宏觀委託花了這麼多錢,繫結得如此之深,他們到底想去向何方?奧特曼給出了一個充滿理想主義色彩的答案:“AI 用於科學”(AI for Science)。他最期待的,是 AI 能夠做出那怕微小但卻是“全新的科學發現”的那一刻。 在他看來,當 AI 開始擴展人類知識的總和時,那就是超級智能的某種體現。納德拉則更為務實,他聚焦於人機互動的下一次革命。他將其定義為“宏觀委託,微觀調校”(Macro delegation and micro steering)。這是什麼意思?想像一下,你不再是對著搜尋框或聊天框小心翼翼地提問,而是直接給 AI 下達一個大任務,比如“幫我策劃並預訂下周去日本的全家旅行”。AI 會自己去搞定一切,只在關鍵節點回來問你:“酒店 A 和 B,你選那個?”這背後,是 AI 從一個“工具”到一個“管家”或“代理人”的轉變。我們每個人的未來:一個人頂一個團隊聊到最後,話題不可避免地觸及了 AI 對普通人工作的影響。納德拉提出了一個詞:“利潤率擴張的黃金時代”(golden age of margin expansion)。他預測,未來的公司,營收可能會翻倍,但員工數可能只會增加一點點。因為 AI 將每個員工的“槓桿率”極大地放大了。他舉了一個微軟內部的例子:一個負責網路營運的女主管,需要和全球 400 家光纖營運商打交道,工作極其繁瑣。她向上級抱怨,就算批准預算,也招不到足夠的人來幹這活。於是,她自己動手,用 AI 做了許多智能體,把整個維運流程給自動化了。這就是未來——“AI 讓你一個人幹一個團隊的活”。這不是一個關於大規模失業的恐怖故事,而是一個關於“重新學習如何工作”的提醒。在 AI 的加持下,一個團隊能完成過去十倍的工作量。未來,公司的“人頭數”增長將遠遠慢於“營收”的增長。這場對話揭示了一個清晰的現實:AI 競賽已經從程式碼和演算法的“數字戰”,正式進入了拼資料中心、拼能源的“物理戰”。而微軟和 OpenAI 這對已經深度捆綁的盟友,正試圖用天量的資本和一份精妙的協議,聯手定義下一個計算時代,以及我們每個人的工作方式。 (AI進擊之旅)
中國國內首次!8.9毫秒推理速度破紀錄,1元打穿百萬token
【新智元導讀】當所有人還在為參數內卷時,智能體真正的決勝點已經轉向了速度與成本。浪潮資訊用兩款AI伺服器直接給出了答案:一個將token生成速度幹到10毫秒以內,一個把每百萬token成本打到1元時代。Agentic AI時代,已經到來!輝達GTC大會上,老黃公開表示,當AI具備了感知和推理能力時,智能體AI就誕生了。「它如同數字世界的「機器人」,本質是理解-思考-行動」。當前,AI智能體革命已至臨界點。國內外科技巨頭紛紛加速佈局,全力爭奪這一賽道主導權。據Gartner預測,到2028年,AI智能體將參與人類約15%的日常工作決策。Georgian報告也顯示,如今,91%的企業研究主管正計畫在內部鋪開Agentic AI的落地應用。然而大規模部署之前,「互動速度」與「成本控制」仍是橫亙在許多企業面前的兩大關鍵挑戰。這裡有簡單的一個案例,就足以說明一些問題。國外一支開發團隊基於Azure的OpenAI服務,建構了一個智能體。然而,隨著時間的推移,響應變得越來越慢,一次簡單查詢耗費10秒以上。當他們用OpenAI API測試完全相同的提示詞後發現:OpenAI響應時間為1-2秒,Azure則需要5-10秒。同一款模型,同一個提示詞,卻有五倍差異。要知道,智能體的互動速度,直接決定了使用者體驗的質量。如今,人們對AI響應速度的期待,已從「秒級」進化到「毫秒級」。不僅如此,成本又直接決定了智能體產業化的可行性。多智能體的協作,對低延遲和token消耗又提出了更高的要求。分毫必爭的響應速度,決定了人們是否願意買單;而真金白銀的投入,則決定了企業能否持續推動AI智能體落地。那麼,如何才能既要又要呢?在2025人工智慧計算大會上,浪潮資訊重磅發佈了兩大破局創新系統:元腦SD200超節點AI伺服器,以及元腦HC1000超擴展AI伺服器。在元腦SD200上,DeepSeek R1大模型的Token生成速度飆升至8.9毫秒,創下國內LLM推理的最快紀錄,首次將智能體即時互動帶入「10毫秒」時代。在元腦HC1000上,LLM的推理成本被前所未有地壓縮至「1元/百萬Token」,徹底擊穿規模化部署的成本天花板。Scaling Law下一站:AI智能體爆發2025年,大模型的Scaling並未放緩,而是進入了一個全新的階段。Scaling Law的焦點,早已從「預訓練」轉向了「推理」。從o3、Gemini 2.5,到Grok 4、GPT-5,全球頂尖AI不斷迭代,每一次發佈都刷新了以往SOTA。這一演進的節奏仍在加速。爆料稱,GoogleGemini 3.0、OpenAI Sora 2都將於十月初面世。反觀國內,DeepSeek R1/V3.1-Terminus、Qwen家族等開源模型,月更、周更已成為常態。在能力邊界上,LLM正從純文字,走向了融合視覺、聽覺的多模態模型,並逐步演變為一個底層「作業系統」。可以預見,AI能力將依舊會指數級增長——LLM性能越來越強,所處理的任務長度和複雜度,也在不斷提升。我們看到,Scaling Law推動的模型參數量,從百億千億向兆、甚至百兆邁進。與此同時,在後訓練階段增加算力投入,可顯著提升LLM推理能力。為何這一轉變如此重要?因為「推理」是建構Agentic AI的基礎。眾所周知,2025年,是「智能體元年」。作為LLM的核心應用形態,智能體落地進入了爆發期。在這一賽道上,Google、OpenAI、Anthropic等巨頭競相佈局。比如,OpenAI的「編碼智能體」GPT-5-Codex深受開發者歡迎;另外,還有正在內測的「GPT-Alpha」,具備高級推理、全模態,可以呼叫工具。然而,AI智能體的產業化落地並非易事。能力、速度和成本,成為了當前AI智能體產業化決勝的「鐵三角」。AI不再侷限於技術演示、實驗,而要深入場景,成為創造可衡量價值的核心生產力。這意味著,商業成功的核心已從單純追求模型能力,轉向對能力、速度、成本三者的綜合平衡。互動速度:決定智能體的商業價值在智能體時代,速度不再是錦上添花,而是生存底線。token的吞吐速度,已成為AI應用建構的「隱形計時器」。在人機互動時代,我們對AI延遲感知不強,只要響應速度跟上人類閱讀思維即可。一般來說,只要滿足20 token/s輸出速率,就能實現流暢的閱讀體驗。而現在,AI的遊戲規則徹底改變。互動主體不再是「人-機」對話,而是「智能體-智能體」的高頻博弈。延遲那怕是幾毫秒,也可能導致決策失效。而且,在規模化商業部署中,這種差異會被無限放大,形成「以快殺慢」的絕對碾壓。智能體間互動,多為「小封包」高頻通訊。這好比修了16條車道高速公路,AI只跑兩公里,巨大的頻寬對於小包傳輸如同虛設。而傳統通訊協議「上下高速」的過程,反而成了主要耗時。延遲是會層層累加的。當前智能體僅是初露鋒芒,未來網際網路將由它們主導協作。每一個互動環節的微小延遲,都會在複雜的協同網路中呈指數級放大,最終導致整個應用響應慢到無法接受。如果延遲無法降低,那就失去了商業化的可能性。舉個栗子,在欺詐防控場景中,對智能體響應速率提出了極限要求——約10毫秒。當前,DeepSeek響應速度基本在10-20毫秒左右,其他的普遍高於30毫秒。這遠不足以支援AI的高頻互動。token成本:規模化的生死線此外,token成本,是智能體能否實現規模化擴張,並且盈利的關鍵。即便模型能力卓越,若token成本無法控制在合理範圍內,高頻、並行的實際應用,將難以持續。一方面,LLM存在著「token膨脹」效應:推理前思考過程已產生上千萬token。一個複雜任務,直接讓token成本指數級暴漲。那麼,是什麼原因導致token思考數暴增?首先必須承認的是,模型本身演算法能力差異是影響因素之一。不同LLM在設計和訓練過程中,演算法架構和最佳化策略各有優劣,而最佳化程度更高的LLM可通過更高效推理路徑,在較少token消耗下完成相同的任務。其次,底層計算架構選擇路徑等,也會進而影響token成本。因為LLM運行有依賴於底層的計算架構,包括硬體加速器、分散式運算框架等等。若是計算架構無法高效支撐LLM推理需求,比如在分佈式系統中存在通訊瓶頸或計算資源分配不均,LLM可能需要生成更多token「繞路」完成任務。當前,在做AI Coding的程式設計師,每月消耗token數比一年前平均增長約50倍,達到1000萬-5億token。企業每部署一個智能體,平均token成本大概1000-5000美元。未來五年,token消耗預計增長100萬倍。可見,不論是速度,還是成本,都成為AI智能體商業化落地的最大挑戰。面對這個難題,我們該如何解?兩大核心方案,拿下速度成本難題浪潮資訊,同一時間給出了兩大解決方案——元腦SD200超節點AI伺服器元腦HC1000超擴展AI伺服器元腦SD200若要實現更低延遲token生成能力,就需要在底層基礎設施,比如架構、互聯協議、軟體框架等關鍵點上,實現協同創新。浪潮資訊新的突破,在於元腦SD200超節點AI伺服器。如前所述,DeepSeek R1在元腦SD200上token生成速度實現了8.9毫秒。目前,最接近的競爭對手,最好的資料是15毫秒。這是國內首次將智能體即時互動,帶入到10毫秒時代。為何元腦SD200能夠取得如此大的速度突破?這背後離不開團隊,融合了智能體應用和超節點開發的技術成果。 首創多主機3D Mesh系統架構它可以實現單機64路本土AI晶片縱向擴展(Scale Up),提供4TB視訊記憶體和6TB記憶體,建構超大KV Cache分級儲存空間。而且,單節點即可跑4兆參數LLM,或同時部署多個協作的智能體。此外,在硬體設計上還支援了「開放加速模組」(OAM),相容多款本土AI晶片。 跨主機域全域統一實體位址空間團隊還通過遠端GPU虛擬對應技術,突破了跨主機域統一編址的難題,讓視訊記憶體統一地址空間擴展8倍。它還支援拓撲動態伸縮,可按需擴展128、256、512、1024卡的規模。通過Smart Fabric Manager,元腦SD200實現了單節點64卡全域最優路由,保障了晶片間通訊路徑最短,進一步縮短了通訊延遲。最重要的是,互連協議的設計,是元腦SD200實現極低延遲的關鍵。首先,團隊採用了基建的協議棧,只有物理層、資料鏈路層、事務層三層協議,原生支援Load/Store等「記憶體語義」,GPU可直接訪問遠端節點的視訊記憶體或主存。並且,基礎通訊延遲達到了「百納秒級」。其次,浪潮資訊Open Fabric原生支援由硬體邏輯實現的鏈路層重傳,延遲低至微秒級。不依賴OS、軟體棧,它就能匹配更低延遲、更高吞吐的AI推理場景。元腦SD200還採用了,分佈式、預防式流控機制,無需丟包或ECN來感知擁塞。得益於以上高效、可靠的協議設計,元腦SD200實現了業界最低0.69微秒通訊延遲。當然了,超節點的大規模商業化應用,還必須依靠整機的高可靠的設計。為此,浪潮資訊從系統硬體層、基礎軟體層、業務軟體層,建構了多層次、可靠的保障機制。系統硬體層:全銅纜電互連,短距離緊耦合傳輸,每十億小時故障率低於「光模組互聯」方案100倍基礎軟體層:創新GPU故障資訊轉儲、跨域故障關聯定位等技術,實現全方位可觀測、全端維運自動化業務軟體層:基於Profiling性能資料啟動故障預隔離和任務自動遷移,保證業務故障預測與自癒,實現推理響應不中斷在元腦SD200上,團隊還非常強悍地實現了推理性能超線性擴展。這意味著,性能的提升幅度超過了資源投入的增加幅度。以DeepSeek R1-671B為例,從16卡擴展到64卡,實現了16.3倍超線性的擴展率!具體來看,元腦SD200將這件事做到了極致的完美:通過PD分離策略、動態負載平衡等技術,充分發揮出了超節點的架構優勢,讓系統內部的處理流程變得極其高效,資源競爭和擁堵被降到最低。最終,將通訊耗時控制在了10%以內。可以設想,在實際高並行場景下,當請求量急劇攀升時,系統能夠高效地將負載均勻分佈至各個計算單元,避免了個別節點的「擁堵」拖累整個系統的響應時間。這意味著,無論是第1個請求,還是第100萬個請求,都能獲得同樣穩定且低水平的延遲。既能「跑得快」又能「跑得多」,保證絕對極致的低時延,這就是實現規模化的生命線!基於軟體生態FlagOS,元腦SD200還能繼續相容更大的生態,主流程式碼即可直接編譯運行。當前,元腦SD200已實現對Pytorch算子的全覆蓋,AI4S的典型應用可以一鍵遷移。如下所示,64個AlphaFold 3蛋白質結構預測,即可在一台元腦SD200超節點AI伺服器同時運行。速度挑戰解決之後,token成本又該怎麼打下來?元腦HC1000為此,浪潮資訊給出的答案是——元腦HC1000超擴展AI伺服器。它基於全對稱DirectCom極速架構打造,能夠聚合海量的本土AI晶片,支援極大的推理吞吐。對於一個企業來說,在起步探索、POC階段,平台通用性更加重要,可以快速驗證想法,搶佔市場先機。這對其創新、迭代的速度,至關重要。但當它進入大規模部署階段,即應用被市場驗證,token呼叫數呈指數級增長是時,核心目標又轉變為——高效、低成本營運。而元腦HC1000,就能把推理成本打到最低1元/百萬token。 全對稱DirectCom極速架構DirectCom極速架構,每計算模組配置16顆AIPU,採用了直達通訊的設計,解決了傳統的伺服器架構下,協議轉換和頻寬增強問題,實現了超低延遲。計算通訊1:1均衡配比,實現了全域的無阻塞的通訊。傳統意義上,計算與通訊是互斥關係,計算時不會傳輸,計算完成後再傳。當前,有很多將計算和通訊結合的策略,主要是把原來在傳過程,針對GPU等待時間做最佳化。除此之外,還包含了許多細粒度的任務,比如不同模型架構,不同並行情況,通訊資料區塊大小和通訊策略都要最佳化,才能提升效率。HC1000還採用全對稱的系統拓撲設計,可支援靈活PD分離、AF分離,按需配置算力,最大化資源利用率。它還支援多元算力,讓不同的晶片協同工作。 超大規模無損擴展同時,HC1000支援超大規模無損擴展,實現從1024卡到52萬卡不同規模的系統建構。計算側支援DirectCom和智能保序機制,網路側支援包噴灑動態路由,實現了深度算網協同,相較傳統RoCE方法提升1.75倍。它還支援自適應路由和智能擁塞控制演算法,將KV Cache傳輸對Prefill、Decode計算實例影響降低5-10倍。總結來看,元腦HC1000是通過「全面最佳化降本」和「軟硬協同增效」,實現了高效token生產力。它不僅創新了16卡計算模組,單卡成本暴降60%+,每卡分攤系統均攤成本降低50%。而且,它採用了大規模工業標準設計,降低了系統複雜度的同時,還提高了系統可靠性,無故障執行階段間大幅延長。系統採用的DirectCom架構保障了計算和通訊的均衡,讓算網協同、全域無損技術,實現了推理性能1.75倍飆升。通過對LLM的計算流程的細分和模型結構的解耦,實現了計算負載的靈活的按需配比。單卡MFU計算效率,最高可以提升5.7倍。元腦SD200+元腦HC1000,成為浪潮資訊兩大「殺手鐧」,分別攻克了AI智能體應用速度和成本難題。那麼,下一步又該走向何方?「專用計算架構」是未來近期,OpenAI在算力佈局上,動作頻頻:先是和甲骨文簽下3000億美元大單,隨後又獲得輝達100億美元的投資。緊接著,他們又官宣了「星際之門」五大超算全新選址計畫。這一系列舉措,無不指向一個核心事實——對於LLM訓練和部署而言,算力需求始終是一個「無底洞」。當前,AI算力的可持續發展正面臨三大關鍵挑戰:工程極限:系統規模的擴展已逼近工程能力的上限。能源壓力:算力的大幅增長給電力基礎設施帶來了巨大負擔。效能失衡:算力投入和產出失衡,商業兌現處理程序緩慢。目前,市面上的「AI晶片」仍以通用晶片為主。GPU,是增加了CUDA核心和矩陣運算Tensor核心的傳統圖形計算晶片;ASIC,則是最佳化了矩陣計算和張量處理的通用矩陣計算晶片。但正如前文所述,這些基於通用計算架構的方案,正逐漸在能效比和成本效益上觸及瓶頸。僅是單純依靠堆疊更多計算單元,或是提升製程工藝的傳統路徑,難以沿著scaling Law在算力規模、能耗、成本之間取得平衡。其原因在於,通用架構雖然適用性強、易於產業化推廣,但效率低下。相比而言,應用面較窄的專用架構,則有著更高的效率。對此,浪潮資訊AI首席戰略官劉軍認為,未來的關鍵便是在於「發展AI專用計算架構」:我們必須推動發展路徑的轉變,要從一味地追求規模擴展,轉向注重提升計算效率。並以此為基礎,重新構思和設計AI計算系統,大力發展真正面向AI應用的「專用計算架構」。具體而言,就是從硬體層面來最佳化算子與演算法,定製出大模型專用晶片,進而實現軟硬體層面的深度協同最佳化,即「演算法硬體化」。只有這樣才能讓性能的Scaling,追上token的高速增長。這不僅是突破算力瓶頸的必經之路,更是推動AI產業邁向下一階段的基石。面對大模型時代,浪潮資訊的前瞻性思考為業界指明了一條方向:通過創新計算架構,讓AI更好地走向落地。 (新智元)
經濟學人承認,矽谷精英都在偷偷用中國AI
GPT-4這樣的頂級模型,是“專有模型”(proprietary AI models)。就是技術是保密的,你只能通過付費API來呼叫它,核心程式碼和資料你都摸不著。美國科技巨頭們正斥巨資 (spending megabucks) 投入這場競賽,試圖破解彼此的秘密。然而,在中國,戰場完全不同。史丹佛大學的AI大牛吳恩達 (Andrew Ng) 將其形容為一場“達爾文式的殊死搏鬥” (a Darwinian life-or-death struggle)。但這搏鬥,並不是發生在密不透風的實驗室裡,而是在“開源模型”的競技場上。今年一月,一家名叫“深度求索”(DeepSeek)的中國初創公司,幾乎憑藉“一己之力”撼動了全球市場。他們幹了件大事:把一個非常先進的AI模型,直接免費開放了。而且他們的研發成本極低 (developed on a shoestring),根本沒花多少錢。如今,連美國頂級的風險投資公司安德森·霍洛維茨 (Andreessen Horowitz, a16z) 的合夥人都說,現在走進他們辦公室的創業者,十有八九用的都是中國製造的AI模型。他說:“我敢說有八成可能性 (I’d say 80% chance),他們用的都是中國的開源模型。”想不到吧。矽谷的未來,竟然在悄悄地建立在中國的AI基石之上。這裡要澄清一個概念,嚴格來說,中國公司提供的不是完全的“開放原始碼軟體”(open-source software),那種是連原始碼都給你。它們提供的是“開放權重模型”(open-weight models)。簡單理解,就是AI模型訓練好之後,內部有無數個參數,這些參數就像是它學到的所有知識和能力的濃縮。中國公司把這些核心的“權重” (weights) 開放了,讓所有人都能下載、修改、部署在自己的伺服器上。這直接導致了一個驚人的結果:在各種智力測試中,今年發佈的中國開源模型,已經超越了美國的同類對手,比如社交巨頭Meta的Llama系列。而且,它們的能力正在迅速逼近 (closing in on) 那些最頂尖的專有模型。面對這種壓力,就連曾經的開源先鋒OpenAI也坐不住了。諷刺的是,它的名字裡就帶著“Open”(開放),但為了賺錢和防止技術濫用,它早就轉向了“閉門造車”的專有模型路線。最近,他們發現自己的客戶越來越多地在使用包括中國模型在內的開源方案,於是趕緊推出了一個自己的開源模型,叫gpt-oss。西雅圖艾倫人工智慧研究所的專家說得很直白:中國公司是“全身心投入”(go all-in),把他們最好的模型拿出來開源;而美國公司呢,總是把那個“閃亮的新東西” (the shiny new thing)藏起來,留作自家的專有產品。艾倫人工智慧研究所的Ali Farhadi說:“As hard as it is for us all to swallow, I think we’re behind [on open weights] now.”“儘管我們大家都不太願意承認,但我認為我們(在開源權重方面)現在已經落後了。”你可能會問,美國專有模型賺的錢、獲得的估值(OpenAI最高可達5000億美元),都遠遠超過中國的開源模型。錢可以用來投入再創新,這難道不是一個良性循環嗎?沒錯。但開源模型玩的是另一套邏輯。美國的巨頭們,正在“拓展智能的邊界” (pushing the frontiers of intelligence),他們想造出最強的“超級大腦”。而中國的開源力量,則更專注於“鼓勵AI的普及應用” (encouraging adoption of AI)。它們讓企業、政府和研究人員能夠更輕鬆地把AI技術應用到各個“犄角旮旯” (nooks and crannies) 的具體場景中。因為開源,你可以把模型部署在本地 (on premises),而不是完全依賴雲服務,這對於資料安全和定製化來說至關重要。換句話說,一條路是向上走,追求極致的高度;另一條路是向外鋪,追求極致的廣度。但《經濟學人》在文末給出了一個發人深省的結尾:如果中國的策略成功了,那麼“深度求索”帶來的衝擊波 (the DeepSeek shock),可能僅僅只是一個開始。未來的AI世界,或許不是由一個“最強大腦”一統天下,而是由無數個經過定製、深入到生活和工作方方面面的AI共同構成。如果是那樣,誰掌握了“普及”的鑰匙,誰就可能掌握了未來。 (王不留)
AI圈API大戰半年報:GoogleGemini獨霸半壁江山,DeepSeek悶聲發大財,OpenAI竟然沒進前三?
哈嘍哇,各位老鐵!AI尼歐哥我又雙叒叕來跟大家嘮嗑了!2025年這都過去一半了,AI圈的API大戰那是打得一個熱火朝天,風起雲湧。誰是真霸主?誰在裸泳?誰又在悶聲發大財?最近,推特上有位叫「karminski-牙醫」的大神,基於OpenRouter的資料,給我們扒了扒上半年大模型API市場的底褲。這不看不知道,一看嚇一跳!今天AI尼歐哥就帶大家好好盤一盤這份戰報,這瓜保熟,不好吃你來找我!/ 01 / 市場份額大洗牌:Google亂殺,DeepSeek瘋跑,OpenAI你人呢?先上乾貨,看看現在的API江湖座次表:1. Google (Google):簡直是殺瘋了!一個人獨佔43.1%的市場份額,穩坐頭把交椅。Gemini系列全家桶,特別是那個便宜又大碗的Gemini-2.0-Flash,性價比直接拉滿,誰能頂得住啊!2. DeepSeek:全場最大黑馬,沒有之一!硬是靠著DeepSeek-V3模型,從巨頭嘴裡搶下了19.6%的份額,直接把Anthropic擠到了第三。這說明啥?光靠吹牛逼沒用,人民群眾不好騙,產品好用、使用者粘性高才是硬道理!3. Anthropic:Claude系列表現也還行,以18.4%的份額守住了第三的位置,在程式設計等專業領域還是有一批鐵粉的。4. OpenAI:最讓人大跌眼鏡的就是它!市場份額波動極大,不僅沒進前三,還被前面的大佬甩開了一大截。GPT-4o發佈時那麼大陣仗,結果在API市場就這?人已麻,這波操作我看不懂!AI尼歐哥辣評:這牌桌變化太快,就像龍捲風!Google用“性價比”和“全家桶”兩張王牌把市場拿捏得死死的。而DeepSeek這匹黑馬的出現,證明了技術實力才是真正的護城河。至於OpenAI,是不是心思都花在App和整活上了,API這塊地都快荒了喂!/ 02 / 細分戰場神仙打架:各家都有“自留地”!光看總份額不過癮,我們再深入敵後,看看在各個細分領域,誰才是真正的王者!* 程式設計領域:Claude-Sonnet-4是絕對的王!佔據了44.5%的份額,看來程式設計師老哥們寫程式碼還是最認它,專業能力這塊沒得說。* 翻譯領域:Gemini-2.0-Flash再次亂殺全場!便宜、量大、速度快,簡直是翻譯場景的完美選擇。前幾名裡有七款都是Google的模型,這統治力,恐怖如斯!* 角色扮演(RP):這塊市場就比較“花”了,各種小眾模型百花齊放,主打一個“XP自由”。有意思的是,DeepSeek憑藉“高幻覺傾向”(說白了就是想像力豐富,能瞎掰)居然在這裡領先了。看來有時候,一本正經的AI反而沒有胡說八道的AI可愛啊!* 行銷領域:GPT-4o總算給OpenAI找回了場子!以32.5%的份額成為當之無愧的No.1。這說明在寫行銷文案、搞創意這塊,GPT的“嘴皮子”還是最溜的。AI尼歐哥辣評:API市場已經不是“一招鮮,吃遍天”的時代了。各家都在找自己的生態位,程式設計師用Claude,翻譯找Gemini,寫廣告還得是GPT。這種“術業有專攻”的局面,對咱們使用者來說,絕對是好事!/ 03 / 總結陳詞:幾家歡喜幾家愁扒完資料,AI尼歐哥我來給大家做個總結:* Google: 贏麻了。產品策略清晰,高低搭配,用性價比和全覆蓋把市場攪得天翻地覆。* DeepSeek:最大的驚喜。再次證明了,在AI圈,硬核技術才是最性感的肌肉。雖然它的DeepSeek-R1因為出第一個字太慢被瘋狂吐槽,但V3是真的香,使用者留存率高得嚇人。* Anthropic:穩紮穩打。專精於程式設計等領域,找到了自己的舒適區,活得還挺滋潤。* OpenAI:雷聲大,雨點小。API市場的表現實在有點拉胯,再不重視,這塊大蛋糕可就真沒你的份了。* Meta (Llama) & Mistral:一個份額持續萎縮,一個不溫不火,基本上在牌桌邊緣OB了。好啦,今天AI尼歐哥就跟大家嘮到這兒。總的來說,2025上半年的API江湖,就是Google的強勢碾壓和DeepSeek的黑馬逆襲。 (AI尼歐哥)
Meta宣戰OpenAI!發ChatGPT超強平替App,語音互動聯動AI眼鏡,Llama API免費用
Llama API免費體驗,獨立App正式上線。Meta和OpenAI全面開戰了!智東西4月30日報導,今天,在首屆LlamaCon開發者大會上,Meta正式發佈了對標ChatGPT的智能助手Meta AI App,並宣佈面向開發者提供官方Llama API服務的預覽版本。Meta AI App是一款智能助手,基於Llama模型打造,可通過社交媒體帳號瞭解使用者偏好、記住上下文。與ChatGPT一樣,Meta AI App支援語音和文字互動,並額外支援了全雙工語音互動(Full-duplex,允許在接收語音的同時平行處理和響應,支援邊聽邊說、即時打斷等功能)。Meta AI App可作為Meta RayBan AI眼鏡的配套應用程式,使用者能通過該眼鏡直接與Meta AI App對話。同場發佈的Llama API提供了包括Llama 4在內的多款模型,這一API與OpenAI SDK相容,使用OpenAI API服務的產品可無縫切換至Llama API。同時,Meta在新API中提供了用於微調和評估的工具,開發者可以打造符合自身需求的定製化模型,還可使用由AI晶片創企Cerebras和Groq提供的快速推理服務。值得一提的是,過去數年中,Llama相關發佈僅作為Meta Connect開發者大會上的一個環節,此次專門辦會足見他們對AI業務的重視。Meta CEO祖克柏並未出現在發佈會現場,會後其將參與2場對談。關於價格,開發者可通過申請獲取Llama API免費預覽版的使用權限。未來,這一API或將採取收費模式,具體價格表尚未發佈。Meta AI App及Web版本均已上線,免費可用。Meta AI Web端:https://www.meta.ai/Llama API文件:https://llama.developer.meta.com/docs/overview01.Llama模型下載量已超12億Meta AI App主打語音互動Meta首席產品官Chris Cox在LlamaCon大會上分享了Meta開源AI的最新進展。Cox稱,2年前,Meta內部對開放原始碼的商業化前景和優先順序問題都持有懷疑態度,但如今開源AI已成為行業大勢所趨。2個半月前,Meta宣佈Llama及其衍生模型已經實現了10億的下載量,今天,這一數字已迅速增長至12億。在開源平台Hugging Face上,Llama的大部分下載量均來自衍生模型,有數千名開發者參與貢獻,數萬個衍生模型被下載,每月被使用數十萬次。目前,Llama模型已被運用至Meta旗下的諸多App,包括WhatsApp、Instagram等等。在這些場景中,Llama模型經過了定製處理,以滿足特定用例需求,例如對話性、簡潔性(尤其是移動場景)和幽默感。為提供更豐富的AI體驗,Llama推出了獨立智能助手App——Meta AI。Meta AI App十分重視語音互動體驗,可提供低延遲、富有表現力的語音。Meta AI還可連接使用者的Facebook和Instagram帳戶,根據使用者互動歷史大致瞭解其興趣,並記憶使用者的相關資訊。這一App內建全雙工語音實驗模式。相關模型使用人與人之間的自然對話資料進行訓練,能提供更為自然的音訊輸出。全雙工意味著通道是雙向開放的,使用者可以聽到自然的打斷、笑聲等,就像真正的電話對話一樣。全雙工語音實驗模式還處於早期階段,沒有工具使用、網路搜尋等能力,無法瞭解新近發生的時事。Meta AI App中融入了社交元素,使用者可在發現頁面分享提示詞、生成結果等。這一App能與Meta Ray Ban智能眼鏡配合使用。使用者將能在眼鏡上開始對話,然後從應用程式或網路的“歷史記錄”選項卡中訪問它,以從上次中斷的地方繼續。02.一行程式碼就能呼叫可線上完成模型微調會上,Meta負責Llama業務的副總裁Manohar Paluri與Llama研究團隊成員Angela Fan共同發佈了由Meta託管的Llama API服務。Llama API提供簡單的一鍵式API金鑰建立,一行程式碼就能呼叫。支援輕量級的Python和Typescript SDK開發者以及OpenAI SDK。在API服務網頁中,Meta提供了互動式遊樂場。開發者可在其中嘗試不同的模型,更改模型設定,比如系統指令或溫度,以測試不同的組態。▲Llama API介面此外,開發者還可以使用多項預覽功能,包括基於JSON的結構化響應、工具呼叫等。Paluri認為,定製化才是開源模型真正應該領先的地方。Llama API提供了便捷的微調服務,目前支援對Llama 3.3 8B進行自訂。開發者可在微調標籤頁上傳用於微調的資料,或是使用Meta提供的合成資料工具包生成後訓練資料。▲Llama API模型微調介面資料上傳完成後,開發者可將資料的一部分切分出來,用於評估定製模型的表現。在Llama API平台上,可隨時查看訓練進展情況,微調完成後的模型可供下載,開發者可在任何場景中運行這一模型。大會上,Meta宣佈了與Cerebras和Groq的合作。這兩家企業可提供Llama 4 API服務所需的算力支援,其算力能實現更快的推理速度。03.結語:Llama探索商業化新道路自2023年Llama 1發佈以來,Llama系列模型已歷經四個主要版本,開源了數十款不同參數規模、不同架構的模型。不過,動輒數千億乃至兆參數量的模型,意味著巨大的投入——外媒爆料稱,過去一年內,Meta已經主動與微軟、亞馬遜等公司接洽,希望建立合作關係,共同分擔開發成本。本次,Llama API與Meta AI App的發佈,標誌著Meta開始積極探索Llama系列開源模型商業化的新道路。雖然目前的相關服務均處於免費狀態,但未來,Meta有望以開源模型為入口,引導企業和使用者使用關聯的雲服務,或是利用App實現商業化變現。在講完技術普惠和創新的故事之後,商業化或許是所有開源模型廠商們都需要共同面對的問題。 (智東西)