小成本DeepSeek和Kimi,正攻破奧特曼的「算力護城河」

2025年前盛行的閉源+重資本範式正被DeepSeek-R1與月之暗面Kimi K2 Thinking改寫,二者以數百萬美元成本、開源權重,憑MoE與MuonClip等最佳化,在SWE-Bench與BrowseComp等基準追平或超越GPT-5,並以更低API價格與本地部署撬動市場預期,促使行業從砸錢堆料轉向以架構創新與穩定訓練為核心的高效路線。

2025年以前,AI界盛行著一種信念:只有閉源、巨額投入和瘋狂堆算力才能打造最強大的模型。

OpenAI作為這一思路的旗手,不僅將模型訓練秘而不宣,更與合作夥伴繪製了高達1.4兆美元的基礎設施藍圖。

八年內燒掉1.4兆美元來建構資料中心,被視作確保領先的唯一途徑。

在這種思維下,OpenAI旗艦模型的研發成本節節攀升:據報導,訓練GPT-4就花費了約1億美元。

閉源+重資本模式一度令人信服,OpenAI因此獲得了天價估值和洶湧資本支援。

然而,這一「用錢砸出智能」的神話,正隨著一系列意料之外的挑戰而動搖。

信念的第一次動搖DeepSeek-R1橫空出世

今年年初,一家彼時名不見經傳的中國初創公司深度求索掀起了巨浪。

它發佈的DeepSeek-R1模型不僅開源,而且號稱性能可與OpenAI頂級模型比肩。

更令人瞠目的是,DeepSeek宣稱訓練這款模型只花了約560萬美元,連舊金山一套像樣的房子都買不起。

這個成本數字相比業內普遍認為的「燒錢」等級相差懸殊,僅為Meta開發Llama模型成本的約十分之一。

事實證明,這並非誇誇其談。

DeepSeek-R1發佈後一周內,DeepSeek App下載量迅猛攀升,一舉超越ChatGPT,登頂美國蘋果App Store免費榜。

一款開源AI應用在美國使用者中的受歡迎程度超過了OpenAI的王牌產品,這一幕令業界震驚。

DeepSeek以微薄成本實現高性能,直接質疑了開發AI必須投入天量資金和算力的傳統觀念。

華爾街對此反應劇烈,微軟和Google股價應聲下挫,而AI晶片巨頭輝達的市值甚至蒸發了約17%,相當於約6000億美元。

資本市場用腳投票,開始重新審視AI賽道的投入產出模型:燒錢打造封閉模型的路線,或許並非高枕無憂的康莊大道。

開源低成本路線的核彈Kimi K2 Thinking震撼登場

DeepSeek年初點燃的星星之火尚未平息,中國另一家初創公司月之暗面在年末投下了一枚震撼彈。

本周,月之暗面發佈了最新的開源巨模型Kimi K2 Thinking(以下簡稱K2 Thinking),以開源身份在多個關鍵基準上追平甚至超越了OpenAI的旗艦GPT-5。

要知道,GPT-5可是閉源巨頭最先進的成果之一,而K2 Thinking僅用幾百萬美元訓練,卻在高難度推理和編碼測試上正面較量並拔得頭籌。

K2 Thinking在綜合程式設計挑戰「SWE-Bench Verified」上取得了71.3%的通過率,略高於GPT-5的成績,甚至在複雜網頁搜尋推理任務BrowseComp上,以60.2%對54.9%的得分大幅領先GPT-5。

這些數字宣示了一個歷史拐點:開源模型與頂級閉源模型之間性能鴻溝的實質性塌陷。

K2 Thinking的問世標誌著開源免費模型在高端推理和編碼能力上與封閉系統平起平坐,這一點在過去幾乎難以想像。

而實現這一壯舉,月之暗面投入的算力成本據傳約為460萬美元,比起OpenAI宏圖中的兆投入,幾乎可忽略不計。

一邊是幾百萬美元造就的開放奇蹟,另一邊是幻想燒錢兆的巨無霸帝國,鮮明對比令人不禁懷疑:AI行業過去堅持的大投入邏輯,難道真的站不住腳了?

技術路徑的勝利巧用架構勝過砸錢堆料

K2 Thinking並非魔法橫空出世,而是技術路線差異帶來的成本逆襲。

傳統的GPT-5這類閉源模型採用的是「通用大腦」式架構,每個參數對每個輸入都會發動運算,因而模型越大推理開銷越驚人。

K2 Thinking則採用混合專家架構,將龐大模型劃分為384個專長各異的專家模組。

每次僅有8個專家(外加1個通用專家)被啟動參與計算,相當於只動用320億參數來解決特定問題。

換言之,K2-Thinking擁有一個「萬智百寶箱」,每個token只呼叫其中不到3.5%的智力,卻能享受近似兆參數的知識儲備。

這一架構設計讓K2 Thinking在推理時既聰明又節省:「大而不笨重」。

架構最佳化帶來的成本效率提升達百倍之多,令人歎為觀止。

更關鍵的是,月之暗面研發了名為「MuonClip」的自訂最佳化器,在訓練過程中自動穩壓梯度,成功杜絕了超大模型常見的梯度爆炸和損失發散問題。

Kimi-K2在長達15.5兆token的訓練中實現了「零訓練崩潰」,無需人為中途干預重啟,這意味著即使資金裝置相對有限的團隊也能可靠地訓練超大模型。

DeepSeek也在工程上強調「強化學習後訓練」等高效策略,使得小團隊得以攀登AI高峰。

這些技術路徑上的創新,等於是用聰明才智破解了過去只有砸錢才能解決的難題。

曾經只有巨頭燒錢才能鋪就的康莊大道,如今民間高手另闢蹊徑,用技術巧思抄了近路。

開源風暴的經濟學衝擊

當技術壁壘被攻克,開源路線在經濟層面的優勢便愈發凸顯。

K2 Thinking的模型權重可在相應許可證條款下自由下載部署。

這與OpenAI等閉源模式形成鮮明對比,它們的模型被封藏於雲端,只能通過昂貴API租用它們的大腦。

以K2 Thinking為例,其官方提供的API價格是每百萬輸入token收費4元(命中快取時更低至1元)、輸出token16元。

相比之下,OpenAI的GPT-5 API價格約為每百萬輸入token收1.25美元(約9元),輸出token高達10美元(約71元)。

換算下來,同樣百萬token的處理,K2 Thinking的費用僅為GPT-5的十分之一不到。

對開發者和企業而言,這無疑極具誘惑力,更何況K2完全可以本地部署,不願付API費的話,大可以自建服務。

正因如此,我們已看到市場正在迅速響應:越來越多AI工具和平台開始整合K2 Thinking模型,許多開發者在社區分享如何用K2 Thinking微調自訂應用。

DeepSeek-R1發佈後,其MIT開源權重更是被無數開源社區下載、魔改,用於各種外掛和研究項目。

甚至政府機構和大型企業也開始重新考慮,與其斥資購買封閉模型的算力配額,不如採用開源模型作為基礎,掌控自主可控的AI能力——尤其當這些開源模型已經足夠好且成本低廉。

這種用腳投票的風向轉變,不僅出現在技術圈,更在資本圈引發連鎖反應:OpenAI此前天價的資料中心投資承諾,正面對質疑和壓力。

OpenAI高管甚至在公共場合暗示需要政府貸款支援,事後又忙不迭出來「滅火」澄清不尋求政府背書,以平息外界對其燒錢計畫的擔憂。

當巨頭為融資「續命」四處遊說時,開源對手們正用實際成績證明,也許根本不需要那麼多錢,也能把事情辦成。

行業敘事的改寫與泡沫的冷卻

DeepSeek和Kimi K2 Thinking帶來的並非單純的「追趕」,而更像是一場對舊路線的證偽。

過去,封閉巨頭們的護城河建立在一種假設之上:只有不斷投入數量級增長的資金和算力,才能保持模型性能的領先。

這一假設曾讓OpenAI們在資本市場上如日中天,甚至形成了某種估值泡沫,AI公司和底層晶片廠商的價值被無限推高,因為所有人相信燒錢會帶來奇蹟。

然而當開源挑戰者以區區百萬量級美元達到同類水準,這個故事的結局便不再那麼線性。

事實證明,「性能領先的最後20%」或許並非大多數使用者真正需要的,尤其如果為此要付出十倍乃至百倍的價格。

從普通消費者到中小企業,更青睞的是「夠用+便宜」的實惠。

OpenAI等公司無疑依然握有行業頂尖的研究人才和技術積累,但他們再難宣稱自己的路線是「唯一正確且必不可少」的。

行業敘事正在轉向:與其痴迷於砸錢堆出更大模型,不如在架構創新和工程穩定性上下功夫,以換取成本效率和開放生態。

投資者也日趨清醒,過去見誰談AI就砸錢的狂熱減退了許多,現在更關注實際效能和商業可行性。

最危險的對手,不是那個跟你拼燒錢的人,而是那個證明根本不需要燒那麼多錢的人。 (新智元)