【DeepSeek】美國朝中國DeepSeek打了一記重拳


圍繞中國開源 AI 公司深度求索(DeepSeek)熱潮不斷加劇,已成為全民熱議的話題,同時也掀起一股新的AI熱潮。而當前,美國企業界、學術界、政府機構紛紛開啟“反擊”熱潮。

首先是美國企業層面,鈦媒體AGI獲悉,2月7日凌晨,美國OpenAI公司宣佈對o3-mini和o3-mini high模型進行更新,為免費和付費使用者增強推理步驟的透明度,同時為GPT服務增加記憶體,以及公開o3-mini推理思維鏈。

前一日,Google發佈“滿血版”Gemini 2.0模型,將推理AI模型Gemini 2.0 Flash Thinking引入應用以回答覆雜問題。GoogleCEO皮查伊(Sundar Pichai)表示,其計畫2025財年投資750億美元用於發展AI技術,以對抗DeepSeek和OpenAI等競爭對手。

其次是學術界,近期一份模型研究論文震驚世界。美國斯坦福大學教授李飛飛等AI研究人員,僅花費不到50美元(約合人民幣364.61元)雲端運算資源,以阿里通義Qwen2.5-32B-Instruct為基礎模型,通過SFT監督微調方式,最終訓練出開源AI“推理”模型s1,在數學和編碼能力測試中與OpenAI的O1和DeepSeek的R1等尖端推理模型不相上下。該論文作者表示,訓練s1所需的租用計算成本最終僅大約在20美元(約合146元)。

最後是立法機構。據報導,美國眾議員拉胡德(R-Ill.)和戈特海默(D-N.J.)以資料安全為由,這兩天將在美國國會出台一項針對DeepSeek的法案,禁止在聯邦政府的裝置上使用該產品。

更早之前,美國參議員Josh Hawley就提出《美國AI能力與中國脫鉤》法案,稱任何下載或使用DeepSeek的行為將被定性為犯罪,最高可判處20年監禁。


很顯然,隨著DeepSeek、活躍使用者提升GPT,從美國民間到國會機構,從學術界到產業界,都在尋找對抗DeepSeek解決方案。同時,義大利、澳大利亞、韓國等國家相繼出台政策,對DeepSeek進行限制和封殺。

國內AI行業人士李丹(化名)2月6日對鈦媒體AGI表示,DeepSeek的成功至少證明現階段美國無法通過限制晶片出口卡死中國AI發展,通過開源技術和有限的算力仍能追上,但長期來看,算力和資料限制下,中國AI創新技術研究能力依然“無法超越”美國,中國需要在商業化應用層面做更多的工作。

中國常駐聯合國代表傅聰表示:“永遠不要低估中國科研人員的聰明才智。DeepSeek引發全球轟動和一些人的焦慮恐慌,說明技術遏制和技術限制無法奏效,這是全世界、特別是美國需要學習的一課。”


不到50美金,李飛飛團隊給DeepSeek一記重拳

“AI 界拼多多”DeepSeek熱潮帶來的擁抱、恐慌和對抗仍在持續。

在國內,短短六天內,騰訊雲、阿里雲、華為雲、百度智能雲、火山引擎等數十家雲端運算服務龍頭,華為昇騰、沐曦、摩爾執行緒、壁仞等10多家國產AI晶片企業,國內三大營運商移動、聯通、電信相繼宣佈適配、上架或接入DeepSeek模型服務。

然而,這種全民使用造成了DeepSeek平台伺服器算力不足問題。2月6日,DeepSeek證實已暫停API服務充值,“當前伺服器資源緊張,為避免對您造成業務影響,我們已暫停API服務充值。存量充值金額可繼續呼叫,敬請諒解!”

官方價目表顯示,DeepSeek-Chat 模型優惠期至2月8日24時,優惠結束後將按每百萬輸入Tokens達2元,每百萬輸出Tokens計費8元;DeepSeek-Reasoner輸入4元、輸出16元。

同日晚間,DeepSeek發文強調:近期注意到部分與 DeepSeek 有關的仿冒帳號和不實資訊對公眾造成了誤導和困擾。“目前除 DeepSeek 官方使用者交流微信群外,我們從未在國內其他平台設立任何群組,一切聲稱與 DeepSeek 官方群組有關的收費行為均系假冒,請大家仔細辨別,避免財產損失。感謝大家一如既往的支援與關心,我們將再接再厲研發更加創新、專業、高效的模型,並持續與開源社區分享。”


相較於國內欣欣向榮,美國則開始復現模型,呈現成本更低的AI創新發展模式。

2月初,華裔科學家李飛飛等斯坦福大學和華盛頓大學的研究人員以不到50美元的雲端運算費用,僅僅用了 1000 個樣本,用了 16 塊 H100,在 26 分鐘就訓練完成了可以匹敵 o1-preview、DeepSeek R1的開源 AI 推理模型s1,具有320億規模參數。

根據論文,這個模型以阿里通義團隊的Qwen2.5- 32B-Instruct作為基礎模型,通過蒸餾、SFT等多個技術方式GoogleDeepMind的推理模型Gemini 2.0 Flash Thinking實驗版,最終得到了s1模型,而其在數學和編碼能力測試中的表現確實不俗。s1模型作者之一表示,訓練s1所需的計算資源,在當下使用約合146元就能租到。

目前,項目論文《s1: Simple test-time scaling》已經登上arXiv,模型s1也已在GitHub上開源,研究團隊提供了訓練它的資料和程式碼。


鈦媒體AGI根據論文分析,需要特別分享三個新的技術點:蒸餾、SFT和測試時干預 (Test-time intervention)。

所謂蒸餾模型,是一種通過模型資料蒸餾技術得到的模型,核心原理是將大型複雜的教師模型知識傳遞給小型簡單的學生模型,涉及溫度參數調整輸出機率分佈及多種損失函數來實現知識遷移,有知識、特徵、關係蒸餾等方法,以及離線、線上、自蒸餾等策略,廣泛應用於移動端部署、即時推理、邊緣計算等場景,能在減少模型計算成本和儲存需求的同時保持較好性能,包括DeepSeek R1、s1等模型都採用了“蒸餾”策略。

在矽谷投資人王維嘉博士看來,“蒸餾”技術就是“用大模型教小模型”,實際上是把某一方向的垂直知識從大模型裡提煉出來,放到一個小模型裡面,這樣就不用從頭訓練小模型。“就像蘇格拉底、亞里士多德全、達文西可以培養出一個數學老師,一個物理老師,一個化學老師,這就是蒸餾。說蒸餾一般人不是特別理解,你說師傅帶徒弟就全明白了。”

根據論文,在s1模型當中,研究人員從 16 個不同的來源 收集了 59,029 個問題,包括NuminaMATH、MATH、OlympicArena(全是數學)以及一些原創資料集,隨即去重、去污染處理,最終減少到51581個樣本,以及高品質的384個樣本,且使用阿里通義的Qwen2.5-7B-Instruct 和 Qwen2.5-32B-Instruct 兩個模型來評估每個問題的難度。

因此,最終s1資料集包含各種數學和其他科學領域的難題,並具有高品質的推理軌跡(抽數、蒸餾),資料集進一步減少到24496個樣本,實現模型訓練、推理。

而SFT,即監督微調技術,是機器學習領域的常用技術,先在大規模無監督資料集上對基礎模型預訓練,讓其掌握資料基本結構和知識,接著收集特定任務的標註資料集,將預訓練模型在標註資料上進一步訓練,通過計算預測結果與正確標註間的損失值,用最佳化演算法調整模型參數,讓模型在特定任務上的預測更精準。該技術在自然語言處理的文字分類、對話系統,以及圖像處理、推薦系統等領域都有廣泛應用。

s1模型論文上,研究人員大量使用監督微調技術,用篩選出的樣本與阿里通義模型進行評估和反饋,利用SFT讓s1模型達到一個比較好的目標。

最後需要關注的是測試時干預時間,這將決定模型推理的最終性能和目標。

通過各種方法對模型的輸出或決策過程進行調整、最佳化或影響,“測試時干預”可以改善模型在測試時的性能表現、提高預測準確性、增強模型的穩定性或可解釋性等,這些方法可能包括對輸入資料進行特定的預處理、引入額外的資訊或約束、調整模型的參數或超參數、應用特定的後處理策略等。在s1模型當中,測試時干預主要通過 “預算強制 (Budget forcing)” 和 “拒絕採樣 (Rejection sampling)” 兩種方法來實現,最終讓s1模型擁有更好的思維鏈(CoT)能力,以及有能夠更好地控制推理行為,提高問題解決能力。

所以,正如論文所講,s1模型的作用在於,具有強大推理能力的語言模型有可能極大地提高人類的生產力,實現從協助複雜的決策到推動科學突破。然而,推理領域的最新進展,例如 OpenAI 的 o1,缺乏全面的透明度,限制了更廣泛研究進展。因此,我們需要在以完全開放的方式推動推理領域的發展,促進創新和協作,以加速最終造福社會的進步。

不過,s1模型侷限性也不容忽視,其基於阿里通義模型進行“蒸餾”,無法保證模型可控,而且1000高品質的樣本無法滿足解決複雜問題能力。所以,如何保證模型性能提升下,同時降低訓練成本,這是AI 技術研究的一個重要課題。未來,隨著技術的進步和演算法的最佳化,或許我們真的能夠看到更多低成本、高性能的AI模型問世。


全球限制DeepSeek,但華爾街市場質疑科技巨頭AI投資作用

2月7日,韓國兩大能源國企宣佈禁止使用DeepSeek,韓國代理總統崔相穆將DeepSeek稱之為“新的衝擊”,並直接公佈34兆韓元(約合1710億元人民幣)新基金用於支援AI和半導體技術發展。

他提出,韓國的目標是成為世界三大AI領先國家之一。不過韓媒認為,韓國僅擁有2000多張GPU顯示卡,算力資源嚴重不足。

更早之前的2月4日,澳大利亞、愛爾蘭、法國、義大利都宣佈全面限制使用DeepSeek AI服務。此外,從美國國會、五角大樓、NASA到海軍,都考慮或已開始禁止使用DeepSeek,德克薩斯州則成為美國第一個禁止在政府裝置上使用DeepSeek的州。

白宮新聞發言人卡洛琳·萊維特(Karoline Leavitt)表示,美國目前正在研究可能的安全影響。

2月7日凌晨,美國眾議員、伊利諾伊州共和黨眾議員達林·拉胡德 (Darin LaHood)和紐澤西州民主黨眾議員喬希·戈特海默 (Josh Gottheimer),以所有安全為由提出一項法案,稱DeepSeek公司的技術存在風險,“與中國的技術競賽不是美國輸得起的,DeepSeek對美國令人擔憂。”

拉胡德早前在美國參議院會議中表示,“最新DeepSeek被稱為AI 對美國的Sputnik時刻。DeepSeek幾乎證明中國正在AI上趕超美國,中國與DeepSeek的創新令人震驚,但與AGI的最終目標擊敗美國相比還沒有出現,所以我們不能允許這種情況發生。這就是為什麼我將AI作為國會的重中之重的原因。美國的創新是我的北極星,我將繼續這樣做,我希望我們對AI的投資努力將不斷強大,通過立法投資更多用以發展 AI 技術。”

很顯然,以美國為首的國家對DeepSeek帶來的中國 AI 創新熱潮進行質疑和考驗。但與此同時,Meta、Google等美國科技巨頭不斷進行更大規模的 AI 投資正面臨華爾街的“拷問”。

截至目前,Meta、微軟、Google、亞馬遜四大科技巨頭已經宣佈,2025年將總計投入超過3200億美元,用於發展 AI 技術。

其中,Meta計畫2025年資本投入600億-650億美元,比2024年提高約40%,用以 AI 技術投入;微軟計畫投入800億美元用於AI基礎設施;Google預計2025年將在資本支出方面投入750億美元,較去年激增逾42.7%;亞馬遜投資1000億美元,公司CFO表示支出主要包括 AI 服務需求以及AWS雲服務業務設施等。

然而,Futurum Group 分析師丹尼爾·紐曼認為:“考慮到這些巨額開支,他們(美股科技巨頭們)急需提高AI的收入回報,但目前發生的事情(DeepSeek)對美國來說是一個警鐘……就目前而言,AI 的資本支出實在太多,但消費卻不足。”

資料顯示,DeepSeek-V3這個參數量高達671B的大模型在預訓練階段僅使用2048塊GPU訓練了2個月,且只花費557.6萬美元,最終性能卻超越OpenAI-o1等模型。

Direxion資本市場主管Jake Behan認為,現在的問題不在於 AI 支出何時能夠盈利,而在於它是否能夠合理化。

“我們不認為所有公司都會立即轉向DeepSeek,但DeepSeek發佈的低成本、低資源消耗的AI模型表明,AI在未來將變得更加商品化。真正的差異化在於支援更高精準性、安全性和滿足特定需求定製化的平台功能,這也是微軟需要投資的方向。”Valoir分析師 Rebecca Wettemann表示。

不過,另一方面也有分析認為,DeepSeek依然證明算力需求旺盛,AI 需要大量基礎設施的投入,以滿足市場需求。

2月1日,橋水聯席首席投資官(CIO)詹森(Greg Jensen)與橋水運用AI進行市場交易的內部團隊“AIA實驗室”首席科學家Jas Sekhon發文稱,DeepSeek的成就重要且令人印象深刻,他們在極短時間內發展出了排在全球前五的AI實驗室。其成果僅比前沿模型落後數月,成本卻大幅降低。目前,DeepSeek已超越Meta,成為開源大語言模型(LLM)中的領先者。

“需要承認的是,600萬美元這一數字確實展現了顯著進步。”該文寫道,“然而,隨著時間推移,由於AI軟體及硬體的進步,這種效率提升是可以預見的。”

橋水進一步分析稱,推理效率的提高意味著人們會購買更多的推理能力 ,而當前還未達到推理需求曲線的收益遞減點。例如,大量對 AI的需求並不來自直接使用大模型,而是來自生成式AI的其他用途,如機器人、自動駕駛、晶片設計和生物學。LLM模型通常是這些更廣泛應用的一種輸入。隨著LLM的改進,算力瓶頸轉移到其他環節,對這些應用的需求會被釋放出來。

橋水指出,DeepSeek的成果表明,AI的發展和效率正在加速,這對整個AI生態系統的大部分參與者來說是個好消息,也有利於新的 AI投資。這意味著對算力的需求並未放緩,反而可能加速,像微軟和Google這類公司將不惜投入一切必要資源以確保自己處於領先地位,這些超大規模雲服務提供商將受益於大模型成本下降和推理需求上升。

Meta CEO祖克柏表示,他仍然相信大力投資公司的人工智慧基礎設施會成為戰略優勢。“現在就對基礎設施和資本支出的走勢做出判斷可能還為時過早。長期來看,大力投資資本支出和基礎設施將成為一種戰略優勢。”

微軟CEO納德拉(Satya Nadella)則認為,增加AI支出將有助於緩解限制公司充分利用人工智慧的能力的產能問題。他補充說,隨著人工智慧變得更加高效和廣泛可用,“我們將看到需求呈指數級增長。”

圖靈獎得主、Meta AI科學家楊立昆(Yann LeCun)強調,DeepSeek崛起後,投資者對美國科技巨頭股票的拋售,其實是源於對AI基礎設施投資的“重大誤解”。這些數十億美元的資金中,很大一部分都投入到了推理基礎設施中,而不是訓練基礎設施中。為數十億人運行 AI 助手服務需要大量的計算。一旦你將視訊理解、推理、大規模記憶體和其他功能納入 AI 系統,推理成本就會增加。

當前,DeepSeek已經成為 AI 行業不可缺少的關鍵力量。

開源證券發佈研報稱,DeepSeek發佈並開放原始碼的推理模型Deepseek-R1,為行業發展注入全新變數。該模型在智能駕駛與智能座艙等應用領域的潛在價值,DeepSeek的發佈和開源有望推動相關產業升級加速。

中信建投研報表示,DeepSeek在保持模型優異性能指標的同時大幅降低訓練和推理成本,同時,高性能、輕量化、低成本的模型能力將顯著推動端側AI產業發展。 (鈦媒體AGI)