Hugging Face 特別發文:DeepSeek 時刻一周年,中國 AI 改變了什麼?

昨天,全球最大的 AI 開源社區 Hugging Face(抱抱臉) 發佈了他們中國開源系列的首篇文章:“DeepSeek 時刻”一周年。

圖:Hugging Face 的文章

如果說 2023 年是“ChatGPT 時刻”,那麼在 Hugging Face 的眼中,2025 年,無疑是屬於中國開源 AI 的“DeepSeek 時刻”。

這篇報告不僅復盤了過去這一年中國 AI 的“狂飆突進”,更揭示了一個讓無數開發者振奮的事實:攻守之勢,已經異也。

我們一起來看看這篇有意思的復盤文章。

01 為什麼是“DeepSeek 時刻”?

把時鐘撥回到一年前,2025 年的 1 月。

當時,杭州的一家 AI 公司——DeepSeek(深度求索),扔出了那個後來改變一切的 R1 模型。

在 Hugging Face 看來,這不僅僅發了一個新模型,而是中國 AI 發展史上的一個分水嶺。

因為資料記錄下了一個歷史性的轉折點:這是中國開源模型,第一次真正殺進全球主流排行榜。

而且這一進就收不住了。

R1 迅速超越了 Llama 等西方頂流,成為了 Hugging Face 歷史上獲贊最多的模型。

看看現在的榜單,曾經被美國開發者的名字霸屏的時代,終結了。


圖:獲贊最多的模型

在隨後的一整年裡,R1 更是成了全球 AI 界的“度量衡”:任何新模型發佈,都要拿來跟它比一比。

它不再是追隨者,它成了標竿。

報告中有一段非常精彩的論述:

“R1 的發佈給了中國 AI 發展最寶貴的東西:時間。”

在此之前,很多企業在“開源還是閉源”之間搖擺不定,受困於算力瓶頸。

但 R1 的出現,用事實證明了:即便算力有限,只要路線對、迭代快,中國依然可以彎道超車。

Hugging Face 總結了 R1 掃清的三個“障礙”:

  • 技術門檻碎了: 公開推理路徑,把“推理”變成了人人可用的工程模組。
  • 應用門檻碎了: MIT 協議一出,直接商用,大家不再捲跑分,開始卷落地。
  • 心理門檻碎了(這點最關鍵): 報告用了 "Psychological" 這個詞。翻譯成大白話就是:中國開發者的“心魔”破了。 我們不再問“能不能做?”,而是開始問“怎麼做得比別人好?”。

我們中國人說,破山中賊易,破心中賊難。

這種自信的回歸,才是“DeepSeek 時刻”真正的靈魂。

02 被“倒逼”出來的黃金時代

R1 點了一把火,隨後的 2025 年,中國 AI 界發生的事情,被 Hugging Face 稱為“有機的生態爆發”。

這篇報告不僅誇了 DeepSeek,更點名表揚了百度、騰訊、字節、阿里等大廠。

資料顯示,百度在 HF 上的發佈數量從 0 飆升到 100+,其他大廠也是數倍增長。(阿里、字節發佈數量翻了 8~9 倍)

圖:HF 統計的中國公司的模型倉庫增長情況

而 Kimi K2 的發佈,更是被譽為“另一個 DeepSeek 時刻”。

更狠的還在後面。

這些模型發出來不是當擺設的。報告顯示,在所有發佈不滿一年的新模型中,中國模型的總下載量已經超越了包括美國在內的任何其他國家。


圖:中國模型的下載數量超過了任何其他國家

智譜 AI(Zhipu AI)的 GLM、阿里的 Qwen,已經不滿足於發發權重了,他們開始建構完整的工程系統和介面。

每周 Hugging Face 上“最受歡迎”和“下載最多”的榜單裡,中國模型幾乎成了常駐嘉賓。


圖:中國開源模型熱力圖

這裡有一句非常有意思的評論:

“中國玩家們的協同,不是靠簽協議,而是靠‘制約’。”

什麼意思?就是說在同樣的算力限制、合規要求和成本壓力下,大家“被迫”默契地走上了同一條高效的工程化道路。

這聽起來有點“內卷”的苦澀,但資料證明:這種高強度的競爭,捲出了一個生命力極強、甚至開始反超美國的生態。

我們不僅在發模型,更是在定義標準。

03 全球反轉:現在,輪到西方“找替補”了

文章最讓我感到魔幻現實主義的部分,是關於全球反應的描述。

曾幾何時,我們是西方的學徒。但“DeepSeek 時刻”一年後的今天,世界變了。

這種變化,連大洋彼岸的巨頭都坐不住了。

就在上周,微軟(Microsoft) 發佈了《2025 全球 AI 普及報告》,將 DeepSeek 的崛起列為 2025 年“最意想不到的發展之一”

微軟在這份報告裡揭示的資料,非常讓人意外:

在非洲:DeepSeek 的使用率是其他地區的 2 到 4 倍。

原因很簡單:免費、開源。它沒有昂貴的訂閱費,也不需要信用卡,徹底打破了矽谷設下的“付費牆”。

在被西方忽略的角落:資料顯示,DeepSeek 在國內份額高達 89%,在白俄羅斯達到 56%,在古巴也有 49%。

圖:DeepSeek 全球市佔率分佈

微軟不得不承認一個扎心的事實:AI 的普及不僅僅取決於模型有多強,更取決於誰能用得起。

這種“農村包圍城市”的勝利,讓西方開發者徹底破防。

Hugging Face 報告指出,現在許多美國初創公司已經默認使用中國開發的模型作為基座。

甚至出現了“套殼”反轉:美國發佈的 Cogito v2.1(號稱領先的開放權重模型),其實就是 DeepSeek-V3 的微調版。

甚至有一個美國的項目叫 ATOM (American Truly Open Model),他們的立項動機竟然是:“看到 DeepSeek 和中國模型太強了,我們必須奮起直追”。

看到這裡,我真的忍不住想笑。曾幾何時,這是我們的台詞啊。

04 暴風雨前的寧靜:DeepSeek 的“瘋狂一月”

如果你以為 DeepSeek 在發完 R1 後就躺在功勞簿上睡大覺,那你就大錯特錯了。

就在 DeepSeek 時刻一周年即將到來的這段時間(從元旦開始),這家公司的一系列“反常”動作,讓敏銳的技術圈嗅到了一絲暴風雨將至的味道。

動作一:清理“技術債”,R1 論文一夜暴漲 60 頁

就在不久前,有開發者發現 DeepSeek 悄悄更新了那一年前發佈的 R1 論文。

這一更不得了,頁數直接從 22 頁暴漲到了 86 頁!

他們把過去這一年裡所有的訓練細節、失敗嘗試、甚至那些不為人知的“坑”,全部毫無保留地補全了。

這在行業裡通常只有一個解釋:這一頁翻篇了,我們要去搞更牛的東西了。

動作二:底層架構大換血

緊接著,DeepSeek 密集甩出了兩篇重磅新論文:《mHC》和《Engram》。

看不懂沒關係,你只需要知道這兩篇論文想幹什麼——他們在試圖重寫大模型記憶和思考的方式。

特別是 Engram,它想讓模型擁有“即時查閱記憶”的能力。

這意味著,未來的模型可能更小、更快,但更聰明。

動作三:GitHub 裡的神秘程式碼“MODEL1”

昨晚又引起大家關注的,是眼尖的網友在 DeepSeek 更新的 GitHub 程式碼庫裡,扒出了一個疑似新模型的代號——“MODEL1”。

圖:DeepSeek 程式碼庫洩露的 MODEL 1

這個不起眼的變數名,現在已經被各路大神盤包漿了。

大家都在猜,這會不會就是傳說中即將要在春節期間發佈的 DeepSeek V4?

“DeepSeek 的每一次沉默,通常都意味著一次更大的爆發。”

種種跡象表明,2026 年的春節,大機率又不會平靜了。

寫在最後

Hugging Face 這篇報告的結尾,預測 2026 年將會有更猛烈的爆發,尤其是在架構和硬體的選擇上,中國公司將繼續通過開源生態施加影響。

回顧這魔幻的一年,從 DeepSeek R1 的驚天一雷,到百模大戰的全面開源,再到如今 Hugging Face 官方以“DeepSeek Moment”為題來記錄歷史。

這不僅僅是技術的勝利,更是開源精神在東方的勝利。

我們不再是跟隨者,我們已經坐在了牌桌的主位。

2026,好戲才剛剛開始。 (AI范兒)