昨天,全球最大的 AI 開源社區 Hugging Face(抱抱臉) 發佈了他們中國開源系列的首篇文章:“DeepSeek 時刻”一周年。
如果說 2023 年是“ChatGPT 時刻”,那麼在 Hugging Face 的眼中,2025 年,無疑是屬於中國開源 AI 的“DeepSeek 時刻”。
這篇報告不僅復盤了過去這一年中國 AI 的“狂飆突進”,更揭示了一個讓無數開發者振奮的事實:攻守之勢,已經異也。
我們一起來看看這篇有意思的復盤文章。
把時鐘撥回到一年前,2025 年的 1 月。
當時,杭州的一家 AI 公司——DeepSeek(深度求索),扔出了那個後來改變一切的 R1 模型。
在 Hugging Face 看來,這不僅僅發了一個新模型,而是中國 AI 發展史上的一個分水嶺。
因為資料記錄下了一個歷史性的轉折點:這是中國開源模型,第一次真正殺進全球主流排行榜。
而且這一進就收不住了。
R1 迅速超越了 Llama 等西方頂流,成為了 Hugging Face 歷史上獲贊最多的模型。
看看現在的榜單,曾經被美國開發者的名字霸屏的時代,終結了。
在隨後的一整年裡,R1 更是成了全球 AI 界的“度量衡”:任何新模型發佈,都要拿來跟它比一比。
它不再是追隨者,它成了標竿。
報告中有一段非常精彩的論述:
“R1 的發佈給了中國 AI 發展最寶貴的東西:時間。”
在此之前,很多企業在“開源還是閉源”之間搖擺不定,受困於算力瓶頸。
但 R1 的出現,用事實證明了:即便算力有限,只要路線對、迭代快,中國依然可以彎道超車。
Hugging Face 總結了 R1 掃清的三個“障礙”:
我們中國人說,破山中賊易,破心中賊難。
這種自信的回歸,才是“DeepSeek 時刻”真正的靈魂。
02 被“倒逼”出來的黃金時代
R1 點了一把火,隨後的 2025 年,中國 AI 界發生的事情,被 Hugging Face 稱為“有機的生態爆發”。
這篇報告不僅誇了 DeepSeek,更點名表揚了百度、騰訊、字節、阿里等大廠。
資料顯示,百度在 HF 上的發佈數量從 0 飆升到 100+,其他大廠也是數倍增長。(阿里、字節發佈數量翻了 8~9 倍)
而 Kimi K2 的發佈,更是被譽為“另一個 DeepSeek 時刻”。
更狠的還在後面。
這些模型發出來不是當擺設的。報告顯示,在所有發佈不滿一年的新模型中,中國模型的總下載量已經超越了包括美國在內的任何其他國家。
智譜 AI(Zhipu AI)的 GLM、阿里的 Qwen,已經不滿足於發發權重了,他們開始建構完整的工程系統和介面。
每周 Hugging Face 上“最受歡迎”和“下載最多”的榜單裡,中國模型幾乎成了常駐嘉賓。
這裡有一句非常有意思的評論:
“中國玩家們的協同,不是靠簽協議,而是靠‘制約’。”
什麼意思?就是說在同樣的算力限制、合規要求和成本壓力下,大家“被迫”默契地走上了同一條高效的工程化道路。
這聽起來有點“內卷”的苦澀,但資料證明:這種高強度的競爭,捲出了一個生命力極強、甚至開始反超美國的生態。
我們不僅在發模型,更是在定義標準。
文章最讓我感到魔幻現實主義的部分,是關於全球反應的描述。
曾幾何時,我們是西方的學徒。但“DeepSeek 時刻”一年後的今天,世界變了。
這種變化,連大洋彼岸的巨頭都坐不住了。
就在上周,微軟(Microsoft) 發佈了《2025 全球 AI 普及報告》,將 DeepSeek 的崛起列為 2025 年“最意想不到的發展之一”。
微軟在這份報告裡揭示的資料,非常讓人意外:
在非洲:DeepSeek 的使用率是其他地區的 2 到 4 倍。
原因很簡單:免費、開源。它沒有昂貴的訂閱費,也不需要信用卡,徹底打破了矽谷設下的“付費牆”。
在被西方忽略的角落:資料顯示,DeepSeek 在國內份額高達 89%,在白俄羅斯達到 56%,在古巴也有 49%。
微軟不得不承認一個扎心的事實:AI 的普及不僅僅取決於模型有多強,更取決於誰能用得起。
這種“農村包圍城市”的勝利,讓西方開發者徹底破防。
Hugging Face 報告指出,現在許多美國初創公司已經默認使用中國開發的模型作為基座。
甚至出現了“套殼”反轉:美國發佈的 Cogito v2.1(號稱領先的開放權重模型),其實就是 DeepSeek-V3 的微調版。
甚至有一個美國的項目叫 ATOM (American Truly Open Model),他們的立項動機竟然是:“看到 DeepSeek 和中國模型太強了,我們必須奮起直追”。
看到這裡,我真的忍不住想笑。曾幾何時,這是我們的台詞啊。
如果你以為 DeepSeek 在發完 R1 後就躺在功勞簿上睡大覺,那你就大錯特錯了。
就在 DeepSeek 時刻一周年即將到來的這段時間(從元旦開始),這家公司的一系列“反常”動作,讓敏銳的技術圈嗅到了一絲暴風雨將至的味道。
動作一:清理“技術債”,R1 論文一夜暴漲 60 頁
就在不久前,有開發者發現 DeepSeek 悄悄更新了那一年前發佈的 R1 論文。
這一更不得了,頁數直接從 22 頁暴漲到了 86 頁!
他們把過去這一年裡所有的訓練細節、失敗嘗試、甚至那些不為人知的“坑”,全部毫無保留地補全了。
這在行業裡通常只有一個解釋:這一頁翻篇了,我們要去搞更牛的東西了。
動作二:底層架構大換血
緊接著,DeepSeek 密集甩出了兩篇重磅新論文:《mHC》和《Engram》。
看不懂沒關係,你只需要知道這兩篇論文想幹什麼——他們在試圖重寫大模型記憶和思考的方式。
特別是 Engram,它想讓模型擁有“即時查閱記憶”的能力。
這意味著,未來的模型可能更小、更快,但更聰明。
動作三:GitHub 裡的神秘程式碼“MODEL1”
昨晚又引起大家關注的,是眼尖的網友在 DeepSeek 更新的 GitHub 程式碼庫裡,扒出了一個疑似新模型的代號——“MODEL1”。
這個不起眼的變數名,現在已經被各路大神盤包漿了。
大家都在猜,這會不會就是傳說中即將要在春節期間發佈的 DeepSeek V4?
“DeepSeek 的每一次沉默,通常都意味著一次更大的爆發。”
種種跡象表明,2026 年的春節,大機率又不會平靜了。
Hugging Face 這篇報告的結尾,預測 2026 年將會有更猛烈的爆發,尤其是在架構和硬體的選擇上,中國公司將繼續通過開源生態施加影響。
回顧這魔幻的一年,從 DeepSeek R1 的驚天一雷,到百模大戰的全面開源,再到如今 Hugging Face 官方以“DeepSeek Moment”為題來記錄歷史。
這不僅僅是技術的勝利,更是開源精神在東方的勝利。
我們不再是跟隨者,我們已經坐在了牌桌的主位。
2026,好戲才剛剛開始。 (AI范兒)