【DeepSeek】掀起AI算力革命:輝達暴跌17%!台積電暴跌13%!


近日,中國人工智慧(AI)大模型技術廠商DeepSeek(深度求索)發佈的推理大模型DeepSeek-R1火爆網路,其不僅性能比肩OpenAI o1 ,並且其所需的訓練成本可能只有後者的約1/20,API的定價更是只有後者的約1/28,相當於使用成本降低了約97%。這不僅引發了外界對於OpenAI、Meta、Google等眾多大模型廠商嚴重依賴於高成本的輝達AI晶片持續堆算力的“大力出奇蹟”模式的質疑,也導致了市場對於眾多市值已大漲的AI晶片股的價值需要重估的擔憂。

受此影響,在美國當地時間1月27日的美股交易當中,Marvell大跌19.1%、博通大跌17.4%、輝達大跌16.97%,台積電大跌13.33%、美光大跌11.71%、AMD大跌6.37%、ASML大跌5.75%。


DeepSeek-V3橫空出世:性能比肩GPT-4o,訓練成本僅為其1/20

早在2024年12月26日,DeepSeek就通過官方微信公眾號發佈推文稱,旗下全新系列模型DeepSeek-V3首個版本上線並同步開源。國外獨立評測機構Artificial Analysis測試了DeepSeek-V3後表示,“DeepSeek-V3超越了迄今為止所有開源模型。”更為關鍵的是,該模型使用輝達H800 GPU在短短兩個月內就訓練完成,並且僅花費了約558萬美元。

據介紹,DeepSeek-V3為自研MoE模型,671B參數,啟動37B,在14.8T token上進行了預訓練。DeepSeek-V3多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,並在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。


針對DeepSeek-V3,獨立評測網站Artificial Anlaysis就關鍵指標——包括質量、價格、性能(每秒生成的Token數以及首個Token生成時間)、上下文窗口等多方面——與其他人工智慧模型進行對比,最終得出以下結論。

質量:DeepSeek-V3質量高於平均水平,各項評估得出的質量指數為80。

價格:DeepSeek-V3比平均價格更便宜,每100萬個Token的價格為0.48美元。其中,輸入Token價格為每100萬個Token 0.27美元,輸出Token價格為每100萬個Token 1.10 美元。

速度:DeepSeek-V3比平均速度慢,其輸出速度為每秒87.5個Token。

延遲:DeepSeek-V3與平均水平相比延遲更高,接收首個Token(即首字響應時間)需要1.14秒。

上下文窗口:DeepSeek-V3的上下文窗口比平均水平小,其上下文窗口為13萬個Token。

最終Artificial Anlaysis得出結論:DeepSeek-V3模型超越了迄今為止發佈的所有開放權重模型,並且擊敗了OpenAI的GPT-4o(8月),並接近Anthropic的Claude 3.5 Sonnet(10月)。DeepSeek-V3的人工智慧分析質量指數得分為80,領先於OpenAI的GPT-4o和Meta的Llama 3.3 70B等模型。目前唯一仍然領先於DeepSeek的模型是Google的Gemini 2.0 Flash和OpenAI的o1系列模型。領先於阿里巴巴的Qwen2.5 72B,成為了AI大模型領域的領先者。

更重要的是,DeepSeek使用2048塊輝達H800 GPU在短短兩個月內就訓練出了DeepSeek-V3,僅花費了約557.6萬美元,僅為GPT-4o(約超過1億美元)的接近二十分之一,資源運用效率極高。


OpenAI創始成員Karpathy也表示:“DeepSeek-V3讓在有限算力預算上進行模型預訓練這件事變得容易。DeepSeek-V3看起來比Llama-3-405B更強,訓練消耗的算力卻僅為後者的1/11。”(據外媒估計,Meta的大模型Llama-3.1的訓練投資超過了5億美元。)

當時外界對此事也有一些質疑之聲,比如有測試發現,DeepSeek-V3竟然聲稱自己是ChatGPT。一時間,“DeepSeek-V3是否在使用ChatGPT輸出內容進行訓練”的質疑聲四起。

對此,有猜測稱,DeepSeek可能用了包含GPT-4通過ChatGPT生成的文字的公共資料集。“如果DeepSeek-V3是用這些資料進行訓練的,那麼該模型可能已經記住了GPT-4的一些輸出,現在正在逐字反芻它們。”

不過,DeepSeek-V3也並非是第一個錯誤識別自己的模型,Google的Gemini等有時也會聲稱是競爭對手的模型。例如,Gemini在普通話提示下稱自己是百度的文心一言聊天機器人。造成這種情況的原因可能在於,AI公司在網際網路上獲取大量訓練資料,但是,現如今的網際網路本就充斥著各種各樣用AI生產出來的資料。

DeepSeek-R1:性能比肩OpenAI o1,使用成本僅為其1/28

然而,在時隔不到1個月之後,2025年1月20日,DeepSeek又發佈了全新的推理大模型DeepSeek-R1,回擊了外界的質疑。

據介紹,DeepSeek-R1在後訓練階段大規模使用了強化學習技術,在僅有極少標註資料的情況下,極大提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。


在國外大模型排名Arena上,DeepSeek-R1基準測試已經升至全類別大模型第三。其中,在風格控制類模型(StyleCtrl)分類中與OpenAI o1並列第一;其競技場得分達到1357分,略超OpenAI o1的1352分。

1月27日,社交平台認證為“AI投資機構Menlo Ventures負責人”的Deedy對比GoogleGemini和DeepSeek-R1後表示,DeepSeek-R1更便宜、上下文更長、推理性能更佳。

DeepSeek還宣佈將 DeepSeek-R1 訓練技術全部公開,以期促進技術社區的充分交流與創新協作。

除了性能出眾之外,低成本也是DeepSeek-R1一大關鍵優勢,雖然其預訓練費用雖然並未公開,但是猜測應該與DeepSeek-V3相當。同時,DeepSeek公佈的API的定價顯示,其每百萬輸入tokens 1元(快取命中)/4元(快取未命中),每百萬輸出tokens 16元。DeepSeek-R1這個收費大約是OpenAI o1正式版運行成本的約1/28。OpenAI o1模型上述三項服務的定價分別約合人民幣55元、110元、438元。



也就是說,使用者使用DeepSeek-R1,即可體驗到與OpenAI o1 性能相當的大模型使用體驗,但是使用成本只需要OpenAI o1的1/28,即成本降低了約97%。

DeepSeek掀起AI算力“革命”

眾所周知,演算法、算力和資料是影響AI能力的三大核心要素,而對於通用大模型來說,經過這兩年來發展,業界普遍認為要想實現AGI(通用人工智慧)必須依賴於越來越龐大的大參數模型,因此需要更為強大算力來作為支援。因此我們可以看到,微軟、Google、Meta、X、字節跳動、亞馬遜、阿里巴巴等大廠一直在持續加大對於AI晶片的採購。

近日,在美國政府的推動下,OpenAI、軟銀、甲骨文等廠商還宣佈將聯合成立一家新的AI公司“Stargate”(星際之門),未來四年將投資5000億美元,而這其中大部分資金都將被用於建設AI基礎設施。

在這些廠商對於AI晶片旺盛的需求帶動下,此也直接推動了輝達、博通、台積電、ASML等眾多AI晶片產業鏈相關廠商業績和股價的大漲。

但是,如果DeepSeek的僅利用非常低的算力和成本就能夠實現高級的AI能力的模式被普遍認可,那麼可能將會引發對於現有的依賴於堆晶片算力的AI發展模式的“革命”。

一位Meta工程師公開表示,其內部正因DeepSeek進入“恐慌模式”。

Scale AI創始人Alexander Wang也表示,DeepSeek是“中國科技界帶給美國的苦澀教訓”,證明“低成本、高效率”的研發模式可能顛覆矽谷巨頭的高投入路徑。社交平台認證為“風險投資人”的ShortBear評論稱,“DeepSeek的興起對那些商業模式為銷售大量GPU(輝達)或購買大量GPU(OpenAI、微軟、Google)的公司都形成了挑戰。”

因此,我們可以看到,在美股1月27日的交易當中,輝達、台積電、博通、ASML等AI晶片產業鏈上的巨頭們的股價都出現了大幅的下跌。

不過,對於此番DeepSeek所引發的對AI晶片產業鏈企業價值重估的恐慌,也有分析師認為這是一個很好的投資機會,因為即使對於AI晶片需求暫時減少,但是對於AI晶片需求依然會存在,該市場也依然會由輝達佔據領導地位。

投行韋德布什資深股票分析師Daniel Ives在最新的研報中稱,DeepSeek使用輝達性能較弱的晶片建構了足以媲美OpenAI的ChatGPT和Meta的Llama 3.1的大模型,因此引起了美國科技股的波動。“但我們認為,這是另一個黃金買入機會,而不是恐慌的時候。全球只有輝達推出自主、並用於機器人和更廣泛AI用例的晶片。DeepSeek的大模型雖然留下了深刻的印象,但不足被視作威脅。為消費者使用推出具有競爭力的LLM模型是一回事,但推出更廣泛的AI基礎設施又是另一回事。”Daniel Ives說道。

輝達也對此回應稱:“DeepSeek是一項卓越的人工智慧進展,也是測試時擴展的絕佳範例。DeepSeek的研究展示了如何運用該技術,借助廣泛可用的模型以及完全符合出口管制規定的算力,建立新模型。推理過程需要大量輝達GPU和高性能網路。如今我們有三條擴展定律:持續適用的預訓練和後訓練定律,以及新的測試時擴展定律。”

需要指出的是,目前中國正面臨美國持續升級的對華AI晶片及先進半導體裝置出口管制政策,這也使得中國難以獲取外部先進的AI晶片,也難以依靠內部製造先進的AI晶片,因此這也迫使DeepSeek另闢蹊徑,拋棄常規的依賴於堆算力的技術發展路線,並獲得了成功,打破了美國對於中國AI的封鎖。

面壁智能首席科學家劉知遠在朋友圈發文稱,“DeepSeek最近出圈,特別好地證明了我們的競爭優勢所在,就是通過有限資源的極致高效利用,實現以少勝多。2024年很多人來問我,中國跟美國的AI差距是擴大了還是縮小了,我說明顯縮小了,但能感受到大部分人還不太信服,現在DeepSeek等用實例讓大家看到了這點,非常贊。”

“AGI新技術還在加速演進,未來發展路徑還不明確。我們仍在追趕的階段,已經不是望塵莫及,但也只能說尚可望其項背,在別人已經探索出的路上跟隨快跑還是相對容易的。接下來我們要獨立面對一團未來迷霧,如何先人一步探出新路,是更加困難和挑戰的事,需要我們更加百倍投入、百倍努力。”劉知遠說。

當然,DeepSeek的成功並不是閉門造車的結果,而是博采眾長,吸取了眾多前人的經驗(比如開放原始碼的PyTorch和Llama),這也是為什麼DeepSeek的大模型也採用了開源(open-source)的模式。

圖靈獎得主、主導Meta AI研究的首席科學家Yann LeCun就指出,DeepSeek 成功的最大收穫,是AI開放原始碼的價值使任何人都能受益。

“對那些看到DeepSeek表現並認為‘中國在AI領域正超越美國’的人而言,你的解讀錯了,正確解讀應是‘開源模型正超越專有模型’。DeepSeek 從開放研究和開源獲益良多(如同PyTorch和Llama),他們提出新想法,並從其他人的工作基礎加以建構。他們發佈新的模型並開源,所以每個人都能從中受益,這就是開放研究和開放原始碼的力量。”Yann LeCun說道。 (芯智訊)


最近長文
關於鉅亨號
「鉅亨號」是《Anue鉅亨網》以AI 大數據和推薦引擎所推出具影響力的自媒體社群平台,從投資理財為主題擴展到金融財經、房地產、汽車、數位虛擬貨幣、影音視頻及Podcast的數位生活圈。讀者可透過一面牆及個人化功能關注一天的大小事;對創作者而言更是一個直接能與1,000萬用戶互動的舞台。
最好用的投資平台,幫你找到最適合自己的標的
看真實的投資分享文章,跟隨達人腳步取得最佳利益
多元投資社群平台,掌握最新市場動態熱門議題