隨著DeepSeek熱度飆升,其“朋友圈”也在快速擴容。
今日,京東雲宣佈正式上線DeepSeek-R1和DeepSeek-V3模型,支援公有雲線上部署、專混私有化實例部署兩種模式。前幾日,阿里雲、百度智能雲、華為雲、騰訊雲、火山引擎、天翼雲已接入了DeepSeek模型。海外的亞馬遜AWS、微軟Azure等雲巨頭同樣官宣支援。
多家國產晶片廠商亦紛紛響應。華為今天宣佈DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro上線昇騰社區;DeepSeek-V3滿血版在國產沐曦GPU首發體驗上線。天數智芯、摩爾執行緒、海光資訊也在2月4日宣佈支援DeepSeek模型。而輝達、AMD、英特爾等海外晶片巨頭在更早已完成支援。
此外,無問芯穹、矽基流動等AI基礎設施廠商,以及青雲科技、PPIO派歐雲、雲軸科技等獨立雲廠商,已宣佈適配及上架模型服務。
從底層晶片到雲服務商,隨著DeepSeek朋友圈的擴大,有望進一步推動大模型的低成本化,擴大AI的垂直應用場景。
目前,華為小藝助手App的智能體廣場已上線DeepSeek-R1的Beta版。科創板上市公司光雲科技、當虹軟體等也接入DeepSeek系列模型開展應用探索。
DeepSeek旗下大模型“爆火”後,國內主流雲平台均陸續上線了相關模型。
今日,京東雲言犀AI開發計算平台宣佈支援DeepSeek-V3、DeepSeek-R1以及所有蒸餾小參數模型(DeepSeek-R1-Distill)的一鍵部署。
春節期間,華為雲和矽基流動聯合首發並上線了基於華為雲昇騰雲服務的DeepSeek-R1/V3推理服務。阿里、騰訊、百度、火山引擎等雲廠商也上線了DeepSeek系列模型。其中,百度智能雲還提出了限時免費的服務方案。至此,國內六大雲巨頭都已正式支援DeepSeek。
中國雲平台集中上線DeepSeek,其背後是雲廠商們希望在DeepSeek的火爆浪潮中,吸引更多客戶使用其算力和服務。
AI產品榜的資料顯示,DeepSeek僅上線18天時日活就突破1500萬,而ChatGPT過1500萬花了244天,增速是ChatGPT的13倍。上線20天後,DeepSeek日活已達2215萬,實ChatGTP日活使用者的41.6%,超過豆包的日活使用者1695萬。
雲基礎設施廠商有望受益於DeepSeek帶來的新敘事,而DeepSeek的成功,也將提振整個開源社區的共建氛圍,使得更多開源模型能夠“站在巨人肩膀上”快速進步。
相比OpenAI的閉源路線,DeepSeek選擇了開放原始碼的開放路線,這類似於PC時代的Windows和Linux之爭。面對DeepSeek的爆火,OpenAI首席執行官薩姆·阿爾特曼此前承認稱,OpenAI在開源策略上“站在了歷史的錯誤一邊”,並表示需要考慮制定不同的開源策略。
華泰證券認為,開源模型的優勢體現在社區共建和技術共享。理論上所有的小參數模型均能夠直接利用DeepSeek-R1蒸餾出的標籤資料,來增強推理性能。2025年或是開源模型快速進步的一年,國產大模型進展值得關注。
在晶片領域,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上線昇騰社區,支援一鍵獲取DeepSeek系列模型,支援昇騰硬體平台上開箱即用,同時提供精度性能微調,推理服務化快速部署等能力,
摩爾執行緒也發文稱,已實現對DeepSeek蒸餾模型推理服務的部署。為推進國產AI生態發展,摩爾執行緒即將開放自主設計的誇娥(KUAE)GPU智算叢集,全面支援DeepSeek-V3、R1模型及新一代蒸餾模型的分佈式部署。
天數智芯與Gitee AI成功完成了與DeepSeek-R1的適配工作,並且已正式上線多款大模型服務,其中包括DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B等。天數智芯還稱,正在與平行科技、算力互聯等多傢伙伴,開展DeepSeek包括R1在內的多款模型的適配與上線,後續即將上線的平行科技平台,不僅面向普通使用者和開發者,更是主要面向企業使用者的AI服務平台。
Gitee AI聯合沐曦於2月2日首發全套DeepSeek-R1千問蒸餾模型,實現了從晶片到平台,從算力到模型,全國產研發、中國製造。2月5日,Gitee AI進一步表示,DeepSeek-V3滿血版在國產沐曦GPU首發體驗上線。
而海光資訊也完成了DeepSeek V3和R1模型與海光DCU(深度計算單元)的適配,並正式上線。
此外,國家超算網際網路平台已正式上線DeepSeek-R1模型的1.5B、7B、8B、14B版本,並將於近期陸續更新32B、70B等版本。除R1模型外,國家超算網際網路平台還上線了DeepSeek-V3、DeepSeek-v2.5系列、DeepSeek-coder系列、DeepSeek-math系列(7b)和DeepSeek-v2系列(Lite)等模型。
“DeepSeek大模型與國產晶片的適配基本不花時間,而性能最佳化估計一周完成。”有算力領域人士介紹。
“當下,主流國產晶片已基本實現對DeepSeek 蒸餾版小模型的相容支援。這意味著,只要此前能夠運行Llama、Qwen這類常見模型,如今便可直接無修改地運行DeepSeek蒸餾版小模型。”魔形智能聯合創始人徐凌傑對記者表示,“可以預見,隨著基於 DeepSeek的應用如雨後春筍般爆發,越來越多晶片廠商的入局,新一輪市場競爭與價格調整或許即將拉開帷幕。”
不過,徐凌傑也指出,滿血版的V3和R1擁有6710億參數,這使得它們對硬體的要求大幅提升。同時,由於採用了此前未被廣泛應用的MoE專家平行(EP)策略,其運行需要額外的推理框架支援。
“目前,僅有少數幾家國產晶片成功上線了滿血版。要想完全解鎖DeepSeek高性能、低成本的推理優勢,按照官方推薦組態,需在推理的解碼部分部署320個GPU,以實現完全的專家平行。這種‘超節點’式的部署方式,對所有國產晶片廠商而言,既是全新的挑戰,也是難得的機遇。”徐凌傑提到。
談及未來DeepSeek對國內AI產業鏈的利多影響,沐曦聯合創始人楊建表示,最大的影響是強化學習的蒸餾流程開源,讓大模型在垂直領域的後訓練和推理成本急劇下降,同時在垂直領域的可用性急劇上升,同時催生大模型在各行各業的認知,拉升私有化垂直模型部署的願望。R1蒸餾32B模型的能力逼近OpenAI的O1,使得企業可以私有化低成本部署而不用擔心洩密問題,部署意願極大提高。
TrendForce集邦諮詢研究指出,DeepSeek模型雖然降低了AI訓練成本,但AI模型的低成本化可望擴大應用場景,進而增加全球資料中心建置量。光收發模組作為資料中心互連的關鍵元件,將受惠於高速資料傳輸的需求。未來AI伺服器之間的資料傳輸,都需要大量的高速光收發模組,這些模組負責將電訊號轉換為光訊號並通過光纖傳輸,再將接收到的光訊號轉換回電訊號。TrendForce資料顯示,2023年400Gbps以上的光收發模組全球出貨量為640萬個,2024年約2040萬個,預估至2025年將超過3190萬個,年增長率達56.5%。
“實際上從22-24年對大模型應用的風險投資在減少,今年可能會逆轉。因為後訓練成本急劇下降。”楊建對《科創板日報》表示。
隨著DeepSeek帶動模型成本的下降,有望推動AI應用的爆發。科創板上市公司光雲科技、當虹科技等都在探索DeepSeek模型的落地應用。其中,快麥小智是光雲科技旗下智能客服機器人,其基於大模型的智能體產品綾智的多項業務場景和功能支援DeepSeek各個版本。光雲科技方面稱,將持續推動旗下AI產品與包括DeepSeek在內的大模型深度適配。
當虹科技BlackEye多模態視聽大模型正式融合DeepSeek-R1和DeepSeek Janus Pro,並完成視聽傳媒、工業與衛星、車載智能座艙等多行業垂類場景的資料調優訓練。
DeepSeek給AI應用帶來更大的想像力,今日金山辦公一度觸及20cm漲停。不過《科創板日報》瞭解到,金山辦公尚未與DeepSeek正式合作,有接近金山辦公的人士對《科創板日報》記者表示,金山辦公正在與Deepseek進行對接測試,未來是否合作要看後續發展。
在研究層面,楊建預計,各大研究機構都會研究新技術來做預訓練和後訓練,加快新演算法落地。“實際上DeepSeek使用的很多方法是高校研究成果的優秀整合,每年出現那麼多新方法,究竟那些組合才能產生最大產出和價值,可能有很多組合沒有被發現,今年肯定有更多的演算法創新爆發。DeepSeek只是一個星星之火的燃點。”
在人才方面,楊建判斷,大模型應用人才培養會更受重視。“2022-2024年聚集在少數企業,整體業界水平在萎縮。同時,2022-2024年高校並沒有培養大模型應用人才。25年春節反應比較快的高校已經開始計畫春季大模型應用人才培養,到秋天會覆蓋數百所高校會跟隨,今年全國有望培養大模型應用開發人才30-50萬。 (財聯社AI daily)