隨著人工智慧競爭升級,DeepSeek發佈R1模型更新版。
周三,DeepSeek在微信群發佈帖子稱,DeepSeek R1模型已完成“小版本試升級”,歡迎前往官方網頁、APP、小程序測試(打開深度思考),API 介面和使用方式保持不變。
DeepSeek R1模型在語義理解精準性、複雜邏輯推理、長文字處理穩定性等方面進行了強化。
DeepSeek並未提供本次更新的更多細節。有網友測評後稱,感覺模型的理解能力上了一個層次:
感覺模型的理解能力上了一個層次,比如啟動參數部分,R1可以製作互動動畫來展示,另外關鍵資訊的邏輯也非常清晰。
程式設計能力也大幅提升,有網友測評後感嘆,太嚇人了,1000多行程式碼一次搞定,沒有bug。
還有網友稱,程式設計能力可以和“程式設計新王”Claude 4一較高下。
這是兩個月來DeepSeek的首次模型更新。
今年3月,DeepSeek放出了 DeepSeek-V3-0324 模型。該模型全面超越 Claude-3.7-Sonnet,在數學、程式碼類相關評測集上超過 GPT-4.5。
作為一個沒有思維鏈的非推理模型,DeepSeek-V3-0324 模型在推理類任務上的表現可圈可點。根據第三方評測,新版的 DeepSeek-V3 模型與 Grok-3 打平,並列傳統對話類模型榜首。
同時性價比極高,輸入價格僅為Claude-3.7-Sonnet的1/11、GPT-4.5的1/277。此外,新版本開源且可免費用於商業用途。
迄今為止,DeepSeek最震動世界的動作還是1月發佈R1。當時人們發現,R1不但在多項標準化指標上的表現均優於OpenAI的模型等西方競爭對手,而且成本據稱僅有數百萬美元,採用的還是較低版本的輝達晶片。
R1的異軍突起引發了全球科技股暴跌,因為投資者開始質疑,是否還需要像微軟等矽谷巨頭那樣投入巨資建構突破性的AI模型和AI服務。
今年2月,有媒體稱,1月R1問世後,DeepSeek在加速推出R2,原計畫時間定在5月初,後希望儘早推出,還稱DeepSeek希望,R2在程式碼生成方面表現更佳,並具備在英語之外的語言中進行推理的能力。
4月初,DeepSeek聯手清華大學發佈一篇論文,提出一種名為自我原則點評調優(SPCT)的新學習方法,用於推動通用獎勵建模在推理階段實現有效的可擴展性,最終建構出DeepSeek-GRM系列模型。同時,研究者引入了元獎勵模型(meta RM),進一步提升推理擴展性能。
上述論文引發了DeepSeek的R2是否很快面世的猜測。
4月末,又有消息稱,R2將採用更先進的混合專家模型(MoE),總參數量預計達1.2兆,較6710億參數的R1提升約1倍,單位推理成本較GPT-4劇減97.4%。而且,R2訓練全程未使用輝達顯示卡,全部基於昇騰910B晶片叢集平台,在FP16精度下,計算性能達到512 PetaFLOPS,晶片利用率高達82%,整體性能約為輝達上一代A100叢集的91%。
不過,迄今為止DeepSeek都未正式確認任何有關R2發佈時間的消息。
在社交媒體X上,有關此次R1模型小版本試升級的消息下面,就有些點贊高的網友評論在猜測R2。有的問,DeepSeek有沒有R2,有的認為,這次的小版本升級可能意味著,R2還遠未準備好推出。 (華爾街見聞)