最近,炸裂消息一個接一個。首先,DeepSeek V4將在一周內上線。第二,它跳過輝達,把存取權首先給了某中國晶片廠商。另外,Anthropic因為蒸餾事件,也被群嘲了。
炸裂消息:根據多方來源,DeepSeek V4將在一周內上線!
現在,DeepSeek V4 Lite至少在一家推理服務商進行測試,目前透露出的資訊有——
模型代號為Sealion-lite,有100萬token的上下文窗口,這個模型比網頁版/應用模型好用得多,而且還是原生多模態模型。
與此同時,DeepSeek v4 Lite的一張對比圖,也在外網傳瘋了!
與目前的Deepseek v3.2思考模型相比,DeepSeek v4 Lite不開啟思考模式,生成的SVG影像品質明顯更好。
DeepSeek V4春節沒來,但這次不遠了。
路透社稱,一些晶片廠商已經接入DeepSeek V4,最佳化性能。
消息人士稱,DeepSeek這次向某國產晶片廠商提供了V4的早期接入權限,而不是輝達等美國算力霸主。
這直接打破了過去AI模型大版本發佈前的行業慣例。
這條消息來自兩位消息人士,路透社表示。
而就在昨天,美國官員聲稱DeepSeek使用非法獲得的輝達GPU進行訓練。
Anthropic直言DeepSeek等通過蒸餾Claude的回覆來運作,斷言他們缺乏真正的內部創新能力只會抄襲。
美國的CNN、CNBC、NYT等大眾和科技媒體紛紛推出相關報導
去年,Deepseek發佈後確實有過攻擊,如此密集攻擊前所未有。
但也在意料之中。
上一次Deepseek發佈模型時,引發了恐慌——
去年,DeepSeek-R1發佈或導致輝達股價下跌17%!
而現在可能發生什麼?
如果DeepSeek V4再次展現出驚人的效率和能力,很可能會重演甚至加劇去年的投資者恐慌,對正在尋求巨額融資的美國AI公司和希望股價穩定的輝達、Google等巨頭構成直接威脅。
這不是庸人自擾,即便是競爭對手的研究人員也承認DeepSeek V4不可小視,可能發佈就登頂開源第一!
美國的這波輿論攻擊,並非偶然,Reddit使用者總結稱:這是一場有組織的FUD(恐懼、不確定性和懷疑) 行銷:
搶佔敘事:在DeepSeek V4發佈前,預先埋下「他們只會作弊/抄襲」的敘事框架。這樣,無論V4多成功,公眾的第一反應都會被引導至負面解讀。
保護市場:通過輿論手段稀釋V4發佈的媒體關注度和影響力,試圖穩定投資者情緒,防止股價再次出現兩位數暴跌,為美國本土AI公司的融資和發展爭取時間。
維護霸權:從更深層次看,這是為了維護美國在AI領域的技術和敘事霸權,打擊中國AI的崛起勢頭。
當你看到這類鋪天蓋地的負面報導時,要特別留意它的發佈時間。
將其與即將發生的重大事件(如DeepSeek V4發佈)聯絡起來,思考誰最有可能從這種輿論中受益,以及他們真正在恐懼什麼。
不要輕易被這些報導的結論帶著走。要學會看穿表面的FUD,基於事實和歷史證據,去洞察背後真實的技術競爭和市場博弈。
與此同時,另外一件事,也在全網炸鍋了。
X上一個使用者發現,當他向Claude提問「你是什麼模型」時,它竟然回覆:「我是DeepSeek V3,是由DeepSeek公司開發的開源大語言模型。」
這一bug,是否說明Claude是基於DeepSeek蒸餾的?
諷刺的是,就在不久前,Anthropic剛剛高調指責DeepSeek進行了「工業級蒸餾攻擊」。
這一幕,簡直堪稱AI時代的行為藝術。
網友stevibe完全復現了Claude Sonnet-4.6的這波操作:
不過,有的網友在Claude App中完全無法復現結果。
的確有網友在Claude App復現了該問題,但很難一次成功。
為了力證這一結果的有效性,他特意通過Anthropic的官方API端點再次測試,結果還是一樣。
根據他人提供的創意,這位網友又試著用法語提問「你是什麼模型」?這次,Opus 4.6開始回答:我是ChatGPT。
為什麼stevibe能通過API復現結果,為什麼不能用Claude App復現?
最大的原因可能是系統提示詞。如果沒有系統提示詞,AI會根據訓練資料回答。
有網友推測:
這是一個資料污染/身份對齊問題,並不能證明任何事情。如果你用正確的語言進行足夠深入的探究,每個主流模型都會存在這個問題。
總之,Anthropic的訓練資料成了不能說的秘密。
當然,Claude Sonnet 4.6會自稱「我是DeepSeek」,需要符合以下三個特定條件——清空系統提示、使用中文提問、特定模型版本。
事情的關鍵在於:當默認系統提示要求模型自稱Claude 時,一切都很正常;一旦把系統提示清空,模型在中文語境下竟然就開始「認祖歸宗」。
問題來了,如果一個模型中沒有系統提示詞約束的情況下,就會產生「我是某某模型」的回答,原因到底是什麼?
是訓練資料的統計殘留,還是大模型中多源資料訓練下,出現了自然語言泛化的副作用?目前還無法判斷。
但Anthropic似乎被啪啪打臉了:在指責別人蒸餾時,你最好能確保自己不會在刪除提示詞後出現身份錯亂。
畢竟,蒸餾在機器學習中,是一種非常常見的技術。Anthropic指責他人進行「工業級蒸餾攻擊」時,聽上去簡直嚴重到像一起網路安全事件。
以此站在道德高地上,吃相就有些難看了。
模型的身份穩定性,本身就是機率分佈問題。大模型沒有自我認知,只是在生成統計上最合理的答案。
如果在中文資料分佈中,「我是DeepSeek」這種模式機率較高,那麼在沒有系統提示的情況下,模型就可能走向那條高機率路徑。
網友Theo Borges解釋了其中的原理:一切都是機率和零系統提示詞
這不一定說明「蒸餾發生了」,但它說明——模型的語言空間是共享的。當整個行業都在同一個語料海洋中訓練、最佳化、蒸餾時,邊界本身就變得模糊。
群眾的眼睛是雪亮的,Anthropic的thread,已經被網友們的吐槽沖了。
6000多條評論,70%都在吐槽Anthropic
這套又當又立的行事邏輯,直接讓Anthropic的風評跌至歷史最低點。
接下來,我們看DeepSeek的了。 (新智元)