DeepSeek V4逼近,美國慌了!被曝繞過輝達優先中國,絕密參數已洩露

最近,炸裂消息一個接一個。首先,DeepSeek V4將在一周內上線。第二,它跳過輝達,把存取權首先給了某中國晶片廠商。另外,Anthropic因為蒸餾事件,也被群嘲了。

炸裂消息:根據多方來源,DeepSeek V4將在一周內上線!

現在,DeepSeek V4 Lite至少在一家推理服務商進行測試,目前透露出的資訊有——

模型代號為Sealion-lite,有100萬token的上下文窗口,這個模型比網頁版/應用模型好用得多,而且還是原生多模態模型。

與此同時,DeepSeek v4 Lite的一張對比圖,也在外網傳瘋了!

與目前的Deepseek v3.2思考模型相比,DeepSeek v4 Lite不開啟思考模式,生成的SVG影像品質明顯更好。

DeepSeek壓頂,美國慌了!

DeepSeek V4春節沒來,但這次不遠了。

路透社稱,一些晶片廠商已經接入DeepSeek V4,最佳化性能。

消息人士稱,DeepSeek這次向某國產晶片廠商提供了V4的早期接入權限,而不是輝達等美國算力霸主。

這直接打破了過去AI模型大版本發佈前的行業慣例。

這條消息來自兩位消息人士,路透社表示。

而就在昨天,美國官員聲稱DeepSeek使用非法獲得的輝達GPU進行訓練。

Anthropic直言DeepSeek等通過蒸餾Claude的回覆來運作,斷言他們缺乏真正的內部創新能力只會抄襲。

美國的CNN、CNBC、NYT等大眾和科技媒體紛紛推出相關報導

去年,Deepseek發佈後確實有過攻擊,如此密集攻擊前所未有。

但也在意料之中。

上一次Deepseek發佈模型時,引發了恐慌——

去年,DeepSeek-R1發佈或導致輝達股價下跌17%!

而現在可能發生什麼?

如果DeepSeek V4再次展現出驚人的效率和能力,很可能會重演甚至加劇去年的投資者恐慌,對正在尋求巨額融資的美國AI公司和希望股價穩定的輝達、Google等巨頭構成直接威脅。

這不是庸人自擾,即便是競爭對手的研究人員也承認DeepSeek V4不可小視,可能發佈就登頂開源第一!

美國的這波輿論攻擊,並非偶然,Reddit使用者總結稱:這是一場有組織的FUD(恐懼、不確定性和懷疑) 行銷:

搶佔敘事:在DeepSeek V4發佈前,預先埋下「他們只會作弊/抄襲」的敘事框架。這樣,無論V4多成功,公眾的第一反應都會被引導至負面解讀。

保護市場:通過輿論手段稀釋V4發佈的媒體關注度和影響力,試圖穩定投資者情緒,防止股價再次出現兩位數暴跌,為美國本土AI公司的融資和發展爭取時間。

維護霸權:從更深層次看,這是為了維護美國在AI領域的技術和敘事霸權,打擊中國AI的崛起勢頭。

當你看到這類鋪天蓋地的負面報導時,要特別留意它的發佈時間。

將其與即將發生的重大事件(如DeepSeek V4發佈)聯絡起來,思考誰最有可能從這種輿論中受益,以及他們真正在恐懼什麼。

不要輕易被這些報導的結論帶著走。要學會看穿表面的FUD,基於事實和歷史證據,去洞察背後真實的技術競爭和市場博弈。

Claude自曝「我是DeepSeek」!全網嘩然

與此同時,另外一件事,也在全網炸鍋了。

X上一個使用者發現,當他向Claude提問「你是什麼模型」時,它竟然回覆:「我是DeepSeek V3,是由DeepSeek公司開發的開源大語言模型。」

這一bug,是否說明Claude是基於DeepSeek蒸餾的?

諷刺的是,就在不久前,Anthropic剛剛高調指責DeepSeek進行了「工業級蒸餾攻擊」。

這一幕,簡直堪稱AI時代的行為藝術。

網友stevibe完全復現了Claude Sonnet-4.6的這波操作:

不過,有的網友在Claude App中完全無法復現結果。

的確有網友在Claude App復現了該問題,但很難一次成功。

為了力證這一結果的有效性,他特意通過Anthropic的官方API端點再次測試,結果還是一樣。

根據他人提供的創意,這位網友又試著用法語提問「你是什麼模型」?這次,Opus 4.6開始回答:我是ChatGPT。

為什麼stevibe能通過API復現結果,為什麼不能用Claude App復現?

最大的原因可能是系統提示詞。如果沒有系統提示詞,AI會根據訓練資料回答。

有網友推測:

這是一個資料污染/身份對齊問題,並不能證明任何事情。如果你用正確的語言進行足夠深入的探究,每個主流模型都會存在這個問題。

總之,Anthropic的訓練資料成了不能說的秘密。

當然,Claude Sonnet 4.6會自稱「我是DeepSeek」,需要符合以下三個特定條件——清空系統提示、使用中文提問、特定模型版本。

事情的關鍵在於:當默認系統提示要求模型自稱Claude 時,一切都很正常;一旦把系統提示清空,模型在中文語境下竟然就開始「認祖歸宗」。

問題來了,如果一個模型中沒有系統提示詞約束的情況下,就會產生「我是某某模型」的回答,原因到底是什麼?

是訓練資料的統計殘留,還是大模型中多源資料訓練下,出現了自然語言泛化的副作用?目前還無法判斷。

但Anthropic似乎被啪啪打臉了:在指責別人蒸餾時,你最好能確保自己不會在刪除提示詞後出現身份錯亂。

畢竟,蒸餾在機器學習中,是一種非常常見的技術。Anthropic指責他人進行「工業級蒸餾攻擊」時,聽上去簡直嚴重到像一起網路安全事件。

以此站在道德高地上,吃相就有些難看了。

模型的身份穩定性,本身就是機率分佈問題。大模型沒有自我認知,只是在生成統計上最合理的答案。

如果在中文資料分佈中,「我是DeepSeek」這種模式機率較高,那麼在沒有系統提示的情況下,模型就可能走向那條高機率路徑。

網友Theo Borges解釋了其中的原理:一切都是機率和零系統提示詞

這不一定說明「蒸餾發生了」,但它說明——模型的語言空間是共享的。當整個行業都在同一個語料海洋中訓練、最佳化、蒸餾時,邊界本身就變得模糊。

群眾的眼睛是雪亮的,Anthropic的thread,已經被網友們的吐槽沖了。

6000多條評論,70%都在吐槽Anthropic

這套又當又立的行事邏輯,直接讓Anthropic的風評跌至歷史最低點。

接下來,我們看DeepSeek的了。 (新智元)