#AI思考
三國演義,儲存市場硝煙已起
輝達的算力決定AI思考的速度,儲存則決定AI思考的深度、廣度和連續性。目前,全球HBM市場呈現高度集中的格局,技術門檻將其穩定的量產能力,牢牢鎖定在三星(Samsung)、SK海力士(SK hynix)和美光(Micron)這三家巨頭手中。未來三年(2026-2028年),它們的戰略佈局不僅將決定自身的興衰,更將深刻影響全球AI產業的演進速度與形態。2026年的HBM戰場,硝煙已起,好戲即將開場。01 HBM3E到HBM4,誰是領跑者2025年第一季度,全球DRAM市場出現歷史性轉折:SK海力士以約36%的營收份額首次超越三星電子(34%),美光以25%位居第三。這是自1992年以來三星首次失去市場第一的位置。這一變化並非簡單的週期波動,而是以HBM為核心的產業變革的直接體現。對SK海力士而言,這次登頂證明其有能力向持續火爆的HBM市場成功供應DRAM產品。HBM並非全新的儲存介質,而是DRAM的顛覆性封裝形式。它通過硅通孔(TSV)技術將多個DRAM晶片垂直堆疊,並與AI算力晶片通過中介層緊密封裝,帶來兩大革命性優勢:1)極高的頻寬:可達傳統DDR記憶體的數十倍以上,瞬間吞吐海量資料。2)極高的能效:短距離、高密度互連大幅降低資料搬運功耗,對AI算力叢集至關重要。SK海力士的登頂看似是抓住AI風口的偶然,實則是十年技術深耕與精準預判的必然。早在2010年代初HBM標準尚未成熟時,SK海力士就與AMD等夥伴投入研發,積累了TSV、堆疊封裝與測試方面的工藝訣竅。因此在2023年AI需求爆發時,它已具備顯著的技術領先與產能儲備。相比之下,三星長期依賴通用型DRAM和伺服器DRAM的規模優勢,在HBM發展初期很可能低估了其爆發速度,研發重心更偏向尖端DRAM製程(如1c納米工藝),導致HBM進度一度落後。目前,SK海力士是HBM市場的絕對霸主,其敏銳的未來洞察和果斷的資本投入,進而不僅在2023年8月就率先推出了HBM3E產品,更在2022年憑藉HBM3產品為輝達H100獨家供貨,建立了深厚的客戶關係。2025年第三季度,SK海力士全球HBM出貨量佔比高達60%,遠超美光(22%)和三星(17%),營收佔比也達到57%,穩居全球第一位。整體來看,三星在HBM領域一直被SK海力士壓制,但其正憑藉龐大的技術體系和製造能力發起全面反擊。三星的佈局特點是多路平行:一方面緊追代際更迭,在2024年2月推出首款12層36GB的HBM3E之後,現階段的三星和SK海力士都在加快第六代高頻寬記憶體HBM4的生產進度,雙方皆計畫於2026年第一季度開始量產。可以說,三星的商業模式,接下來將依賴於其全產業鏈的協同效應,進而其龐大的DRAM產能、先進的邏輯製程(可用於TSV矽通孔)和強大的封裝能力,使其在產能擴張和成本控制上具備獨特優勢。未來三年,三星的目標很明確:憑藉系統級解決方案和規模效應,從SK海力士手中奪回市場份額。三星計畫在2026年將其HBM月產能大幅提升近50%——從目前的約17萬片晶圓增至約25萬片,並將投資重心全力押注HBM4。這不僅是三星對自身HBM業務的一次激進擴張,更是向SK海力士發起的一次全面衝鋒(2025年三星DRAM月總產能約70萬片,全球最高,遠超SK海力士的50萬片、美光的40萬片)。此次三星擴產決心之堅定,很大程度上還是來源於輝達於2025年10月確認將採用三星的HBM4,這無疑為三星的擴產計畫注入了強大的信心。2025年三星HBM產能與SK海力士相近,皆在17萬片月產能附近,且雙方2025年產能都已售罄。這次的HBM4,三星已成功在測試中獲得好評,進而相關擴產投資將從2026年初全面啟動。其擴產路徑清晰且務實,主要依賴兩條路徑:一是改造現有的部分DRAM生產線,將其轉換為HBM專用產線;二是在其位於韓國平澤的P4晶圓廠叢集,加速建設新的專用生產線,現階段用於HBM生產的關鍵製造裝置已接近完成最終測試。02 三星的破釜沉舟如此激進的擴產計畫,其核心戰略極為清晰,就是直接鎖定輝達的訂單,目標是為其HBM4產品拿下輝達下一代Rubin的供應資格。目前,三星與輝達的HBM4價格談判已進入尾聲,三星的目標是與頭號對手SK海力士同價——後者的HBM4合約報價在500美元中段,這比當前主流的HBM3E 12層產品(約300美元中段)高出超過50%。此前,三星的HBM3E曾以低於海力士30%的價格出售,但面對HBM4激增的需求和顯著縮小的技術代差,兩家巨頭的價格戰將偃旗息鼓。市場預計,三星2026年的HBM市場份額將突破30%,銷售額有望實現三倍增長。技術全面追上、測試獲好評、加上充足的DRAM產能底蘊,讓三星有信心在2026年迎來EPS的爆發式增長。這一戰略大轉向,就是三星在HBM領域“知恥而後勇”的結果。在過去兩代產品(HBM3和HBM3E)的競爭中,三星因技術和良率問題節節敗退,市場份額一度跌至第三,不僅落後於SK海力士,甚至被美光超越。這直接導致其HBM產線一度無法滿載運行。為此,三星在2025年11月痛下決心,進行內部組織大調整,將原先獨立的HBM開發團隊整體併入DRAM開發室,旨在打破壁壘、強化協同、背水一戰。如今,HBM4技術獲得關鍵客戶認可,三星正全力反擊,意圖打一場徹底的翻身仗。HBM4的價格暴漲,背後是高端AI晶片殘酷的供需現實。SK海力士與輝達達成的HBM4協議,單價較HBM3E漲幅超50%。這漲價一方面源於HBM4採用了更複雜的工藝,其製造成本本身增加了約30%;另一方面,則赤裸裸地反映了高端儲存晶片嚴重的供需失衡。在AI伺服器中,HBM的成本已舉足輕重——HBM4很可能佔據輝達下一代GPU總成本的25%,並推動AI晶片整體漲價15%。量價齊升,正在徹底改寫HBM市場的預期。美國銀行預計,2026年全球HBM市場規模將飆升至600億美元,較上年暴增近60%。美光的預測更為長遠,認為HBM的總潛在市場規模將在2030年增長至約1000億美元。高盛則特別指出,用於定製ASIC晶片的HBM需求增長將最為迅猛,預計在2026年飆升80%,佔據整個HBM市場份額的三分之一。這預示著一個清晰的趨勢:AI晶片正從通用GPU向專用化加速演進。2026年,將是HBM3E與HBM4共同定義市場的元年,但SK海力士仍將佔據AI記憶體超級周期的核心位置。值得注意的是,儘管HBM4備受矚目,但在2026年,HBM3E仍將佔據總出貨量的三分之二,是絕對的市場主力。HBM4的份額將逐步爬升,其全面普及可能要等到2027年及以後。無論如何,三星此次的產能擴張,深刻體現了其作為全球少數IDM(整合器件製造)巨頭的戰略靈活性。與只專注儲存或代工的廠商不同,三星擁有從設計、製造到封測的完整垂直整合能力。這種能力賦予了它關鍵的產能調配靈活性——將龐大的通用DRAM產能快速轉換為利潤更高的HBM產線,需要極強的技術底蘊和產線管理能力。三星正是憑藉這一優勢,能根據市場利潤動態,快速將資源向HBM這類高附加值產品傾斜。此次擴產,就是為了精準抓住HBM量價齊升的超級周期。一旦憑藉HBM4成功切入輝達核心供應鏈,三星儲存業務的營收和利潤將獲得極大提振。摩根士丹利甚至預測,三星電子2026年的EPS可能較2025年暴增超過150%。這不再是一場簡單的技術追趕,而是一場關乎未來AI時代產業鏈話語權的戰略大決戰。03 三國演義,暗流湧動2026年是HBM4世代決戰之年。這一年,HBM4將開始逐步量產,這也是新一輪技術週期的起點。SK海力士能否守住先發優勢?三星能否憑藉全產業鏈能力實現反超?美光能否憑藉其高效策略站穩第一梯隊?答案將初步顯現。戰火首先在量產時間上點燃。SK海力士與三星均計畫在2026年第一季度啟動HBM4量產——前者在M16工廠,後者在平澤園區。這意味著SK海力士憑藉HBM3E建立的獨家供應窗口將徹底關閉,輝達等客戶的訂單將必然分流。定價權正從製造商手中滑向客戶方,SK海力士壟斷高溢價的時代結束了。外部最大的變數,是AI晶片的規格。輝達下一代Rubin平台將採用HBM4(12層堆疊),而Blackwell架構的B200/B300則使用HBM3E(12層堆疊)。雖然HBM市場增量空間是巨大的,單從單晶片的HBM容量增長來看,GPU驅動的需求增長是適度的。但這反而加劇了供應商之間的競爭:蛋糕的增速放緩,分蛋糕的玩家卻在增加。面對混戰,三國演義祭出了三種核心戰術:1)SK海力士:“技術代差”的守衛者。其路線圖激進清晰:鞏固HBM3E優勢的同時,全力衝刺HBM4量產,試圖始終領先對手半步。然而,當所有頭部玩家在2026年站上同一起跑線(HBM4)時,其市場份額面臨被稀釋的切實風險。技術領先是它的護城河,但這條河正在變窄。2)三星:“全產業鏈”的反擊者。三星最大的底氣在於從設計、製造到封測的垂直整合能力。在HBM這場需要極強協同的競賽中,這種內部協同效率是它的王牌。對它而言,這是一場不能失敗的背水一戰。3)美光:“效率聚焦”的顛覆者。作為後來者,美光沒有全線押注,而是集中資源在關鍵節點實現突破(如HBM3E量產供貨H200)。其商業模式更為犀利:將HBM產能視為對傳統DRAM(如DDR5)產能的置換,且置換比例高達3:1甚至更高。這意味著每增加一份HBM產出,就需犧牲約三份高利潤的通用DRAM產能。這種策略迫使美光必須追求極高的HBM生產效率和產品溢價,從而在提升HBM份額的同時,整體儲存業務的利潤也能快速上升。HBM4絕非終點。產業界已在規劃HBM4E、HBM5,技術演進圍繞更高堆疊(16層以上)、更大容量、更快頻寬和更低功耗展開。同時,HBM與CXL、存算一體等新架構的結合,可能重塑記憶體層級。因此,這場競賽的本質是一場關於技術遠見、製造彈性、商業智慧的綜合長跑。單一世代的產能擴張固然重要,但持續的研發投入和生態建構能力才是決定產業終局的根本。硝煙已起,好戲開場。無論最終是三國演義還是一超多強,激烈的競爭都將驅動HBM技術更快迭代、成本加速下降,最終惠及整個蓬勃發展的AI產業。2026年,只會是這場史詩級戰役的第一個高潮。(新財富)
蘋果拆解AI大腦,推理模型全是「裝」的?Bengio兄弟合著
【新智元導讀】蘋果最新研究揭示大推理模型(LRM)在高複雜度任務中普遍「推理崩潰」:思考路徑雖長,卻常在關鍵時刻放棄。即便給予明確演算法提示,模型亦無法穩定執行,暴露推理機制的侷限性。AI「思考」只是假象?剛剛,一項來自蘋果的重磅研究揭示了「大推理模型(LRM)」背後的驚人真相——這些看似聰明的模型,在面對稍複雜點的題目時,精準率居然會全面崩潰!隨著問題變難,推理模型初始會延長思考,但隨後思考深度反而下降,儘管仍有充足token預算——它們恰在最需要深入思考時選擇了放棄!這太違背直覺了,似乎Scaling Law在推理時完全失效了。值得一提的是,論文作者中還有Samy Bengio,他也是圖靈三巨頭Yoshua Bengio的兄弟。論文地址:https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdfLRM模型因能「寫出思考過程」而備受期待,被認為是AI推理能力躍升的關鍵。DeepSeek-R1 <think>模式的開源開啟了LLM進化到LRM的處理程序但研究人員通過可控遊戲環境的系統實驗證明:現有LRMs不僅在高複雜度任務上力不從心,甚至還展現出一種「反常的推理崩潰曲線」——題目越難,它們反而越不「努力」。研究還通過在相同計算token預算下對比思考模型與普通模型,發現:簡單題目,反而是傳統大模型(LLMs)更強;中等複雜度,LRMs憑藉「思考路徑」勝出;一旦太複雜,兩類模型精準率同時坍塌至0%不同於大多數僅衡量最終性能的研究,這項最新研究分析了它們實際的推理軌跡——深入觀察其冗長的「思考」過程。三種不同的性能區間與以往主要依賴數學問題來評估語言模型推理能力的研究不同,本研究引入了可控的解謎環境。這種環境可以精確調節問題的複雜度,同時保持邏輯過程的一致性,從而更嚴謹地分析模型的推理模式和侷限性。頂部的「LLM Response」部分表示研究設定了可以驗證模型的最終答案和中間推理過程,從而能夠更細緻地分析模型的思維行為。左下精準率和中間的回答長度表示:在任務複雜度較低時,不進行推理的模型表現得更準確,也更節省Token。隨著複雜度提升,具備推理能力的模型開始表現更好,但也消耗更多Token——直到複雜度超過某個臨界點後,兩類模型的表現都會迅速下降,同時推理過程變得更簡短。右下表示在成功解題的情況下,Claude 3.7 Thinking 通常會在任務複雜度低時較早找到正確答案,而在複雜度高時則更晚得出答案。而在失敗案例中,它往往會在一開始就陷入錯誤答案,之後繼續浪費剩餘的 Token 預算。這兩種情況都暴露了推理過程中存在的效率問題。數學和謎題環境對思考型與非思考型模型在數學基準測試中的對比分析顯示出模型的性能表現並不一致。在MATH-500資料集上,兩類模型的表現相近;但在AIME24和AIME25基準上,思考模型的表現明顯更優。此外,從AIME24到AIME25的性能下降也揭示出這些基準資料易受到資料污染問題的影響。研究設定了四種謎題環境。每列展示一個謎題從初始狀態(頂部)、中間狀態(中部)到目標狀態(底部)的變化過程。四個謎題分別是:漢諾塔(將圓盤在柱子間移動)、跳跳棋(交換不同顏色棋子的位置資訊)、過河(將多個對象安全運送過河)、積木世界(重新排列積木的堆疊結構)。在所有謎題環境中,不同複雜度問題下,思考型模型(Claude 3.7 Sonnet with thinking、DeepSeek-R1)與其非思考型對應模型(Claude 3.7 Sonnet、DeepSeek-V3)的精準率對比。最明顯的依然是,當問題複雜度突破一定閾值後,所有模型的精準率同時坍塌至0%!實驗和結果上圖為在tokens預算相同的情況下,思考型模型與非思考型模型在低、中、高三種複雜度謎題環境中的 pass@k表現對比。結果顯示:非思考型模型在簡單問題上表現更佳;思考型模型在中等複雜度問題中展現出優勢;而在高複雜度問題中,無論計算資源分配如何,兩個模型的表現都未能取得明顯突破。推理模型的崩潰上圖表示推理模型在不同謎題環境中,精準率與思考token使用量隨問題複雜度變化的趨勢圖。隨著複雜度上升,模型在一開始會投入更多思考token,精準率則逐漸下降;但當複雜度達到某個臨界點時,模型的推理能力開始崩潰——表現急劇下降,同時思考token的使用量也隨之減少。深入「思考模型內部」左圖與中圖展示了在不同複雜度下,四種謎題中推理過程中間解的出現位置及其正確性。✓ 表示中間解正確,✗ 表示錯誤,陰影表示分佈密度。右圖則顯示了在不同複雜度下,漢諾塔謎題中解決方案的精準率隨思考過程位置的變化情況。結果顯示:對於簡單問題(N=1-3),精準率在思考初期較高,但隨著推理繼續反而下降,出現「過度思考」的現象;對於中等難度問題(N=4-7),推理的持續略微提升了準確率;對於複雜問題(N≥8),精準率始終接近於零,表明模型在這類問題上推理完全失敗。未解之謎:推理模型的異常行為如上圖a和b所示,在漢諾塔遊戲環境中,即便在提示中直接提供瞭解法演算法,讓模型只需按步驟執行,模型的表現仍未改善,推理崩潰的現象依然出現在大致相同的位置。這一點非常值得注意,因為設計並找到一個解法通常比僅僅執行一個已知演算法需要更多的計算(比如搜尋與驗證)。這一現象進一步突顯了推理模型在「驗證」以及按邏輯步驟解決問題方面的能力侷限。如圖c和d所示,觀察到Claude 3.7 Sonnet思考模型在不同環境中表現出明顯不同的行為。在漢諾塔環境中,當N=10時,模型通常直到大約第100步才會出現第一處錯誤;而在過河環境中,同一個模型卻只能正確地完成前4步,之後便無法繼續生成有效解。這種差異非常顯著。值得注意的是,當 N=5(即需要31步解)時,模型幾乎可以完美解決漢諾塔問題;但在 N=3(僅需11步解)的過河謎題中,模型卻完全失敗。這一現象很可能說明:在網路資料中,N>2 的過河問題案例非常稀少,因此大語言模型(LRMs)在訓練中幾乎沒有見過或記住這類實例。這項研究系統性地評估了大推理模型(LRMs),低複雜度下,標準LLM反而更穩;中等複雜度時,LRM暫時領先;可一旦問題變得複雜到一定程度——兩者雙雙崩盤。分析推理軌跡後,研究者發現模型在簡單問題上「過度思考」,在複雜問題上則徹底罷工。甚至連直接提供解題演算法都救不了它們——比如漢諾塔問題,演算法提示給到位了,模型卻依然原地打轉。模型在漢諾塔中可連續操作100步不出錯,到了過河問題裡,卻五步都撐不過去!這背後的原因成謎,但無疑為後續探索AI推理極限打開了一個新的突破口。眼下的LRM,距離「通用推理」這座大山,顯然還有不少路要走。 (新智元)