#儲存
儲存晶片擺脫周期? 一個被AI誤導的產業幻覺
2025Q2,全球記憶體市場迎來了一輪罕見的劇烈上漲,DDR5 價格在短短一年時間裡,從每 GB 約 3–4 美元飆升至 15美元以上,部分高端規格產品的價格更是突破了這一區間。DDR4在需求不斷下跌的情況下,因為供給瞬間暴跌,導致價格飆漲的更為誇張從每 GB 約 1-2 美元飆升至 15美元,在2025年底到2026年初,甚至出現DDR4每GB價格比DDR5還高的倒掛現象。為何壓根沒需求,需求每年下降的DDR4價格比DDR5長得還高?核心原因是三大同時間宣佈停止生產DDR4,將產線轉進DDR5,全球DDR4供給瞬間減少6成以上,導致DDR4價格暴漲,因為需求可能每年下降10%,但供給暴降60%,瞬間造成了供需緊張。而DDR4的價格更高,毛利更高,會讓三大回心轉意減緩DDR4的停產嗎?當然不會,因為DDR4沒有需求,需求在下降,甚至DDR5需求也很一般,每年只有微幅上漲,從消費級電子就能看出DDR5的需求不會太好。那三星,海力士,美光三大原廠為何要放棄DDR4全面轉進DDR5呢?DDR5需求同樣一般。核心就在HBM,這一波儲存的需求拉動完全在AI沒有其他,而AI需要的是大量的HBM,生產HBM必須先做DDR5顆粒再層層堆疊,目前的HBM4是12層,未來會有16層,也就是佔用DDR5顆粒會越來越多。最終導致DDR5漲價的原因也是供給被大量HBM擠佔,供給減少造成供需不平衡。這就是三大為何毅然決然放棄價格更高,毛利更高的DDR4全面轉進DDR5的核心原因,HBM緊缺需要更多DDR5顆粒,用DDR4的舊產線升級最快,不用在新建廠房,所以必須把DDR4騰出來升級DDR5,為的只有一件事 - HBM。只有HBM的需求是不斷增加的,DDR4跟DDR5需求是減少跟持平,但價格大漲。大家搞明白這兩年的儲存漲價邏輯才能對未來做出正確判斷,如果你不懂產業邏輯,憑藉網路上看的有頭沒尾的文章,這會讓你的認知片面化,切入點單一化非常容易做出錯誤判斷,尤其是在瞬息萬變的儲存市場。去年開始筆者在知識星球就開始跟同學灌輸儲存市場的很多底層邏輯,就是擔心從未經歷過儲存周期的同學們,在儲存高漲的時候出現不切實際跟脫離產業的幻想。我想這正是加入筆者知識星球的最大好處,對整個產業有高維度的宏觀認知,這是做投資的基石。所以真心建議加入筆者知識星球,掃文章末尾二維碼即可加入,知識付費。儲存產業是否會復刻先進邏輯製程的發展路徑,進入長期漲價的結構性時代?這個問題看似符合產業發展的 “技術直覺”,畢竟無論是 CPU、GPU 這類邏輯晶片,還是 DRAM 這類儲存晶片,本質上都是在wafer上堆疊電晶體,依靠摩爾定律,也就是製程工藝的持續進步提升單位面積的電晶體密度。既然先進邏輯製程能夠在每一代技術迭代中實現產品價格的持續提升,同為半導體產業核心品類的儲存,為何不能走上同樣的道路?但如果拋開表面的技術相似性,從數學邏輯與產業本質的底層維度分析,『儲存長期漲價』或者『儲存周期特性結束』 的結論其實站不住腳。更進一步說,這一輪看似具備結構性特徵的儲存價格上漲,恰恰在更高維度再次驗證了儲存產業的核心屬性,它不僅是典型的周期行業,而且受產業底層規律約束,幾乎不可能擺脫周期的桎梏。一、表象相似:都是電晶體,卻有完全不同的命運很多人被「電晶體縮放」的表面規律所誤導,認為邏輯晶片能靠製程進步提價,儲存也能走同一條路。畢竟兩者的技術核心都是通過縮小電晶體尺寸,在同樣大小的 wafer 上塞進更多基本單元,從而實現成本最佳化。先看一組公認的產業資料,無論是邏輯還是儲存,製程進步的確帶來了單位成本的下降:邏輯晶片:製程越先進,晶圓越貴,但單位電晶體成本越低台積電 3nm 晶圓價格是 14nm 的 3 倍多,但每平方毫米能塞的電晶體數是 14nm 的 8 倍多,攤到每個電晶體的成本反而降了近 70%。簡單說,邏輯晶片是「買貴的晶圓,造更便宜的電晶體」。儲存晶片:同樣靠製程降成本,卻卡在物理極限DRAM 的核心單元是 1T1C(1 個電晶體 + 1 個電容),製程進步同樣能縮小單元尺寸,提升 bit/mm² 密度,但電容的物理特性讓它的微縮速度遠慢於邏輯電晶體。從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5-6 倍,每 bit 成本降了近 70%,看起來和邏輯晶片的成本最佳化節奏差不多。但關鍵差異在於,邏輯晶片的電晶體能持續微縮,而 DRAM 的 1T1C 單元自 2004 年後就卡在 6F² 的設計上,再也沒實現突破,這也是 DRAM 密度提升放緩的核心原因。目前DRAM行業準備進入4F²的3D DRAM時代,但真正推出產品還得是1d以後的節點,預計2028年~2029年才能真正進入4F²的3D DRAM時代。看到這裡有人會問:既然兩者都能靠製程降單位成本,為什麼邏輯能長期提價,儲存卻只能在周期裡掙扎?答案藏在「你賣的到底是什麼」這個本質問題裡。二、核心分歧:一個賣性能,一個賣容量,分母完全不同這是儲存和邏輯最根本的差異,也是解釋兩者價格走勢的關鍵。我們用兩個核心公式,把這個差異講透。邏輯晶片的定價邏輯 —— 賣的是性能,不是電晶體邏輯晶片(CPU、GPU、AI)的核心定價公式:Price logic ≈ f (Performance)。邏輯晶片的價格由「能解決多大的問題」決定,不是由「有多少個電晶體」決定,電晶體只是實現性能的手段。而性能和電晶體數量的關係是超線性增長:Performance ∝ Transistorα , α > 1 。電晶體數量的增長,會帶來性能的爆炸式增長(α > 1),簡單說就是「電晶體翻 10 倍,性能可能翻 20 倍、30 倍」。最典型的例子就是 AI 晶片:同樣是台積電 3nm 工藝,一塊 GPU 的電晶體數是傳統 CPU 的數十倍,其能運行的大模型參數量、推理速度是 CPU 的上百倍,因此它的售價能達到 CPU 的幾十倍,使用者依然願意買,因為單位性能的成本實際上是下降的。對資料中心來說,一塊貴的 AI 晶片能替代幾十塊普通晶片,節省的機房空間、電費、維護成本遠超晶片本身的價格,這就是「性能溢價」的核心邏輯。即使 wafer 價格越來越貴,只要性能提升的速度超過價格上漲的速度,使用者就願意為更高的價格買單。儲存晶片的定價邏輯 —— 賣的是容量,一個 bit 就是一個 bitDRAM 的核心定價公式:Pricememory ≈ f (Capacity),而單位容量的價值是恆定的。儲存晶片的價格由「能存多少資料」決定,1GB 就是 1GB,無論是用 DDR3 還是 DDR5 存,能存的資料量一樣,對使用者的價值也一樣。製程進步只能讓廠商用更低的成本生產 1GB 儲存,但無法讓 1GB 儲存的價值變高 —— 使用者不會因為你用了更先進的 1βnm 工藝,就願意為 1GB DDR5 付比 1GB DDR3 高的價格。這裡有一個關鍵的對比,能讓我們一眼看清差異:* 邏輯晶片:價格上升,但性能提升更快 → 使用者的「單位性能成本」下降 → 願意接受漲價;* 儲存晶片:價格上升,但容量不變 → 使用者的「單位容量成本」直接上升 → 會減少採購、選擇替代方案,市場天然壓制價格。簡單說,邏輯晶片是「越貴越值」,儲存晶片是「貴了就不買」,這是兩者價格走勢的本質區別。三、系統層約束:儲存不能貴,是一條物理 + 經濟定律如果你到了會思考產業且具備一定水平,你可能又會產生新的疑問 - 邏輯晶片漲價也會增加系統成本,為什麼只約束儲存?這個問題看似合理,但其實忽略了系統成本的計算邏輯,我們依然用公式解讀。系統總成本的構成與差異整個電腦系統的成本可以簡化為:System Cost=Compute+Memory但邏輯(Compute)和儲存(Memory)的成本計算方式完全不同。邏輯的系統成本:看的是「價格 / 性能」對邏輯晶片來說,真正影響系統成本的不是晶片本身的價格,而是單位性能的價格:Performance/Price只要這個比值在下降,即使晶片價格上漲,整個系統的運算成本也是下降的。比如一塊 10 萬元的 AI 晶片,性能是 10 塊 1 萬元普通晶片的 20 倍,那麼用這塊 AI 晶片的系統,單位運算成本只有原來的一半,企業當然願意選擇。儲存的系統成本:看的是「價格 × 容量」對儲存晶片來說,系統成本的計算方式是價格乘以容量:System Costmemory = Price × Capacity而在 AI 時代,儲存的容量需求是和算力同步增長的,甚至增長更快:Memory Demand ∝ Compute × K,K > 1也就是說,一個 GPU 的算力提升 10 倍,搭配的儲存容量可能需要提升 15 倍(K=1.5)。如果此時每 GB 儲存的價格再上漲 10 倍,那麼儲存的系統成本就會提升 150 倍,這是任何企業都無法承受的。這不是市場的選擇,而是物理和經濟的雙重約束,AI 算力的提升需要海量儲存的支撐,如果儲存價格長期上漲,整個 AI 產業的擴展就會戛然而止。因此,儲存價格必須在長期內維持穩定甚至下降,這是支撐科技進步的必要條件。四、資料實證:儲存的「1 美元地心引力」,邏輯的「性能溢價無上限」前面的公式解讀了理論邏輯,接下來我們用十幾年的產業資料,驗證儲存和邏輯的價格規律。重點看兩個核心指標:單位面積 wafer 的價值(Value/mm²) 和扣除周期波動的均衡價格。半導體的統一價值衡量標尺無論是邏輯還是儲存,都可以用這個公式衡量單位面積矽片的價值,這也是判斷一個半導體行業能否持續提價的核心指標 :Value  /mm2 = Density × Valueunit* Density:單位面積的基本單元數(邏輯是電晶體,儲存是 bit)* Value_{unit}:每個基本單元的實際效用價值。想要讓晶片持續提價(提升 Value/mm²),只有兩條路:要麼密度翻倍,要麼每個單元的價值變高。邏輯晶片兩條路都走通了,而儲存晶片兩條路都撞了牆。邏輯晶片 —— 密度和單位價值雙增長,Value/mm² 暴漲從 14nm 到 2nm,邏輯晶片的電晶體密度提升了 11 倍,而每個電晶體能實現的性能提升了 15 倍,兩者相乘,單位面積wafer的價值提升了 165 倍。這就是為什麼台積電 2nm 晶圓能賣到 3 萬美元一片,客戶依然排隊送錢 —— 因為這塊 wafer 能創造的價值,是 14nm wafer 的上百倍。儲存晶片 —— 密度慢增長,單位價值恆定,Value/mm² 微漲從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5 倍,但每個 bit 的價值始終不變,因此單位面積 wafer 的價值只提升了 6.2 倍,遠低於邏輯晶片的 165 倍。扣除地震、缺芯、AI 爆發等短期周期因素,三十多來DRAM 的每 GB 均衡價格始終圍繞1-3 美元波動,這就是儲存行業鼎鼎大名的「1 美元地心引力」,無論製程多先進,價格最終都會回歸到成本支撐的均衡區間。1美元地心引力這個概念是老半導體人耳熟能詳的DRAM規則,從歷史上看確實也是如此。不過2016年以後傳統資料中心因為巨量資料開始繁榮,儲存的價格有稍稍的墊高,加上這波AI熱潮,新進的且沒經歷過周期的投資者,幾乎沒有人知道所謂1美元地心引力。但是即使目前價格高企的 DDR5,其單位面積wafer的價值也只有邏輯晶片的幾百分之一,這也是儲存永遠成不了「高價品」的核心原因。DRAM 的 1T1C 儲存單元的密度直接決定了 bit/mm²,其變化規律和 bit 密度完全同步,從 DDR3 到 DDR5,每 mm² 能塞進的 1T1C 單元數從約 0.12 億個提升到 0.8 億個,提升了 6.7 倍,但由於單元尺寸卡在 6F²,這個提升速度遠慢於邏輯電晶體的 10 倍以上提升。簡單說,邏輯晶片是在「做乘法」,儲存晶片只是在「做加法」,這是兩者價值差異的核心資料支撐。五、為什麼儲存一定會有周期?供需的「超級反應」定律理解了價值和定價模型,我們就能輕易解釋儲存的周期性 —— 這不是市場情緒導致的,而是供需結構決定的必然結果。儲存的周期性動態公式Demand↑→ Supply↑↑ → Oversupply → PriceCollapse儲存需求的特點是體量巨大、高度同步,當 AI、手機、PC 需求同時上升時,整個市場會一起拉動儲存需求。而儲存供給端的特點是標準化程度高,技術路徑清晰,三星、海力士、美光三大廠商的擴產節奏幾乎一致。這就形成了一個典型的循環:需求剛剛上漲,三大廠就會同時大規模擴產,最終導致供給遠超需求,價格直接崩盤。歷史資料反覆驗證了這一點DDR3 時代:2011 年需求上漲→廠商擴產→2013 年供過於求→價格暴跌 50%。DDR4 時代:2017 年需求上漲→廠商擴產→2019 年供過於求→價格暴跌 60%。DDR5 時代:2025 年 AI 需求上漲→廠商開始擴產→預計 2027 年供給平衡維持高位→高價儲存導致消費級電子需求低迷→新技術導致AI對儲存容量增長減緩→2028年價格逐漸回落。而邏輯晶片幾乎沒有這種周期,核心原因是邏輯晶片的技術壁壘高、產品差異化大,台積電的 3nm 工藝獨步全球,NVIDIA 的 GPU 架構無人能敵,沒有企業能輕易擴產跟上需求,因此供需能長期維持相對平衡,價格也能保持穩定上漲。邏輯晶片如果競爭力不足,會體現在稼動率,而不是價格,製程節點價格永遠向上,不可能向下,但經爭力不足將導致稼動率崩盤,客戶只會選擇具備最高競爭力的Foundry。六、HBM 能改變儲存的周期宿命嗎?答案是:不能面對儲存的周期性質疑,很多人會拿 HBM舉例,HBM 賣的是頻寬和延遲,不是容量,定價邏輯和邏輯晶片一樣,能擺脫周期。HBM 的確具備了邏輯晶片的某些特徵,但其依然逃不過周期定律,核心原因有三,我們用資料和邏輯說明:產能槓桿效應:放大周期,而非消滅周期生產 1GB HBM 所需的晶圓面積是傳統 DRAM 的 2倍左右,加上良率耗損可能在3倍。AI 需求旺盛時,HBM 會抽乾通用 DRAM 的產能,導致全線漲價,而一旦 AI 需求增速放緩,HBM 釋放的產能會以 2-3 倍的壓力衝擊普通 DRAM 市場,導致價格暴跌,HBM 只是讓儲存的周期波動更劇烈,而不是消滅周期。又或者行業有其他替代方案,比如HBF會部分取代HBM,或者如Google的儲存壓縮演算法,如此一來龐大的HBM帶來產能,將沖垮DDR5,這正是三大原廠對擴產保守的一個核心原因。其實如果未來真的儲存百分百大爆發,向邏輯一般,不會因為某種新技術而被淘汰,那三大原廠必然是往死裡擴產,還擔心啥供給,他們保守以對必然有其核心邏輯。成本驅動而非價值驅動:高價是暫時的目前 HBM 的高價,主要來自於封裝良率低(良率不足 70%)和 TSV(矽通孔)工藝成本高,而不是其單位價值高。一旦工藝成熟、良率提升到 80% 以上,HBM 的成本會大幅下降,價格競爭依然會回歸 ,HBM 的高價是技術不成熟的結果,不是結構性的性能溢價。目前我們可以看到三大原廠對擴產的保守,目的就是長維度的維持高價格,但本質還是人為的利用供給手段來調控價格,即便未來儲存長時間維持高價,但依然沒有本質的改變。同質化競爭:沒有企業能壟斷技術三星、海力士、美光在 HBM 技術上的差距極小,沒有企業能像 NVIDIA 在 GPU 領域那樣形成技術壟斷。只要是同質化競爭,最終的競爭手段必然是「產能擴張 + 價格戰」,這是大宗商品的必然規律 ,HBM 依然是儲存,不是邏輯晶片。簡單說,HBM 只是「高級的儲存」,並沒有改變儲存,『賣容量(頻寬本質也是容量的一種體現)、單位價值恆定』的核心屬性,因此依然逃不過周期宿命。七、結語:儲存的周期,是物理和經濟的雙重必然2025-2026 年的這輪儲存超級周期,的確是 AI 驅動下的歷史性行情,但這並不意味著儲存行業的規律變了。儲存和邏輯晶片的根本差異,從來不在於電晶體和製程,而在於價值函數和單位面積價值潛力:* 邏輯晶片賣的是性能,性能隨電晶體超線性增長,因此能靠性能溢價實現長期提價,定價權掌握在企業手中。* 儲存晶片賣的是容量,容量的單位價值恆定,因此價格只能圍繞成本波動,定價權掌握在供需曲線手中。再加上 DRAM 的 1T1C 單元卡在 6F² 的物理極限,密度提升速度放緩,單位面積價值潛力幾乎見頂,儲存的周期性就成了物理和經濟的雙重必然。對於投資者和產業從業者來說,最危險的念頭就是「這一次不一樣」。當所有人都認為儲存擺脫了周期、會長期漲價時,往往就是下一個周期頂點降臨的時刻。AI 只是給儲存行業打了一劑強心針,讓它在短期內光鮮亮麗,但並沒有改變 DRAM 作為「科技大宗商品」的底層基因。儲存不相信奇蹟,只相信供需。這條底層規律,過去成立,現在成立,未來依然會成立。而這,正是儲存這個行業最難以改變、也最值得市場敬畏的底層規律,技術進步可以提升效率、降低成本,可以催生出高端的性能型細分品類,但始終無法改變其作為基礎元件的容量定價核心,也無法擺脫供需同步性帶來的周期桎梏。對於市場而言,認清儲存產業的周期本質,摒棄 “結構性漲價” 的幻覺,才能做出更理性的產業判斷與投資決策。加入知識星球,你將會得到比所有人更前瞻的行業動態與趨勢,沒有推票,只有最正統的產業邏輯去看投資市場,知識付費,掃文章末尾二維碼即可加入。(梓豪談芯)
中芯國際,悄悄補上關鍵一環
中芯國際,交出了一份讓人又愛又恨的成績單。2025年,它實現營收673.23億元,同比增長16.5%;歸母淨利潤50.41億元,同比增長36.3%;扣非淨利潤41.24億元,同比暴增55.9%。數字相當漂亮,拆開卻全是暗湧。AI浪潮把全球儲存價格推上天,本該是半導體全鏈條的狂歡。可對中芯國際來說,最肥的那塊肉它沒真正嘗到,反而先被儲存漲價傳導到手機、PC、消費電子終端後的需求壓制給狠狠反噬。這也帶出了中芯國際當下最真實的處境,就是需求端很多時候不由自己說了算,可能正因為如此,中芯國際這些年真正能抓在自己手裡的,其實只剩下一件事——擴產、持續擴產,把產能、份額和控制力牢牢攥住再說。問題是,擴產從來不是溫柔鄉。數千億元資本開支砸下去,確實砸出了月產能超100萬片(折合8英吋)、產能利用率飆至93.5%的硬實力,行業地位更穩了。但代價也來得凶狠:折舊負擔像枷鎖一樣越來越重,盈利能力被持續拉扯,現金流隱隱透出壓力。然而,就在業績與資金雙重壓力慢慢浮出水面之際,財報裡卻釋放出一個極具野心的重磅訊號:中芯國際不僅在先進製程上持續突破,更成立先進封裝研究院。這一步看似低調,但其實把中芯的技術底牌,從“能不能做出來”直接推向了“做出來以後怎麼真正值錢”。在萬字年報的字裡行間,這或許才是比任何利潤數字都更值得細品的轉折。儲存行情下的尷尬2025年,中芯國際的業務結構出現些微妙變化。智慧型手機收入佔比從2024年的27.8%大幅降至23.1%;相比之下,消費電子佔比由37.8%上升至43.2%,工業與汽車由7.8%上升至11%。表面看,這是業務多元化、可喜可賀;往骨子裡挖,卻更像手機這個原本最核心、技術含量最高的地盤,正承受越來越明顯的擠壓。而這背後的推手,就是儲存價格的瘋狂上漲。從2025年9月開始,全球儲存市場進入一輪罕見的漲價周期,DRAM等多個品類價格明顯上行,市場甚至開始用“超級周期”來形容這一輪行情。儲存器漲價帶來的連鎖反應也很快傳導到終端:手機、PC等整機成本上升,品牌廠商被迫提價,而一旦終端價格上漲,消費需求自然會被壓制。TrendForce等機構因此大幅下修2026年智慧型手機和筆電出貨預測,Counterpoint甚至預警智慧型手機出貨可能下滑約12%。這對中芯國際來說,並不是什麼好消息。中芯國際的手機端業務,本來就高度依賴終端景氣度。手機賣得動,晶片出貨才有保障;手機賣不動,訂單自然就會承壓。不過,真正尷尬的地方還不止於此。很多人可能會問,既然這輪儲存行情這麼火,中芯國際難道一點紅利都吃不到嗎?問題恰恰就在這裡:中芯國際雖然也有儲存相關業務,但它押注的方向,和這輪最賺錢、最受市場追捧的標準記憶體,並不是一回事。財報顯示,中芯國際在儲存端的佈局,主要是嵌入式非易失性儲存和獨立非易失性儲存。聽起來都帶“儲存”兩個字,但它們和這輪最火的DRAM,其實不在同一條賽道上。DRAM更像電子裝置執行階段的“臨時工作台”,無論是伺服器處理資料,還是AI硬體做訓練和推理,都離不開它的高速讀寫能力。所以只要AI算力繼續擴張,DRAM往往就是最先被點燃的一環。而中芯國際佈局的嵌入式非易失性儲存和獨立非易失性儲存,邏輯更偏向“把資料留住”,下游更多集中在汽車電子、工控、物聯網這些特色場景。它們當然也重要,但無論是需求爆發力,還是盈利彈性,都和DRAM不是一個量級。結果就是中芯國際在這一輪儲存行情裡的處境相當尷尬:最熱的錢,並沒有真正落到自己口袋裡;可最直接的衝擊,卻先傳到了自己的客戶那一端。擴產的代價既然需求端不可控,那中芯國際能抓住的,就只剩下自己最有把握的東西:擴產。這正是中芯國際這幾年最清晰、也最堅決的一條戰略主線。2022年-2025年,中芯國際資本開支分別為63.5億美元、74.7億美元、73.3億美元和81億美元,2026年預計與2025年的81億美元大致持平。五年累計近373.5億美元,折合人民幣約2600億元,堪稱豪賭。與此同時,中芯國際不只大建新產能,還在強化核心資產控制權。2025年12月30日,中芯國際公告稱,擬以每股74.2元的價格發行約5.47億股普通股,向中芯北方少數股東購買公司49%的股權,交易總價約為406.01億元。中芯北方成立於2013年7月,是中芯國際與北京市政府共同投資設立的12英吋晶圓廠,員工超過2500人,月產能超過7萬片。高強度投入,確實也砸出了效果。2025年,中芯國際生產晶圓1012.63萬片,月產能超過100萬片(折合8英吋產能)。同時,產能利用率增至93.5%,同比增長8個百分點。但代價也隨之而來。擴產帶來折舊暴增,固定成本高企。一旦價格環境不夠強,或者新增產能釋放節奏快於需求修復,利潤表立刻被拖累。中芯國際近年的毛利率變化,其實已經把這個問題寫得很清楚了。2022-2024年,中芯國際毛利率分別為38.3%、21.89%、18.59%,遭遇了連降;2025年雖然觸底反彈,但更多隻是因為2024年的基數實在太低。而真要拆到每季度來看,中芯國際的盈利壓力依然很大。2025年第四季度,中芯國際季度毛利率為17.38%,顯著低於當年第三季度的25.49%,也低於2024年同期的21.09%。而比毛利率更現實的,是現金流壓力。2023-2025年,中芯國際“購建固定資產、無形資產和其他長期資產支付的現金”分別為538.65億元、545.59億元和599.51億元,連續三年每年砸出500多億元,2025年更是快到600億元。問題在於,錢的一頭在持續往外流,另一頭卻沒有同步變得更寬裕。雖然利潤大漲,但同期中芯國際經營現金流淨額卻下滑了11.38%,這背後很大程度是因為應收帳款由2024年的29.23億元大增至2025年末的61.68億元,翻了超過一倍,遠高於16.5%的營收增速。這說明什麼?中芯國際不僅要砸重金建廠買裝置,還得在客戶端讓渡更多條件,才能把新增產能盡快填滿。規模上去了,控制力強了,但短期盈利韌性被明顯拉扯,資金鏈像一根緊繃的弦,稍有風吹草動就隱隱作響。先進製程突破儘管業績和資金壓力已一點點浮出水面,中芯國際仍在最要命的地方繼續重金投入,為的就是突破卡脖子。2025年,中芯國際研發費用達到55.19億元,2024年則為54.47億元,連續兩年研發投入超過50億元,合計接近110億元。在持續投入背後,市場最關心的那個問題,其實一直沒變:中芯國際現在到底能做到多少奈米?過去幾年,外界報導的拼圖已逐漸完整:2022年,行業觀察機構TechInsights提到,中芯國際已經在交付使用7奈米技術製造的比特幣挖礦晶片。2023年,TechInsights拆解華為Mate60Pro後又指出,其搭載的新麒麟9000S晶片由中芯國際製造,採用的是中芯當時最先進的7奈米工藝。到了2025年,市場又傳出新的訊號。相關報導顯示,中芯國際正在測試由上海初創公司宇量昇科技研發的深紫外光(DUV)微影裝置,並通過“多重圖案化”技術來生產7奈米晶片。更進一步的說法甚至是,這類裝置未來還有可能被逼到極限,去挑戰5奈米處理器製造。把這些零散訊號串起來,其實可以看出一個大致輪廓:中芯國際大機率已經站在了7奈米逐步成熟、5奈米開始進入市場預期的節點上。但如果只盯著“到底幾奈米”,反而可能低估了中芯國際現在真正想做的事。事實上,在中芯國際2025年財報裡,最值得反覆咀嚼的一句,是“成立先進封裝研究院”。這句話看起來不像“7奈米”“5奈米”那麼炸眼,但它真正透露出來的資訊反而更深,因為這意味著中芯國際現在考慮的問題,已經不只是先進製程能不能突破,而是先進製程突破之後,怎麼把這種工藝能力真正變成高端晶片的產品競爭力。今天全球半導體競爭,早就不只是比誰的奈米數字更小了。奈米數當然重要,但真正決定一顆高端晶片最終有沒有市場、值不值錢的,越來越是後面那整套系統能力。比如晶片之間怎麼高效連接,怎麼3D堆疊,頻寬怎麼拉滿、功耗怎麼壓到極致、散熱怎麼解決。這些都屬於先進封裝要解決的問題。沒有這套能力配合,再先進的前道製程,很多性能潛力也釋放不出來。所以,中芯國際成立先進封裝研究院,本質上不是一個簡單的“補項目”,而是在補先進製程後面最關鍵的一截能力鏈。而這件事更值得玩味的地方還在於,它其實從側面強烈暗示:中芯國際對自己先進製程的推進,大機率已經有了比外界更強的底氣和信心。道理並不複雜。任何一家企業,只有當一項核心技術已經推進到一定階段之後,才會開始往下一層去想。假如中芯國際的先進製程還停留在“能不能攻下來”的焦慮裡,那它現在最該盯著的,應該還是工藝本身、良率本身,而不是先進封裝,更不是高端產品競爭力怎麼落地。但現在,中芯國際顯然已經把思路往後推了一步。這,或許才是2025年財報裡,最重磅的訊號。中芯國際的野心,已遠不止追趕先進製程。它用擴產築起規模壁壘,用持續高研發破技術關,用先進封裝補上系統能力鏈,悄然在建構屬於自己的“全端競爭力”。儲存周期的尷尬、擴產的沉重代價,都是成長中必須吞下的苦果。但當它一步步把“製程+封裝”的能力鏈握緊時,真正的底牌,才剛剛開始亮出來。外部環境依然複雜,折舊壓力不會一夜消失,需求波動也會反覆。但從中芯國際這一系列動作看,它已不再滿足於做一家“大而穩”的代工廠。它想成為能真正扛起中國半導體高端突破的關鍵一環。 (金角財經)
亞太股市集體重挫,A股儲存晶片全線殺跌,港股科網股大跳水,智譜跌15%,新能源汽車股飆漲
截至4月2日收盤,A股四大指數集體回呼,滬指跌0.74%,深證成指跌1.60%,創業板指跌2.31%,科創綜指跌2.56%。滬深京三市成交額不足1.9兆,較昨日縮量逾1500億。圖源/21財經客戶端行業類股多數收跌,石油石化、醫藥商業、能源金屬類股漲幅居前,貴金屬、元件、通訊服務、小金屬、半導體、廣告行銷、玻璃玻纖類股跌幅居前。個股方面,上漲股票數量超過1000隻,逾30隻股票漲停。總體來看,兩市個股呈普跌態勢,全市場下跌個股超4300隻。A股油氣股逆市走強,博匯股份20cm漲停,中油工程漲超10%,藍焰控股、貝肯能源漲停,招商南油、通源石油等漲幅超6%。消息面上,據央視新聞,川普一句話嚇壞市場,川普表示戰爭將持續到四月下旬,威脅要打擊伊朗的發電廠,國際油價大幅攀升,截至15:08,布倫特原油日內漲幅達7.0%,報108.32美元/桶;WTI原油日內漲幅達6.5%,報106.66美元/桶。下跌方面,貴金屬類股集體調整,曉程科技、湖南黃金跌幅居前;算力租賃概念集體調整,優刻得、首都線上、利通電子大跌;儲存晶片類股多股全線殺跌,南亞新材跌超10%,精測電子、東芯股份、精智達多股跌超6%。大宗商品方面,國際金銀價格持續跳水,現貨黃金日內大跌4%,現報4564.73美元/盎司。現貨白銀回落至70美元/盎司下方,日內跌6.72%。港股科網股大跳水,智譜跌15%新能源汽車股逆勢飆漲港股低開低走,恆指、恆科指雙雙跌超1%,恆指一度跌破25000點,科網股大跳水,恆生科技指數跌幅1.86%,AI應用股大幅調整,智譜跌近15%,權重科技股全線下跌,其中華虹半導體跌超4%,小米跌近4%,阿里巴巴、美團跌超3%。港股市場部分新能源汽車股逆勢飆漲,其中,奇瑞汽車漲超7%,吉利汽車漲近6%,長城汽車漲近5%,零跑汽車漲超2%。 (21世紀經濟報導)
從HBM到SSD:被嚴重低估的AI儲存長周期邏輯
最近市場的不確定性很高,確實也很難做。目前市場上共識性比較強的就是光和儲存,應該說光的共識性是遠大於儲存的,儲存現在已經有很多的爭議了,上周儲存的回呼也比較大,即便市場都在解釋Google的那個TurboQuant論文,還是沒能擋住閃迪、三星、美光和鎧俠的大幅回呼, 甚至花旗還給出了下調美光的分析報告。這些都是AI Memory長周期的一部分,我們只需要知道當前Memory依舊稀缺,AI需求依舊旺盛即可。這篇文章,我們來看下,為什麼這波儲存周期被低估了。一個重度使用者每天要“吃掉”多少儲存先從最基本的問題開始:當一個程式設計師每天用 Claude Code 或者 Cursor 瘋狂寫程式碼時,背後的資料中心到底需要準備多少儲存空間?行業裡有個不成文的定義,日均消耗 1000 萬 tokens 的使用者,被稱為 Power User——重度使用者。這個數字聽起來很抽象,但換算成儲存需求就具體多了。整個計算鏈條是這樣的:1000 萬 tokens 對應大約 40MB 的純文字資料,這只是起點。這些文字需要被轉換成向量嵌入索引,用於 RAG 檢索,這一步會膨脹到 30GB 左右。再加上會話狀態、agent 執行日誌,以及出於安全考慮的三副本複製機制,最終一個重度使用者每天會產生 50 到 100GB 的 SSD 儲存需求。普通使用者呢?日均 100 萬 tokens,對應的儲存需求大約是 12GB,恰好是重度使用者的十分之一。這個比例關係在訪談中被反覆驗證,基本是個行業共識。有意思的地方在於並行場景。很多人的第一反應是:10 個重度使用者就是 500GB 到 1TB,100 個使用者就是 5TB 到 10TB。但實際情況要複雜一些。AI 系統通過“共享倉庫索引”機制,可以讓多個使用者共享基礎資料,只為每個使用者單獨儲存會話狀態。所以並行使用者的儲存需求增長不是線性的,而是被最佳化過的。但這個最佳化空間也是有限的。當 token 總需求持續上升,當越來越多的應用從單一 agent 變成多 agent 協作,儲存壓力就會快速累積。一個簡單的查詢,在 Claude Code 這樣的工具裡,可能會同時呼叫 4 到 5 個 agent,一個負責寫程式碼,一個負責審查,一個負責測試,一個負責最佳化。每個 agent 都有自己的狀態儲存需求,這就是為什麼程式設計 agent 的儲存消耗遠超普通對話應用。多模態時代的儲存爆炸如果說文字程式設計已經讓儲存需求翻了好幾番,那多模態應用帶來的衝擊就是另一個量級了。從文字到音訊,儲存需求增長 10 倍;從音訊到視訊,再增長 100 倍。一分鐘的視訊內容,儲存體積是同樣時長文字的 10000 倍。這不是危言聳聽。想想 Claude 的截圖分析功能,想想各種 AI 視訊生成工具,想想那些正在路測的自動駕駛系統。這些應用產生的資料,不僅體積龐大,而且全都是熱資料,必須隨時可以被快速讀取。這些資料能不能放到便宜的機械硬碟(HDD)裡?答案是不能。至少在推理場景下不能。HDD 只適合冷歸檔,比如你一年前在 Claude Code 裡問過的某個問題,如果長期不再訪問,系統可能會把它挪到 HDD。但當你需要呼叫這段歷史記錄時,就會明顯感覺到載入延遲。所有需要即時響應的資料,都必須放在 SSD 上。這是 AI 推理和傳統資料儲存的本質區別。儲存的四層金字塔如果把 AI 系統的儲存比作人的記憶系統,那麼它有四層結構,每一層都有自己的角色。最頂層是 HBM,高頻寬記憶體,直接焊在 GPU 上。這是最貴、最快、容量最小的那一層,專門用來儲存模型權重。一顆 H100 GPU 有 90GB 的 HBM,8 顆加起來也就 800GB 左右。這就是 AI 系統的“工作記憶”,處理眼前任務的核心空間。第二層是 DRAM,也就是伺服器記憶體。它的容量通常是 HBM 的 4 到 5 倍,主要用來儲存 KV cache——那些在對話過程中需要頻繁呼叫,但又不至於佔用 GPU 核心空間的資料。這是“短期記憶”,你今天跟 AI 說過的話,大機率就存在這裡。第三層是 SSD,容量從 1TB 到 15TB 不等,取決於伺服器配置。這是“長期記憶”,用來儲存 RAG 檢索需要的知識庫、使用者的歷史會話、agent 的執行狀態。雖然速度比 DRAM 慢,但容量大、成本相對可控,是推理場景下的主力儲存。第四層是 HDD,只在訓練資料歸檔和冷備份場景下出現。在推理環節,它基本是隱形的。一個兆參數的模型,如果用 INT4 精度運行,需要 500GB 的 HBM、700 到 800GB 的 DRAM,以及 5TB 的 SSD。這套配置可以跑到 1000 tokens 每秒的推理速度。至於這 1000 tokens/s 怎麼分配,可以是 1000 個使用者每人 1 token/s,也可以是 10 個使用者每人 100 tokens/s,完全取決於應用場景。這裡順便提一下 DeepSeek 的 engram 方法和 Google 的 TurboQuant 技術。它們的核心思路是把一些靜態的事實性知識從 DRAM 挪到 SSD,或者把 KV cache 壓縮 4 到 6 倍,從而釋放更多的 HBM 和 DRAM 空間。但都是Jevons 悖論,已經有很多人解釋過了,這裡不再贅述。200 到 300EB 的需求從那裡來現在我們把視角拉到整個行業。根據JPM的資料,2026 到 2027 年,全球超大規模雲服務商(Hyperscaler)的 SSD 需求預計會達到 200 到 300 EB。這是個什麼概念?如果按照前面算的重度使用者每天 100GB 來估算,200EB 可以支援 200 萬個重度使用者持續工作 1000 天。當然實際需求的構成要複雜得多。200 到 300EB 可以拆成下面幾個部分:訓練檢查點佔了 50% 到 60%。大模型訓練動輒幾個月,中間需要不斷保存 checkpoint,防止訓練中斷後從頭再來。這些 checkpoint 檔案體積驚人,而且必須用 SSD 儲存,因為恢復訓練時需要快速載入。RAG 資料湖佔 10% 到 15%。越來越多的企業開始把自己的知識庫接入 AI 系統,這些資料需要被向量化、索引化,然後儲存在高速儲存裡,隨時準備被檢索呼叫。剩下的部分,一部分是資料複製和安全備份(通常是三副本機制),一部分是多模態推理狀態——這是增長最快的那塊。更值得關注的是 AI 在整個 Memory 市場中的佔比變化。2023 年,AI 相關需求只佔 DRAM 總市場的 9%,到 2026 年這個數字會飆升到 37%,2028 年預計達到 53%。NAND 快閃記憶體的趨勢類似,從 2023 年的 2% 增長到 2026 年的 32%,2028 年預計 41%。換句話說,AI 正在從一個邊緣應用場景,變成 Memory 行業的主導力量。按照JPM的資料:2024 到 2028 年,AI DRAM 的價值 TAM(Total Addressable Market)年複合增長率是 105%,而非 AI DRAM 只有 51%。這是兩倍的增速差距。市場可能低估了幾個供給側的約束因素。比如 fab廠的物理空間限制,擴產不是想擴就能擴的;比如 HBM 的損耗率,每一代工藝升級都會帶來良率挑戰;比如 agent 應用的爆發,可能會帶來超預期的儲存需求;比如物理 AI(機器人、自動駕駛)的模型訓練和部署,需要的儲存量遠超純軟體 AI。從更長的時間維度看,AI 對 Memory 行業的改變不只是需求量的增長,更是商業模式的轉型。過去 Memory 是典型的 commodity(大宗商品),價格隨供需周期劇烈波動,廠商沒有定價權。但現在 HBM、SOCAMM、eSSD 這些產品越來越定製化,需要和客戶深度繫結,聯合設計,這就從 commodity 變成了 customized solution(定製化解決方案)。這種轉變如果能夠持續,Memory 廠商的利潤率中樞會被抬升,周期波動的幅度會被熨平,估值體系也會隨之重構。這才是這輪 AI 浪潮對 Memory 行業最深層的影響。最後放一個今天“HBM之父”的觀點,當然可能由於屁股決定腦袋,他的觀點比較激進,僅供大家參考。 (傅里葉的貓)
儲存的日子有多好?佰維儲存董事長孫成思漲薪超600萬 董秘年薪三年漲12倍
在人工智慧應用加速落地、計算與資料中心基礎設施需求持續增長的帶動下,儲存價格在2025年持續上漲,行業迎來超級周期。尤其是自2025年下半年起,多種儲存產品價格短期翻倍,有些高端型號儲存價格甚至暴漲數倍。受儲存行業高景氣周期影響,相關上市公司業績也普遍增長,科創板上市公司佰維儲存就站在了這個風口之上。佰維儲存是一家半導體儲存解決方案提供商,主要從事半導體儲存器的研發設計、封裝測試、生產和銷售,主要產品及服務為半導體儲存解決方案和先進封測服務。佰維儲存年度報告顯示,其在2025實現營業收入113.02億元,同比增長68.82%;實現歸屬於母公司所有者的淨利潤8.53億元,同比增長429.07%。與業績同步增長的還有佰維儲存高管的薪酬,根據2025年報資料,多位高管薪酬相比2024年增長超百萬,其中,佰維儲存財務總監兼董事會秘書黃炎烽的薪酬漲幅變動最為引人矚目。佰維儲存年報資料顯示,2025年,黃炎烽從公司獲得的稅前薪酬總額為601.29萬元,相比其2024年的薪酬總額106.12萬元增長了495.17萬元,漲幅高達466%。而在2022年、2023年,黃炎烽獲得的薪酬總額分別為47.10萬元、60.92萬元。三年時間裡,黃炎烽的薪酬上漲了近12倍。公開資訊顯示,黃炎烽出生於1983年,仰恩大學會計學專業本科學歷,2010年8月至2011年6月任職於深圳市鷹鼎投資諮詢有限公司,擔任審計經理;2011年8月至2014年5月加入佰維有限公司,出任財務主管;2014年6月至2015年6月任職於深圳市弘金地網球俱樂部有限公司,擔任財務經理;2015年6月至2017年12月回歸佰維有限公司,擔任財務經理;2017年12月至今擔任佰維儲存財務總監,2020年1月至今兼任佰維儲存董事會秘書。值得注意的是,除了高額的薪酬,黃炎烽在2025年6月底,還通過二級市場分兩次減持了佰維儲存7875股,合計套現52.54萬元。截至2025年末,黃炎烽還持有佰維儲存23625股,另外已獲授予限制性股票數量46萬股,其中10.17萬股在今年1月7日已完成歸屬登記。如果全部完成歸屬,按照3月30日佰維儲存股價231.99元計算,黃炎烽的持股市值高達1.12億元。除了黃炎烽之外,佰維儲存其他高管薪酬在2025年也實現了大幅上漲,其中:董事長孫成思稅前報酬總額為987.30萬元,相比2024年增長621.77萬元;總經理何瀚稅前報酬總額為970.23萬元,相比2024年增長646.64萬元;副總經理徐騫稅前報酬總額為903.39萬元,相比2024年增長192.82萬元;副總經理王燦稅前報酬總額為945.24萬元,相比2024年增長744.23萬元;佰維儲存高管薪酬 來源:公司公告可見,AI引爆的儲存需求浪潮,不僅讓佰維儲存實現了業績大增,也讓其高管團隊迎來了豐厚的回報。據TrendForce測算,由於產能有限和需求不斷增長,儲存器價格持續上漲,預計2026年全球儲存市場規模將達到5516億美元,並在2027年進一步增長至8427億美元,2025年至2027年的年化增速達到89.2%。招商證券研報指出,儲存產能擴張周期為18-24個月,預計儲存價格在2026年全年維持上漲,且呈現逐季收斂態勢,儲存緊缺趨勢將延續至2027年。AI技術對全球半導體儲存行業產生了深遠影響,不過短期而言,持續數月走高的記憶體價格在3月底迎來了明顯回落。據市場跟蹤資料,近期美國多家零售商的DDR5記憶體出現大範圍降價,單套最高降幅達100美元。截至3月30日收盤,佰維儲存股價報231.99元,最新市值1084億元,今年以來漲幅已高達102%。 (騰訊財經)
傳:蘋果擬牽手長江儲存!中國iPhone:或搭載國產快閃記憶體晶片!
蘋果擬牽手長江儲存,國產快閃記憶體或將打入中國版 iPhone據行業爆料,蘋果計畫在中國市場銷售的 iPhone 搭載長江儲存 NAND 快閃記憶體晶片。此舉旨在應對儲存晶片漲價,緩解利潤壓力。去年下半年以來,全球儲存晶片進入漲價周期。手機行業整體利潤被嚴重擠壓。此前受美國禁令限制。蘋果儲存晶片供應高度依賴三星、SK 海力士。蘋果在供應鏈中幾乎沒有議價主動權。為保障供應穩定,蘋果接受了三星 100% 的漲價合約。而三星最初漲價預期僅為 80%。目前蘋果單顆 LPDDR5X 記憶體晶片採購成本已達 70 美元。高額成本持續壓縮 iPhone 利潤。國產晶片技術已實現重大突破。長江儲存自研 Xtacking4.0 技術,已量產 300 層以上 3D NAND 快閃記憶體。產品性能對標三星 286 層、SK 海力士 321 層旗艦產品。可滿足蘋果嚴苛的品控要求。《日經亞洲》報導:中國設定半導體行業自給率提升至 80% 的戰略目標。國產儲存廠商的技術突破是國產化處理程序的核心體現。行業分析認為:蘋果僅在中國市場機型採用長江儲存晶片。這是兼顧成本與風險的最優選擇。既能通過本土供應鏈降低成本、保住利潤。也能規避美國國內輿論與政策壓力。新供應商的加入將打破韓系廠商供應壟斷。蘋果在供應鏈談判中將重獲主動權。此次合作屬於雙贏:蘋果可在行業波動中鞏固市場優勢;國內半導體供應鏈國產化處理程序也將進一步加速。 (深科技)
儲存晶片,栽了!
周三美股儲存器類股先崩,周四亞股、美股接力暴跌,整個行業一片哀嚎。這場全球性的拋售潮,源頭是Google推出的一項AI壓縮技術。3月24日盤後,Google母公司Alphabet正式發佈TurboQuant技術。其核心宣稱,能將大型語言模型(LLM)所需儲存器用量,壓縮至原本的六分之一。這項技術沒有盲目追求壓縮比,而是精準最佳化“鍵值快取”這一核心環節。鍵值快取相當於AI模型的短期記憶,負責儲存對話歷史,避免重複計算。TurboQuant通過最佳化這一環節,大幅減少模型運算所需的硬體資源,提升效率。更關鍵的是,它能在不損失模型精度的前提下,實現最高8倍的推理加速。消息一出,投資人的恐慌情緒瞬間蔓延,直接引發拋售潮。大家最擔心的是,AI運算效率提升後,對儲存器晶片的依賴會斷崖式下降。3月25日周三,美股儲存器族群率先開啟拋售模式,恐慌情緒傳導至全球。3月26日周四亞股時段,韓國兩大儲存器巨頭首當其衝。三星股價下跌約5%,SK海力士跌幅達6%,跌幅遠超大盤平均水平。日本快快閃記憶體儲器廠商鎧俠也未能倖免,股價重挫近6%,市值大幅縮水。亞股的下跌只是開始,周四美股開盤後,儲存器類股繼續血染盤面。美光(MU-US)再度跳水6.97%,收盤價定格在每股355.46美元。西部資料(WDC-US)慘跌7.70%,收於每股273.35美元,創近期新低。SanDisk(SNDK-US)跌幅最為慘烈,下殺11.02%,收每股603.17美元。希捷科技(STX-US)緊隨其後,股價血崩8.33%,收每股378.79美元。整個儲存器類股集體暴跌,市場對行業前景的擔憂達到頂峰。3月27日周五,全球儲存器類股走勢出現明顯分化,結束了連續兩日的全面暴跌態勢。亞股時段,韓國儲存股早盤延續跌勢,SK海力士盤中跌超5%,三星電子跌幅逾4%。但得益於HBM業務的核心優勢,兩者隨後快速走穩,三星基本收復全部跌幅,SK海力士跌幅縮小至1%。日本鎧俠則未能止跌,延續下跌態勢,此前累計的大幅漲幅持續回吐。A股儲存晶片類股同樣承壓,3月27日類股指數跌幅達2%,多隻相關個股跌超4%。市場普遍解讀,TurboQuant若落地商用,將直接影響儲存器需求。高頻寬儲存器(HBM)與DRAM,是支撐生成式AI發展的核心硬體。Google、OpenAI、Anthropic等AI巨頭,均高度依賴這類儲存器晶片。一旦技術普及,AI訓練與推論的儲存器需求減少,產業成長動能將受衝擊。Cloudflare執行長Matthew Prince,對這項技術給出了精準評價。他將其形容為“Google版DeepSeek時刻”,直指技術突破引發的市場震盪。他同時指出,AI在速度、儲存器使用與能耗上,仍有巨大最佳化空間。 (1 ic芯網)
讓儲存晶片暴跌的Google論文,被指學術不端
近日,Google公佈的全新AI內存壓縮技術“TurboQuant”,引發了業界的極大關注。該技術宣稱能在不犧牲模型精準度的前提下,將生成式AI推理階段最吃資源的“鍵值快取”(KV Cache)空間需求減少到原來的1/6,並讓計算速度暴增8倍。這一突破性的技術,也引發了整個市場對於記憶體需求將斷崖式下跌的擔憂,美光、Sandisk、西部資料等儲存相關美股紛紛大跌。然而,就在3月27日,蘇黎世聯邦理工學院博士後、RaBitQ系列論文第一作者高健揚公開發佈澄清信,指控TurboQuant論文存在“系統性迴避方法相似性”、“錯誤描述RaBitQ的理論結果”、“刻意創造不公平的對比實驗環境”等三處嚴重問題,且這些問題在論文投稿前已通過郵件明確告知TurboQuant團隊,對方知情卻未修正。RaBitQ是高健揚2024年發表的高維向量量化方法,其核心創新之一是在量化前對輸入向量施加隨機旋轉(Johnson-Lindenstrauss變換),並從理論上證明其達到了理論電腦頂級會議論文(Alon-Klartag, FOCS 2017)給出的漸近最優誤差界。以下為高健揚發佈的原文:大家好,我叫高健揚,目前在蘇黎世聯邦理工學院做博士後,我是 RaBitQ 系列工作的第一作者。Google Research 於2026年1月被 ICLR 2026 會議接收的論文 ”TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate“ 中,有關已有的 RaBitQ 向量量化演算法的描述,理論結果對比,實驗對比均存在嚴重問題(詳細情況後文會展開描述)。這些問題在論文投稿至 ICLR 2026 前已被我們通過郵件明確指出,TurboQuant 團隊也明確表示已知情,但選擇了不予修正。論文隨後被 ICLR 2026 會議接收,然後通過 Google 官方管道大規模推廣,在社交媒體瀏覽量已達到數千萬次。我們此時公開說明,是因為錯誤的學術敘事一旦廣泛傳播,糾正的成本會越來越高。背景:RaBitQ 是什麼RaBitQ 系列論文(如下所列)於2024年發表,提出了一種高維向量量化方法,並從理論上證明其達到了理論電腦頂級會議論文(Alon-Klartag, FOCS 2017)給出的漸近最優誤差界。RaBitQ(arXiv:2405.12497,2024年5月,隨後發表於頂級會議SIGMOD 2024) 擴展版(arXiv:2409.09913,2024年9月,隨後發表於頂級會議SIGMOD 2025)RaBitQ 的核心想法之一是在量化前對輸入向量施加隨機旋轉(random rotation / Johnson-Lindenstrauss 變換),利用旋轉後坐標分佈的性質做向量量化,在理論上實現最優誤差界。TurboQuant 論文問題一:系統性地迴避 TurboQuant 方法與已有 RaBitQ 方法的相似性RaBitQ 與 TurboQuant 在方法層面有直接的結構聯絡,兩者都在量化前對輸入向量施加隨機旋轉(Johnson-Lindenstrauss 變換)。這是兩篇論文方法設計中最核心、最接近的部分。TurboQuant 的作者在 ICLR OpenReview 審稿平台上對審稿人的回覆中,親自這樣描述自己的方法:“We achieve this by first normalizing the vectors by their l2 norm and then applying a random rotation (隨機旋轉)to ensure the entries of the vectors will have a beta distribution post rotation.”然而在這段回覆、TurboQuant 論文中的方法介紹乃至整篇論文中,從未正面說明這一結構與 RaBitQ 完全一致。這一迴避發生在以下背景之下:2025年1月(TurboQuant 論文在 arXiv 發佈的數月前),TurboQuant 論文的第二作者 Majid Daliri 主動聯絡我們,請求幫助偵錯他自己基於 RaBitQ C++ 程式碼實現的 Python 版本。他詳細描述了自己復現的步驟、程式碼片段和具體報錯,這一點可以說明 TurboQuant 團隊對 RaBitQ 的技術細節有充分的瞭解。之後在2025年4月他們在 arXiv 發佈的論文版本,以及2025年9月他們在 ICLR 2026 會議投稿的論文版本中,他們將 RaBitQ 描述為 grid-based PQ,並且在描述中忽略了 RaBitQ 中核心的 random rotation 的步驟。ICLR 的一位審稿人也在審稿意見中獨立指出:”RaBitQ and variants are similar to TurboQuant in that they all use random projection”,並明確要求更充分的討論和比較。儘管如此,在 ICLR 會議最終版本論文中,TurboQuant 的作者不僅沒有加入對 RaBitQ 討論,甚至反而還將原本正文中對 RaBitQ 不完整描述移到了附錄中。為此,我們於2026年3月通過郵件聯絡了 TurboQuant 所有作者,提出了以上問題及糾正請求後,TurboQuant 作者在回覆中以“The use of random rotation and Johnson-Lindenstrauss transformations has become a standard technique in the field, and it is not feasible for us to cite every method that employs them.”為由拒絕了這一請求。我們認為這一回應是在轉移矛盾:作為在相同問題設定下率先將隨機旋轉(Johnson-Lindenstrauss 變換)與向量量化結合、並建立最優理論保證的具體先行工作,RaBitQ 應當在文中被精準描述,其與 TurboQuant 方法的聯絡應當充分討論。TurboQuant 論文問題二:錯誤描述 RaBitQ 的理論結果TurboQuant論文在不提供任何論據的情況下,將 RaBitQ 的理論保證定性為”次優”。TurboQuant 論文寫道:“While the paper’s theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds”這句話直接將 RaBitQ 的理論保證定性為”次優(suboptimal)”,將原因歸結為”較粗糙的分析(loose analysis)”。但論文沒有提供任何推導、對比或證據來支撐這一判斷。事實是:我們在拓展版 RaBitQ 論文(arXiv:2409.09913)的 Theorem 3.2 中,已經嚴格證明 RaBitQ 的誤差界達到了理論電腦頂級會議論文(Alon-Klartag, FOCS 2017)給出的漸近最優誤差界。因為這一結果,我們被邀請至理論電腦科學頂級會議 FOCS 的 Workshop 進行報告。 為此,我們於2025年5月通過郵件與 TurboQuant 的第二作者 Majid Daliri 進行了多輪詳細的郵件技術討論,逐條澄清了 TurboQuant 團隊對我們理論結果的錯誤解讀。Majid Daliri 在郵件中明確表示已將這些討論告知全體共同作者。然而後面 TurboQuant 論文在提交至 ICLR 2026、經過審稿、被接收,最終大規模宣發的全過程中,這個對 RaBitQ 理論保證的錯誤定性始終未被修正。一個沒有證據支撐的斷言,在被原作者具體指出錯誤、且 TurboQuant 作者方已明確知情的情況下,仍被保留在正式發表的 TurboQuant 論文中,我們認為這已超出普通失誤的範疇。TurboQuant 論文問題三:刻意創造不公平的實驗環境TurboQuant 論文使用劣化的實現、關閉多線程使用單核CPU測試 RaBitQ 的效果,卻使用 A100 GPU 測試 TurboQuant 的效果。TurboQuant 報告的 RaBitQ 量化速度比我們開源實現的實際速度慢了數個數量級。 2025年5月的郵件中,Majid Daliri 本人解釋了這一差距的來源:“we were using a single-core CPU instance, and multiprocessing was indeed disabled […] we weren’t fully utilizing parallelism, which explains why it was significantly slower”我們的官方 RaBitQ 程式碼在論文發佈至 arXiv 時(2024年5月與2024年9月)就已經公開,並且默認採用多線程平行。並且,Majid Daliri 在2025年1月的郵件中還說明,他成功跑通 RaBitQ 的程式碼用以測試,但他用於實驗的仍是自己翻譯的 Python 版本。這意味著,TurboQuant 論文中對 RaBitQ 速度的報告,疊加了兩層系統性的不公平條件:使用自己翻譯的 Python 程式碼,而非我們開放原始碼的 C++ 實現使用單核CPU,關閉多線程平行測試 RaBitQ 演算法,但卻使用 NVIDIA A100 GPU 測試 TurboQuant 演算法以上兩點均未在論文中充分披露。讀者看到的是 RaBitQ 比 TurboQuant 慢數個數量級這一結論,卻無從知道這一結論建立在刻意創造的不公平的實驗條件之上。事件完整時間線2024年5月:RaBitQ 論文在 arXiv 發佈,同時原始碼公開(後面發表在頂級會議 SIGMOD 2024)2024年9月:拓展版 RaBitQ 論文在 arXiv 發佈,同時原始碼公開(後面發表在頂級會議 SIGMOD 2025)2025年1月:TurboQuant 論文第二作者 Majid Daliri 聯絡我們,請求協助偵錯 Python 版 RaBitQ 實現2025年4月:TurboQuant 論文在 arXiv 發佈2025年5月:我們跟 Majid Daliri 通過郵件詢問了實驗條件的差異並清楚解釋了 RaBitQ 的理論保證最優性, Majid Daliri 表示他已告知全體作者,但在我們要求修正 TurboQuant 論文中的事實性錯誤之後,Majid Daliri 停止回覆2025年11月:我們發現 TurboQuant 論文被提交至 ICLR 2026 會議,且論文中的事實性錯誤並未修正,為此我們聯絡了 ICLR 2026 PC Chairs,未獲回應2026年1月:TurboQuant 論文被 ICLR 2026 接收 2026年3月:TurboQuant 團隊通過 Google 官方管道持續推廣,社交媒體相關瀏覽量已達數千萬次2026年3月:我們正式向 TurboQuant 全體作者傳送郵件,闡述以上三個事實性問題並要求做出修正及澄清。截至目前為止,我們僅收到 TurboQuant 論文第一作者 Amir Zandieh 的籠統答覆,承諾會修正問題二和問題三,但拒絕修正問題一(即討論 TurboQuant 與 RaBitQ 在技術上的相似性)。並且,他們僅願意在 ICLR 2026 正式會議結束之後才做相應修正我們已經做了什麼在 ICLR OpenReview 發佈公開評論: https://openreview.net/forum?id=tO3ASKZlok向 ICLR General Chairs, PC Chairs, Code and Ethnics Chairs 再次提交正式投訴,附完整證據包我們接下來會做什麼在 arXiv 發佈詳細的關於 TurboQuant 和 RaBitQ 的技術報告考慮向相關機構進一步反映最後我們提出這些問題,目標是讓公共學術記錄精準地反映各方法之間的真實關係。一篇論文被 Google 以數千萬曝光量推向公眾,在這種體量下,論文中錯誤的敘事不需要主動傳播,只需要不被糾正,就會自動成為共識,這也是我們選擇公開記錄的原因。在此我們也懇請大家讓更多人知道 TurboQuant 論文背後存在的問題,我們相信真理越辯越明。 (芯智訊)