#AI產業
DeepSeek V4:是AI開源大事件,更是產業變革新開端
推理效率提升74%、KV快取壓縮90%、API定價不及閉源競品1%。當大模型的邊際成本趨近於零,AI產業的真正變局才剛剛開始。2026年4月24日,DeepSeek在沉寂長達15個月後,正式發佈並開源新一代旗艦模型DeepSeek-V4。這不是一次常規的模型迭代,而是一次從架構底層到價格體系、從算力生態到產業邏輯的全方位重塑。如果說過去兩年AI圈的競爭是“誰能做出更聰明的模型”,那麼從這一天開始,競爭正在轉向:“誰能讓AI變成人人用得起的水電煤”。一、暴力破解的終結:當AI開始“聰明地花算力”DeepSeek-V4系列包含兩款模型:V4-Pro(1.6兆總參數,每次推理啟動490億參數)和V4-Flash(2840億總參數,每次推理啟動130億參數),兩者均原生支援100萬token超長上下文。1M上下文從此不再是一個“高端功能”——一年前它還是Gemini獨家的王牌,如今被DeepSeek直接挪成了行業標配的“水電煤”。這組資料之所以震驚業界,不是因為參數大,而是因為效率做到了前所未有的極致。在100萬token的極端長度下,V4-Pro的單token推理FLOPs僅為上一代V3.2的27%,KV快取佔用僅為10%。V4-Flash則更進一步,只需要10%的單token FLOPs和7%的KV快取。這意味著什麼?處理同樣長度的超長文件,V4不僅讀得更多,而且讀得更快、更省、更穩。效率提升的核心來自一系列值得深挖的架構創新:壓縮稀疏注意力(CSA) :每4個token合併成一個壓縮條目,然後用閃電索引器快速篩選出最相關的少量塊進行注意力計算——“拿著放大鏡找關鍵線索的偵探”。重度壓縮注意力(HCA) :以高達128倍的壓縮率濃縮全域資訊——“站在山頂俯瞰全景的指揮官”。兩者交錯部署在模型的各層中,形成精準定位與全域把握的互補。流形約束超連接(mHC) :給訊號傳播加上“安全閥”,從根本上保證訓練穩定性。Muon最佳化器:取代業界標配的AdamW,進一步降低訓練成本。這一切的底層哲學,不是“堆參數”,而是“每瓦特算力的最大產出”。DeepSeek V4把注意力機製做了一次“手術級”的改造,讓超長上下文從實驗室裡的“高端展示”變成了普通開發者也能跑得動的日常工具。這種效率革命帶來的是價格上的斷崖式下降。DeepSeek V4-Flash每百萬token輸出價僅0.279美元,而同期OpenAI發佈的GPT-5.5 Pro輸出價高達180美元——價差整整645倍。V4-Pro輸出端成本則僅為GPT-5.5 Pro的2%。如果把V4-Pro考慮折扣後的API輸入價壓到0.25元/百萬詞元,與GPT-5.5 Pro加權平均價格30美元/百萬token相比,價差超過700倍。更直觀地說:V4呼叫一次的價格,還不到對手的千分之一。 在推理效率層面,華為昇騰950超節點的測試資料顯示,V4-Pro單卡Decode吞吐可達4700TPS,V4-Flash在8K長序列場景下單卡Decode吞吐1600TPS。DeepSeek V4的回答是:快,是能力的下限;省,才是格局的起點。二、一扇門打開,另一扇門關上當DeepSeek V4以700倍的價格差距直插市場時,它激發的連鎖反應遠遠超出模型本身。開源vs閉源:矽谷在“造牆”,中國在“修路”。矽谷的頭部玩家們不約而同地選擇了閉源路線。OpenAI、Anthropic、Google的Gemini,當前沿技術創新被鎖死在各自的資料中心裡,玩家們不可避免地陷入了零和博弈的“權力遊戲”。就在V4發佈前夕,一場圍繞新模型的輿論狙擊戰剛剛上演——4月16日Anthropic剛發佈Claude Opus 4.7,OpenAI兩個多小時後便宣佈Codex大幅更新;隨後又圍繞營收資料互相拆台,敵意滲透進每一個決策環節。而DeepSeek走了一條完全不同的路。它聚焦基礎模型的核心能力攻堅,進一步築牢了全球開源大模型的性能天花板,為全行業提供了性能比肩閉源旗艦的基礎底座。巧合的是,就在V4發佈前後,國內的Kimi也開源了K2.6,兩個兆參數模型同時亮相,卻沒有一絲互掐,甚至還在技術底層進行了“換防”。正如大量評論所指出的,這背後是中美AI路線的一次分岔:矽谷在“造牆”,守住既得利益;中國在“修路”,走開源協同之路。這種路線的分野,背後是根本邏輯的差異。閉源路線的本質是技術作為“護城河”和賺錢的工具,一旦共享就會失去競爭優勢;而開放原始碼的邏輯是模型越開放,生態越繁榮,蛋糕才能越做越大。網際網路巨頭:戰火從“參數比拚”燒向“應用落地”。DeepSeek V4發佈僅一天後,阿里雲百煉就火速上線,API價格與官網一致;國家超算網際網路同步上線服務。科大訊飛、中關村科金、華為昇騰等廠商也在第一時間完成了適配對接。對於騰訊、字節跳動、阿里這樣的巨頭來說,V4的衝擊更多是戰略層面的:以前大家的競爭焦點是“誰的模型參數更大、榜單更高”,現在V4用700倍的成本優勢提醒所有人——接下來真正決定勝負的戰場,是誰能在真實業務場景中用模型創造價值。誰先學會“用好V4”,誰就可能在下一階段佔據卡位優勢。各行各業:一次從“能不能用”到“用不用得起”的跨越。在此之前,企業引入大模型最大的瓶頸不是技術夠不夠好,而是成本夠不夠低。一次API呼叫幾十上百美元的成本,對中小企業來說等於把AI鎖在實驗室裡。V4的出現改變了這一切。在金融行業,國泰海通率先完成DeepSeek-V4基於昇騰的本地化部署,將依託模型實現在智能投行、智能投研、智能投顧、智能風控等八大業務領域的全面突破。保險行業聚焦投保、核保、理賠查勘等高重複性、知識密集型和互動高頻度場景展開部署。在醫療領域,深圳市南山區人民醫院基於昇騰率先部署V4,全面升級了政策諮詢、醫保監管、門診病歷質控等30余項應用,全方位覆蓋醫療全流程。廣西移動落地部署V4,聚焦行銷服務、研發設計等核心領域,全面賦能16個業務場景。河北交投智能科技公司在行業內率先完成V4本地化部署,建構了“自主創新算力+頂尖大模型”的全端自主創新AI底座。從金融到醫療,從通訊到交通——DeepSeek V4發佈後24小時內,各行業頭部企業就火速跟進部署。這本身就是最好的訊號:當AI足夠便宜,企業就不再觀望。“用得起”的真正意義,在於讓AI從實驗室資源變成基礎設施,從而催生前所未有的創新。三、AI便宜到人人敢用,模式才敢真變如果說過去兩年AI的變革是“天變了”,那麼V4之後,我們才第一次站在真正的變局起點上。為什麼這麼說?因為模式創新的土壤不是技術能力本身,而是足夠低的試錯成本。當一個團隊可以毫不心疼地跑十次不同提示詞、對比輸出質量而不是在意API帳單,產品經理可以大膽設想的每個互動都即時呼叫AI,企業可以把AI植入到那些“不太重要但希望更好的環節”——這才是模式創新真正開始的時候。DeepSeek V4的Agent能力經過了專門最佳化。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,交付質量接近Claude Opus 4.6非思考模式;在世界知識測評中大幅領先其他開源模型,僅稍遜於頂尖閉源模型Gemini-Pro-3.1;在數學、STEM、競賽型程式碼等推理任務中超越所有已公開評測的開源模型。V4-Pro還在Codeforces程式設計任務中拿下3206分的測評成績,位列全球活躍使用者第23位。這意味著,過去只有頂級閉源模型才具備的強大執行能力,現在以1/700的價格向所有人開放。中小企業可以部署自動處理客戶問題的7×24小時AI客服系統;個體開發者建構的Agent能自主呼叫API完成多步任務;創業公司可以在產品中“鋪滿AI”,讓大模型程式碼改寫、文件生成、資料清洗成為功能的默認組成部分。當AI便宜到可以和“發一條簡訊”比較成本的時候,所有行業都值得重新問自己一個問題:如果AI呼叫幾乎是免費的,我的產品應該長什麼樣?四、Token經濟的興起:當消耗量三年增長一千多倍在把模型做得更高效、更便宜的同時,一個更深層的經濟變革正在發生。Token——大模型的基本計量單位——正在從後台技術參數變成AI經濟的前台結算單位。商湯科技大裝置產品總經理盧國強在2026中國生成式AI大會上提出的“AI Token Factory”概念,精準概括了這一趨勢:行業正在從“AI原生”邁向“Agent原生”,Token替代Flops成為新的度量衡,AI系統的核心使用者將從人轉向Agent。Token消耗量的增長數字令人震撼。國家資料局公佈的資料顯示,到2026年3月,中國日均Token呼叫量已超過140兆,相比2024年初的1000億增長了1000多倍,相比2025年底的100兆,短短三個月又增長了40%以上。中國工程院院士鄭緯民指出,AI產業的競爭核心正從MaaS(模型即服務)向TaaS(Token即服務)躍遷,從比拚算力叢集規模轉向比拚每瓦Token生產效率。圍繞Token經濟的整套產業邏輯正在逐步成型:生產層:對應算力、晶片、資料中心與推理引擎,把Token作為核心產品來組織基礎設施。分發層:對應雲平台、大模型廠商與API服務商,將底層能力打包按量計費分發。轉化層:對應各行業的AI原生應用和Agent系統,將Token轉化為實際的業務結果。阿里巴巴已正式成立Alibaba Token Hub事業群,騰訊雲將MaaS平台升級為TokenHub,行業從藍海迅速變為紅海。Token兩年激增千倍,智能體市場規模2025年達78.4億元,預計2026年將達135.3億元,增速超過70%。Token正從技術參數,變成AI時代最核心的生產資料和度量衡。誰能高效生產Token、精準分發Token、有效轉化Token,誰就能在智能經濟的新賽道上佔據先機。五、變局中的挑戰與耐心V4帶來的不可能全是好消息。巨大的機遇背後,挑戰同樣不容迴避。安全邊界重構需要時間。 當模型能夠讀取百萬token的超長上下文,風險不再只存在於使用者的當前問題中,而可能藏在龐大材料的某個角落——長長的郵件鏈的腳註裡、PDF的不可見區域中、程式碼註釋裡或歷史聊天記錄中。攻擊者可以把惡意指令藏在這些地方,在模型執行複雜的跨文件推理時“潛伏發動”。強制長上下文安全做前置治理,對使用者指令和外部資料做來源標註和風險掃描,已經成為迫在眉睫的工程需求。落地到用好有個過程。 企業部署了V4並不等於馬上獲得商業價值。從部署到真正融入核心業務流程創造收益,中間還有漫長的產品化、場景適配和組織變革之路。Token成本大幅下降後,產品經理如何在AI能力邊界內重新設計功能,才是決定成敗的關鍵因素之一。地緣政治與算力安全需要關注。 DeepSeek-V4首次在官方技術報告中,將華為昇騰與輝達GPU並列寫進硬體驗證清單,這是中國大模型首次將國產晶片與進口晶片放到了同等戰略高度。適配的昇騰新款推理晶片採購價格僅為輝達晶片的1/4,端到端延遲比原有叢集降低35%。輝達CEO黃仁勳此前警告稱:“如果頂尖的AI模型被最佳化在華為晶片上運行,對美國而言將是可怕的後果”。V4的發佈標誌著中國AI基礎設施的重心正從依賴美國半導體轉向本土化算力底座建構。但技術代差客觀存在,DeepSeek也坦承其能力整體落後於同期主要閉源對手約3至6個月。六、變局的開端才剛剛到來回到標題的那個判斷:DeepSeek V4是AI開源大事件,更是產業變革新開端。是的,事件已經發生——V4-Pro和V4-Flash雙雙開源,百萬上下文成為標配,API定價低至全球閉源競品的1/700,Agent能力逼近頂尖水平。但真正的變革才剛剛開始。因為V4真正的意義,不在於它本身有多強,而在於它重新定義了什麼才是AI產業真正的“兵家必爭之地” 。V4向行業宣告:當模型能力開始逐步趨同(開源會逐步追平閉源),真正決定勝負的將是:誰能讓AI更便宜、更易用、更快地融入真實世界。從長遠來看,AI產業的終極形態是:大模型成為像電力一樣的基礎設施,上面的Agent和智能應用才是創造價值的核心。而DeepSeek V4用700倍的成本優勢一次性把基礎設施的“電費”降到了幾乎可以忽略不計的水平。接下來,誰能在上面建造出更有創造力的智能應用,誰才是真正的贏家。2026年4月24日以前,AI還在比拚“能力的天花板”。從這一天開始,AI產業的真正競賽才剛剛開始。 (數字新財報)
史丹佛423頁AI報告出爐!中美差距僅2.7%,清華DeepSeek衝進全球前十
史丹佛「2026年AI指數報告」重磅出爐!這份432頁長文含金量極高:中美AI巔峰對決,差距幾乎抹平,縮減至僅2.7%。全球頂尖AI年產95個,基本都聚集在大廠。最殘酷的是,22-25歲開發者的就業已被切掉20%。今天,史丹佛HAI重磅發佈「2026年AI指數報告」!這份長達423頁的年度報告,全面揭示了全球AI產業的最新權力版圖。它給出了一條核心結論:AI的本事漲得飛快;但人類衡量和管好它的能力,卻沒怎麼跟上步伐。其中,最震撼的結論是——中美AI模型性能差距已基本消失,雙方在巔峰對決中頻繁易主,目前Anthropic領先優勢僅剩2.7%。美國在AI上砸的錢比誰都多,但招攬頂尖人才卻越來越吃力了。報告還指出,AI的進化不僅沒有遭遇所謂的「瓶頸」,反而正以史無前例的速度狂飆。過去一年,全球超90%的頂尖模型,在博士級科學問題、多模態推理、競賽數學上的表現,追平甚至超越了人類。特別是在程式碼能力上,SWE-bench的成績在一年內,從60%飆升至近100%。然而,AI的「偏科」現像極其嚴重,呈現出一種畸形的現狀:LLM可以拿下IMO金牌,卻讀不對模擬時鐘,正確率僅為50.1%。與此同時,AI搶飯碗這事兒已經從預測變成了現實,而且最先遭殃的就是當代年輕「打工人」。下面直接上乾貨,「2026年AI指數報告」最值得關注的12個硬核趨勢。其他亮點速覽:全球AI算力3年漲30倍,輝達獨佔60%,幾乎所有晶片都出自一家台積電2025年全球企業AI投資5817億美元,同比翻倍,美國一國吃下近一半進入美國的AI研究人員7年跌89%,僅過去一年就跌80%22-25歲軟體開發者就業自2024年起下滑20%,入門崗位被精準切掉中國累計建成85台公共AI超算,是北美的兩倍以上,全球第一中國職場AI使用率超80%,遠超全球58%的平均最強模型越來越黑箱,95個代表性模型裡80個沒有公開訓練程式碼中美貼臉差距只剩2.7%史丹佛把2023年5月以來Arena榜單上的美國第一和中國第一,畫在了同一張坐標系裡。2023年5月,gpt-4-0314拿1320分領跑,中國這邊還是chatglm-6b,差距300多分。2025年2月,DeepSeek-R1第一次和美國頭部模型短暫打平。2026年3月,美國的Claude Opus 4.6拿到1503分,中國dola-seed-2.0-preview拿到1464分。如今中美AI之間的差距,僅有39分。換算成百分比,2.7%。更值得說的是過去一年的換位頻率。從2025年初開始,兩國頭部模型已經在Arena上你來我往換了好幾次位置。數量上同樣接近五五開。2025年美國發佈了50個「顯著模型」,中國緊跟著也發佈了30個頂尖大模型。第一梯隊裡OpenAI、Google、阿里、Anthropic、xAI同台站位,全球TOP 5五五分帳。再往下看到TOP 10,中國機構和企業佔了四席,阿里、DeepSeek、清華、字節。開源生態這一年的重心也明顯東移。DeepSeek、Qwen、GLM、MiniMax、Kimi一路把開源權重的能力曲線往前推。再算上論文發表量、被引數、專利產出量、工業機器人裝機量,中國統統全球第一。價格層面是另一條戰線。海外開發者在X上算過一筆帳,Seed 2.0 Pro的輸出價格大約只有Claude Opus 4.6的十分之一。性能貼臉,價格只要十分之一。這件事的連鎖反應才剛剛開始。90%前沿模型出自產業封神速度史無前例去年發佈的95個最具代表性的模型裡,超過九成都來自產業界,不是學術機構,也不是政府實驗室。學術界已經追不上前沿了。發佈速度也在變態加速。光是2026年2月一個月,就有Gemini 3.1 Pro、Claude Opus 4.6、GPT-5.3 Codex、Grok 4.20、Qwen 3.5、Seed 2.0 Pro、MiniMax M2.5、GLM-5八九個旗艦模型同月入場。封神周期從「年」變成了「月」。基準一年封頂AI沒有瓶頸最猛的曲線是程式設計。SWE-bench Verified這個真實修Bug的基準,一年時間從60%漲到接近100%。不是漲了幾個點,是基本封頂。Terminal-Bench測試Agent處理真實終端任務的能力,從去年的20%漲到77.3%。網路安全Agent解決問題的成功率,從15%漲到93%。Gemini Deep Think在國際數學奧林匹克拿到金牌。PhD級科學問答(GPQA Diamond)、競賽數學(AIME)、多模態推理(MMMU)這些原本被認為「人類不可超越」的硬骨頭,全部被前沿模型啃了下來。最能說明問題的是Humanity's Last Exam。這是一個專門被設計來「難倒AI、偏袒人類專家」的測試,題目由各個領域的頂尖專家提供。去年OpenAI的o1拿到8.8%,前沿模型在一年時間裡把分數往上又推了30個百分點,目前Claude Opus 4.6和Gemini 3.1 Pro已經雙雙過了50%。鋸齒前沿能拿IMO金牌卻看不懂表但同一份指數甩出了另一組數字。最強模型在「讀模擬時鐘」這個任務上的正確率,是50.1%。機器人在實驗室模擬環境(RLBench)裡的操作成功率已經達到89.4%。但搬到真實家庭場景裡完成洗碗、疊衣服這類家務,成功率立刻掉到12%。實驗室和廚房之間,差了77個百分點。研究者把這種現象命名為「鋸齒前沿」(jagged frontier)。AI能力的分佈是凹凸不平的,能拿數學奧賽金牌,卻沒法穩定地告訴你現在幾點。AI能在數學奧賽拿金牌,但只有一半的機率能看懂模擬時鐘。AI在加速,但加速的不是同一個方向。另外,在智能體任務中,OSWorld測試中,前沿AI實力(66.3%)正逼近人類基線。然而,在專門評估科研邏輯的PaperArena測試中,最強AI加持的Agent,得分僅39%,只有博士生一半的功力。但這種凹凸已經不影響企業把AI往生產線上塞。AI Index給出的另一個數字是,全球企業AI採用率達到88%。九成的公司已經把AI接進了某個工作流。代價同步在漲。AI相關事故記錄從2024年的233起漲到362起。錢在加速5817億砸進AI2025年全球企業AI投資達到5817億美元,同比增長130%。其中私募投資3447億美元,同比增長127.5%。兩條曲線都幾乎翻倍。國別上,美國一騎絕塵。2025年美國私募AI投資2859億美元。並且一年新增1953家AI創業公司,也是排名第二的10倍以上。錢在加速湧向美國。但美國的另一項核心資源,正在反向流動。人在流走進美國的AI研究者跌了89%裡面有一組數字讓人愣了一下。2017年到現在,進入美國的AI研究人員和開發者數量下降了89%。更關鍵的是,這個下降在加速。僅僅過去一年,下降幅度就達到80%。美國仍然是全球AI研究人員密度最高的國家,但流入的水龍頭正在擰緊。錢和人這兩條曲線開始反向。這是過去十年沒出現過的局面。算力三年漲30倍命門都在一家公司手裡AI能力曲線在加速,背後那條算力曲線跑得更猛。從2021年到現在,全球AI算力總量漲了30倍。過去三年裡,每年都在翻三倍以上。撐起這條曲線的是少數幾家公司。輝達一家的GPU,佔據了全世界AI算力的60%以上。亞馬遜和Google靠自研晶片排在二三位,但加起來也遠遠追不上輝達。而幾乎所有這些晶片,都來自一家代工廠,台積電。算力曲線越陡,命門就越窄。與此同時,代價也在加大。全球AI資料中心的總功率已經達到29.6 GW,相當於紐約州在用電高峰時段的全部用電需求。xAI Grok 4一次訓練的估算碳排放是72816噸二氧化碳當量,相當於17000輛汽車開一整年的尾氣。資料中心建在那裡,電從那裡來,晶片從那裡產,這三個問題已經變成今年所有AI公司CEO案頭最頭疼的事。生成式AI三年滲透53%中國職場使用率破80%生成式AI在三年內達到了53%的全球人口滲透率。這個速度比個人電腦快,比網際網路快。但滲透速度和國別相關性極強。新加坡61%,阿聯54%,都跑在美國前面。美國在調查覆蓋國家中只排第24位,滲透率28.3%。如果把維度從消費者換成職場,反差更大。報告裡另一組資料顯示,2025年全球58%的員工在工作中已經開始經常性使用AI。但在中國、印度、奈及利亞、阿聯、沙烏地阿拉伯這5個國家,這個比例超過了80%。中國的職場AI滲透率,已經比全球平均高出20個百分點以上。更有意思的是消費者價值。AI Index估算,到2026年初,生成式AI工具每年給美國消費者創造1720億美元的價值。從2025年到2026年,每個使用者的中位數價值翻了三倍。絕大多數使用者用的還是免費版。普通人願意為AI付的錢,遠低於AI給他們創造的價值。這中間的剪刀差是現在所有AI公司都在試圖彌合的東西。入門崗位銳減22-25歲開發崗狂砍20%整份AI Index裡最讓中文讀者沉默的,可能是關於年輕就業的部分。22到25歲的軟體開發者群體,從2024年至今,就業人數下降了大約20%。同期,年紀更大的同行群體反而在增長。不止開發崗。客服等其他高AI暴露行業,也在出現同樣的模式。更讓人擔心的是企業問卷的結果。受訪高管普遍預期,未來的裁員幅度會比過去幾個月還要大。這不是宏觀失業率的事,是入口崗位被精準切掉的事。第一份工作沒了,整個職業階梯就斷了一格。這件事的長期影響,現在沒人能算清。AI正在改寫科學發現的方式如果說就業那一段是冷的,科學這段就是熱的。自然科學、物理科學、生命科學領域的AI相關論文,2025年同比增長了26%到28%。具體到應用,今年第一次有AI完整跑通了端到端的天氣預報流程。從原始氣象觀測資料直接吐出溫度、風速、濕度的最終預報,中間沒有任何傳統數值模型介入。AI從「幫你寫論文」「幫你算數字」,正在變成「自己做發現」。醫院裡也是一樣。2025年大量醫院開始部署能從就診對話自動生成臨床記錄的AI工具。多個醫院系統的醫生反饋,寫病歷的時間減少了多達83%,工作倦怠顯著下降。但同一份指數給醫療AI潑了一盆冷水。一份針對500多個臨床AI研究的綜述發現,將近一半的研究依賴考試題式的資料集,只有5%用了真實臨床資料。AI能減少醫生敲鍵盤的時間,這件事是確定的。AI在真實病人身上的臨床價值,目前還有大量問號。自學浪潮全球開炸正規教育已經掉隊正規教育跟不上AI了。美國有4/5的高中生和大學生現在用AI完成學校作業。但只有一半的中學有AI使用政策,只有6%的老師認為這些政策寫得清楚。學生跑在前面,老師還在原地,規則還沒出現。正規教育跟不上的同時,自學浪潮在全球開炸。裡面寫,學AI工程技能增長最快的三個國家分別是阿聯、智利和南非。不是美國,不是歐洲。技能曲線的最陡峭的那一段,長在所有人都沒在看的地方。最強模型變成最不透明的專家和公眾撕裂最強的模型,正在變成最不透明的模型。Foundation Model Transparency Index今年的平均分從去年的58分跌到了40分。AI Index直接點名,Google、Anthropic、OpenAI都已經放棄公開最新模型的訓練資料規模和訓練時長。去年發佈的95個最具代表性的模型裡,80個沒有公開訓練程式碼。公眾的情緒也變得更複雜。全球範圍內,認為AI利大於弊的比例從52%上升到59%。但同期,對AI感到緊張的比例從50%上升到52%。兩個方向在同時增長。最分裂的是美國。只有33%的美國人認為AI會讓自己的工作變得更好,全球平均是40%。美國人對本國政府監管AI的信任度,是受訪國家裡最低的,31%。新加坡人對自己政府監管AI的信任度,是81%。最近Sam Altman家被襲擊的事件之後,矽谷圈內人「驚訝地發現」Instagram評論區裡的普通人對此並不同情,甚至有人覺得「應該更激烈一點」。他們沒意識到事情已經糟到這個程度。研報引用的Pew和Ipsos資料,專家和公眾在AI影響就業、醫療、經濟這些維度上的觀感差距,普遍超過30個百分點,最大的一項達到50個百分點。一邊是實驗室裡的曲線在飛漲,一邊是普通人心裡的不安在累積。中間沒有橋。寫在最後423頁的報告裡有幾百張圖表,但其實只畫了一張圖。橫軸是時間,縱軸是能力。模型能力的曲線在飛,算力曲線在飛,投資曲線在飛,採用率曲線在飛。其他全都在原地踏步或者向下。這就是2026年AI Index的全部內容。AI在加速。其他所有東西都在脫節。如果你是這個行業裡的人,現在該問的問題不是「未來會怎樣」,而是「自己站在那一條曲線上」。 (新智元)
自立自強再落一子:中國AI程式設計能力實現重要跨越
在數字經濟時代,高端AI程式設計能力就是數字世界的“工業母機”。它是智能體應用落地、工業軟體開發、產業數位化轉型的核心底座,更是決定一個國家數字產業安全與長期競爭力的關鍵底層技術。長期以來,這一核心領域始終被海外Claude、GPT等主流頂尖模型主導。國產大模型雖歷經多輪迭代追趕,但在複雜工程化程式設計、長程智能體任務等核心實戰場景中,長期處於跟跑狀態。4月2日,中國AI產業迎來了標誌性突破。阿里發佈新一代大語言模型Qwen3.6-Plus。此時距離阿里整合AI核心力量成立ATH事業群,僅過去兩周半。具體來看,千問3.6整體性能較千問3.5進步顯著,並且湧現出極強的智能體程式設計能力,在系列程式設計能力權威評測中,千問3.6程式設計表現超越2倍乃至3倍參數量的GLM-5、Kimi-K2.5等模型,比肩(直逼)全球最強程式設計模型Claude系列。這不是一次普通的企業產品發佈,而是中國科技自立自強在AI核心技術領域落下的關鍵一子。從榜單到實戰,國產模型叩開全球超級陣營大門AI模型的真實實力,從來不由自說自話的行銷定義,而是要經過權威評測的專業驗證、全球開發者的實戰檢驗。據CodeArena全球程式設計模型榜單最新資料,千問3.6-Plus登頂國產最強程式設計模型,綜合性能全球僅次於Claude Opus 4.6,超越OpenAI、Google、xAI等國際巨頭,紙面實力已達到世界領先模型水平。在更細分的專業評測中,Qwen3.6-Plus 在SWE-bench系列真實程式設計任務測試、Terminal-Bench2.0終端程式設計評測、NL2Repo長程程式設計任務測試,以及Claw-Eval、QwenClawBench等真實世界Agent能力評測中,表現可完全匹敵Claude Opus 4.5,整體性能已接近全球頂尖水平。這一系列評測結果的核心意義,不在於一個簡單的排名,而在於它打破了多年來“國產模型在高端程式設計領域只能跟跑”的行業共識:我們終於在數字世界的核心底層技術上,拿出了能和全球領先梯隊正面抗衡的成果。在實戰層面,作為全球最大的AI模型API聚合平台,OpenRouter被業內稱為全球AI模型的“實戰試金石”,平台呼叫量完全由全球開發者基於模型性能、穩定性、性價比自主選擇,是衡量模型真實落地能力的核心風向標。就在剛剛,發佈僅1天的千問新模型Qwen3.6-Plus,以1.4兆Token的日呼叫量沖上OpenRouter的日榜榜首,並打破了該平台的單日單模型呼叫量的全球紀錄,成為當下最受企業和開發者熱捧的大模型之一。據OpenRouter平台公開資料顯示,平台中國開發者佔比僅6.01%,模型的市場表現完全由全球開發者的真實使用需求驅動。值得關注的是,全球開發者的選擇,是對模型能力最客觀的投票。這意味著,不是我們自說自話模型的進步,而是全球最挑剔的技術使用者,已經認可了中國大模型的實戰能力。三次認知破局,走出中國AI自主創新路徑Qwen3.6-Plus的發佈,其核心意義遠不止於單次模型性能的提升,更在於它打破了行業長期存在的三大固有認知,為中國AI產業探索出了一條高效、自主、普惠的創新路徑。它首先打破了“參數越大越厲害”的行業迷信,走出了輕量化高效技術路線。長期以來,海外巨頭主導的AI行業陷入了“堆參數、堆算力”的內卷模式,將參數量作為衡量模型能力的核心標尺。而Qwen3.6-Plus以遠小於競品的參數量,實現了對參數量2-3倍模型的全面超越,用更低的算力消耗、更小的運行成本,交出了對標全球尖端水平的成績單。從產業發展的視角看,這不僅是演算法架構的核心突破,更意味著中國AI企業徹底擺脫了海外模型定下的內卷規則。當全球都在比拚誰的模型更大、誰燒的算力更多時,我們走出了一條更高效、更適合產業落地、更具長期競爭力的技術路徑,這正是中國AI實現彎道超車的核心底氣。它同時打破了“國產模型重跑分、輕實戰”的行業偏見,實現了工程化落地的核心跨越。過去,不少國產模型在標準化榜單中表現亮眼,但在真實開發場景中,面對複雜的倉庫級任務、多步驟長程規劃,往往出現程式碼跑不通、bug無法自主修復、任務理解偏差等問題。而Qwen3.6-Plus真正讓代理式程式設計從概念走向了現實:在前端網頁開發、倉庫級複雜程式碼任務等實測場景中,模型可自主拆解任務、規劃執行路徑、編寫程式碼、測試修復bug,直至全流程閉環完成任務。不僅能實現高品質程式碼修復,更擅長複雜的終端操作與自動化任務執行,在多個高難度長程規劃任務中取得了極優成績。對中國數字產業而言,這種工程化落地能力,遠比榜單上的分數更重要。只有能真正解決真實場景的複雜問題,能真正為產業創造價值,核心技術才不會淪為“花瓶”,才能真正築牢我們數字經濟的底層根基。它更打破了高端程式設計能力的高門檻壁壘,實現了尖端技術的普惠落地。程式設計能力的核心價值,不止於服務專業開發者,更在於讓普通人也能享受到數位技術的紅利。普通人只需一句簡單的自然語言指令,就能調動模型完成任務拆解、智能體系統編排,實現專業程式設計師數小時乃至數天才能完成的程式設計效果。最關鍵的是,Qwen3.6-Plus每百萬Tokens輸入最低僅2元人民幣,以極具競爭力的定價打破了海外巨頭的高端溢價格局。技術的終極價值,在於普惠。當頂尖的AI程式設計能力不再是少數企業、少數專業人士的專屬工具,而是能被小微企業、普通開發者低成本使用,它才能真正啟動整個數字產業的創新活力,這正是中國技術不同於海外壟斷巨頭的核心格局。全鏈路協同成型,中國AI進入體系化競爭新周期Qwen3.6-Plus的突破,不是單一企業的單點勝利,而是中國AI產業從單點突圍邁向體系化競爭的重要標誌。它首先補齊了高端智能體程式設計的核心技術短板,加固了數字經濟的安全防線。高端AI程式設計能力,是數字時代所有數字產業的核心底座,小到企業數位化管理系統、網際網路產品,大到工業控制軟體、關鍵領域資訊基礎設施,都離不開底層程式設計能力的支撐。國產模型在這一領域實現自主可控、比肩國際先進水平,意味著中國大幅降低了在數字核心技術上的對外依賴,從底層提升了數字經濟的安全保障能力。更重要的是,它標誌著中國AI的算力—模型—應用全鏈路協同已經成型,正式進入體系化競爭新階段。全球AI競爭的下半場,早已不是單一模型、單一技術的比拚,而是全產業鏈、全生態的體系化對抗。以阿里為代表的中國AI企業,已經建構起了完整的全鏈路生態:底層有自主可控的算力底座,為模型迭代提供穩定支撐。中層有核心模型持續突破,覆蓋多模態、生成式AI、智能體程式設計等核心賽道。上層有豐富的應用矩陣,能快速將模型能力落地到千萬企業和普通使用者手中。這種全鏈路協同的體系化能力,才是中國AI能和全球頂尖巨頭長期同台競技的核心底氣。單點技術的突破或許能帶來一時的熱度,但只有完整的、自主可控的產業生態,才能讓我們在全球科技競爭中站穩腳跟,不被“卡脖子”。與此同時,中國模型正在以普惠價值打破海外技術溢價,為全球AI產業提供了中國方案。長期以來,海外巨頭憑藉技術壟斷,維持著頂尖AI模型的高溢價,讓全球大量中小企業、普通開發者難以享受到技術紅利。而以Qwen3.6-Plus為代表的國產模型,以極高的性價比,為全球開發者提供了對標全球領先水平的全新選擇,正在改變全球AI產業的供給格局,讓更多市場主體用得上、用得起尖端AI技術,為全球AI產業的普惠發展貢獻了中國企業方案。科技自立自強,從來不是一句空洞的口號,而是靠一項項硬核技術突破、一次次向全球頂尖水平的衝鋒,一步一個腳印拼出來、幹出來的。從跟跑到並跑,中國AI在程式設計這一“數字工業母機”領域實現重要跨越,再次印證:在高端科技領域,中國企業完全有能力走出一條自主創新的發展道路,拿出世界一流的技術成果。全球AI競爭的下半場,拼的從來不是參數噱頭、行銷概念,而是實打實的技術實力、產業落地能力與體系化競爭力。從產業規律來看,真正的長期競爭優勢,不在於單一模型的性能參數,而在於能否建構完整的技術生態、能否為開發者和使用者創造持續價值。值得肯定的是,以阿里為代表的中國科技企業,正朝著這一方向穩步前進,紮根真實市場需求,推動技術與產業深度融合,走出了一條自主創新與開放合作平行的發展道路。 (環球時報)
儲存晶片擺脫周期? 一個被AI誤導的產業幻覺
2025Q2,全球記憶體市場迎來了一輪罕見的劇烈上漲,DDR5 價格在短短一年時間裡,從每 GB 約 3–4 美元飆升至 15美元以上,部分高端規格產品的價格更是突破了這一區間。DDR4在需求不斷下跌的情況下,因為供給瞬間暴跌,導致價格飆漲的更為誇張從每 GB 約 1-2 美元飆升至 15美元,在2025年底到2026年初,甚至出現DDR4每GB價格比DDR5還高的倒掛現象。為何壓根沒需求,需求每年下降的DDR4價格比DDR5長得還高?核心原因是三大同時間宣佈停止生產DDR4,將產線轉進DDR5,全球DDR4供給瞬間減少6成以上,導致DDR4價格暴漲,因為需求可能每年下降10%,但供給暴降60%,瞬間造成了供需緊張。而DDR4的價格更高,毛利更高,會讓三大回心轉意減緩DDR4的停產嗎?當然不會,因為DDR4沒有需求,需求在下降,甚至DDR5需求也很一般,每年只有微幅上漲,從消費級電子就能看出DDR5的需求不會太好。那三星,海力士,美光三大原廠為何要放棄DDR4全面轉進DDR5呢?DDR5需求同樣一般。核心就在HBM,這一波儲存的需求拉動完全在AI沒有其他,而AI需要的是大量的HBM,生產HBM必須先做DDR5顆粒再層層堆疊,目前的HBM4是12層,未來會有16層,也就是佔用DDR5顆粒會越來越多。最終導致DDR5漲價的原因也是供給被大量HBM擠佔,供給減少造成供需不平衡。這就是三大為何毅然決然放棄價格更高,毛利更高的DDR4全面轉進DDR5的核心原因,HBM緊缺需要更多DDR5顆粒,用DDR4的舊產線升級最快,不用在新建廠房,所以必須把DDR4騰出來升級DDR5,為的只有一件事 - HBM。只有HBM的需求是不斷增加的,DDR4跟DDR5需求是減少跟持平,但價格大漲。大家搞明白這兩年的儲存漲價邏輯才能對未來做出正確判斷,如果你不懂產業邏輯,憑藉網路上看的有頭沒尾的文章,這會讓你的認知片面化,切入點單一化非常容易做出錯誤判斷,尤其是在瞬息萬變的儲存市場。去年開始筆者在知識星球就開始跟同學灌輸儲存市場的很多底層邏輯,就是擔心從未經歷過儲存周期的同學們,在儲存高漲的時候出現不切實際跟脫離產業的幻想。我想這正是加入筆者知識星球的最大好處,對整個產業有高維度的宏觀認知,這是做投資的基石。所以真心建議加入筆者知識星球,掃文章末尾二維碼即可加入,知識付費。儲存產業是否會復刻先進邏輯製程的發展路徑,進入長期漲價的結構性時代?這個問題看似符合產業發展的 “技術直覺”,畢竟無論是 CPU、GPU 這類邏輯晶片,還是 DRAM 這類儲存晶片,本質上都是在wafer上堆疊電晶體,依靠摩爾定律,也就是製程工藝的持續進步提升單位面積的電晶體密度。既然先進邏輯製程能夠在每一代技術迭代中實現產品價格的持續提升,同為半導體產業核心品類的儲存,為何不能走上同樣的道路?但如果拋開表面的技術相似性,從數學邏輯與產業本質的底層維度分析,『儲存長期漲價』或者『儲存周期特性結束』 的結論其實站不住腳。更進一步說,這一輪看似具備結構性特徵的儲存價格上漲,恰恰在更高維度再次驗證了儲存產業的核心屬性,它不僅是典型的周期行業,而且受產業底層規律約束,幾乎不可能擺脫周期的桎梏。一、表象相似:都是電晶體,卻有完全不同的命運很多人被「電晶體縮放」的表面規律所誤導,認為邏輯晶片能靠製程進步提價,儲存也能走同一條路。畢竟兩者的技術核心都是通過縮小電晶體尺寸,在同樣大小的 wafer 上塞進更多基本單元,從而實現成本最佳化。先看一組公認的產業資料,無論是邏輯還是儲存,製程進步的確帶來了單位成本的下降:邏輯晶片:製程越先進,晶圓越貴,但單位電晶體成本越低台積電 3nm 晶圓價格是 14nm 的 3 倍多,但每平方毫米能塞的電晶體數是 14nm 的 8 倍多,攤到每個電晶體的成本反而降了近 70%。簡單說,邏輯晶片是「買貴的晶圓,造更便宜的電晶體」。儲存晶片:同樣靠製程降成本,卻卡在物理極限DRAM 的核心單元是 1T1C(1 個電晶體 + 1 個電容),製程進步同樣能縮小單元尺寸,提升 bit/mm² 密度,但電容的物理特性讓它的微縮速度遠慢於邏輯電晶體。從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5-6 倍,每 bit 成本降了近 70%,看起來和邏輯晶片的成本最佳化節奏差不多。但關鍵差異在於,邏輯晶片的電晶體能持續微縮,而 DRAM 的 1T1C 單元自 2004 年後就卡在 6F² 的設計上,再也沒實現突破,這也是 DRAM 密度提升放緩的核心原因。目前DRAM行業準備進入4F²的3D DRAM時代,但真正推出產品還得是1d以後的節點,預計2028年~2029年才能真正進入4F²的3D DRAM時代。看到這裡有人會問:既然兩者都能靠製程降單位成本,為什麼邏輯能長期提價,儲存卻只能在周期裡掙扎?答案藏在「你賣的到底是什麼」這個本質問題裡。二、核心分歧:一個賣性能,一個賣容量,分母完全不同這是儲存和邏輯最根本的差異,也是解釋兩者價格走勢的關鍵。我們用兩個核心公式,把這個差異講透。邏輯晶片的定價邏輯 —— 賣的是性能,不是電晶體邏輯晶片(CPU、GPU、AI)的核心定價公式:Price logic ≈ f (Performance)。邏輯晶片的價格由「能解決多大的問題」決定,不是由「有多少個電晶體」決定,電晶體只是實現性能的手段。而性能和電晶體數量的關係是超線性增長:Performance ∝ Transistorα , α > 1 。電晶體數量的增長,會帶來性能的爆炸式增長(α > 1),簡單說就是「電晶體翻 10 倍,性能可能翻 20 倍、30 倍」。最典型的例子就是 AI 晶片:同樣是台積電 3nm 工藝,一塊 GPU 的電晶體數是傳統 CPU 的數十倍,其能運行的大模型參數量、推理速度是 CPU 的上百倍,因此它的售價能達到 CPU 的幾十倍,使用者依然願意買,因為單位性能的成本實際上是下降的。對資料中心來說,一塊貴的 AI 晶片能替代幾十塊普通晶片,節省的機房空間、電費、維護成本遠超晶片本身的價格,這就是「性能溢價」的核心邏輯。即使 wafer 價格越來越貴,只要性能提升的速度超過價格上漲的速度,使用者就願意為更高的價格買單。儲存晶片的定價邏輯 —— 賣的是容量,一個 bit 就是一個 bitDRAM 的核心定價公式:Pricememory ≈ f (Capacity),而單位容量的價值是恆定的。儲存晶片的價格由「能存多少資料」決定,1GB 就是 1GB,無論是用 DDR3 還是 DDR5 存,能存的資料量一樣,對使用者的價值也一樣。製程進步只能讓廠商用更低的成本生產 1GB 儲存,但無法讓 1GB 儲存的價值變高 —— 使用者不會因為你用了更先進的 1βnm 工藝,就願意為 1GB DDR5 付比 1GB DDR3 高的價格。這裡有一個關鍵的對比,能讓我們一眼看清差異:* 邏輯晶片:價格上升,但性能提升更快 → 使用者的「單位性能成本」下降 → 願意接受漲價;* 儲存晶片:價格上升,但容量不變 → 使用者的「單位容量成本」直接上升 → 會減少採購、選擇替代方案,市場天然壓制價格。簡單說,邏輯晶片是「越貴越值」,儲存晶片是「貴了就不買」,這是兩者價格走勢的本質區別。三、系統層約束:儲存不能貴,是一條物理 + 經濟定律如果你到了會思考產業且具備一定水平,你可能又會產生新的疑問 - 邏輯晶片漲價也會增加系統成本,為什麼只約束儲存?這個問題看似合理,但其實忽略了系統成本的計算邏輯,我們依然用公式解讀。系統總成本的構成與差異整個電腦系統的成本可以簡化為:System Cost=Compute+Memory但邏輯(Compute)和儲存(Memory)的成本計算方式完全不同。邏輯的系統成本:看的是「價格 / 性能」對邏輯晶片來說,真正影響系統成本的不是晶片本身的價格,而是單位性能的價格:Performance/Price只要這個比值在下降,即使晶片價格上漲,整個系統的運算成本也是下降的。比如一塊 10 萬元的 AI 晶片,性能是 10 塊 1 萬元普通晶片的 20 倍,那麼用這塊 AI 晶片的系統,單位運算成本只有原來的一半,企業當然願意選擇。儲存的系統成本:看的是「價格 × 容量」對儲存晶片來說,系統成本的計算方式是價格乘以容量:System Costmemory = Price × Capacity而在 AI 時代,儲存的容量需求是和算力同步增長的,甚至增長更快:Memory Demand ∝ Compute × K,K > 1也就是說,一個 GPU 的算力提升 10 倍,搭配的儲存容量可能需要提升 15 倍(K=1.5)。如果此時每 GB 儲存的價格再上漲 10 倍,那麼儲存的系統成本就會提升 150 倍,這是任何企業都無法承受的。這不是市場的選擇,而是物理和經濟的雙重約束,AI 算力的提升需要海量儲存的支撐,如果儲存價格長期上漲,整個 AI 產業的擴展就會戛然而止。因此,儲存價格必須在長期內維持穩定甚至下降,這是支撐科技進步的必要條件。四、資料實證:儲存的「1 美元地心引力」,邏輯的「性能溢價無上限」前面的公式解讀了理論邏輯,接下來我們用十幾年的產業資料,驗證儲存和邏輯的價格規律。重點看兩個核心指標:單位面積 wafer 的價值(Value/mm²) 和扣除周期波動的均衡價格。半導體的統一價值衡量標尺無論是邏輯還是儲存,都可以用這個公式衡量單位面積矽片的價值,這也是判斷一個半導體行業能否持續提價的核心指標 :Value  /mm2 = Density × Valueunit* Density:單位面積的基本單元數(邏輯是電晶體,儲存是 bit)* Value_{unit}:每個基本單元的實際效用價值。想要讓晶片持續提價(提升 Value/mm²),只有兩條路:要麼密度翻倍,要麼每個單元的價值變高。邏輯晶片兩條路都走通了,而儲存晶片兩條路都撞了牆。邏輯晶片 —— 密度和單位價值雙增長,Value/mm² 暴漲從 14nm 到 2nm,邏輯晶片的電晶體密度提升了 11 倍,而每個電晶體能實現的性能提升了 15 倍,兩者相乘,單位面積wafer的價值提升了 165 倍。這就是為什麼台積電 2nm 晶圓能賣到 3 萬美元一片,客戶依然排隊送錢 —— 因為這塊 wafer 能創造的價值,是 14nm wafer 的上百倍。儲存晶片 —— 密度慢增長,單位價值恆定,Value/mm² 微漲從 DDR3 到 DDR5,DRAM 的 bit 密度提升了 5 倍,但每個 bit 的價值始終不變,因此單位面積 wafer 的價值只提升了 6.2 倍,遠低於邏輯晶片的 165 倍。扣除地震、缺芯、AI 爆發等短期周期因素,三十多來DRAM 的每 GB 均衡價格始終圍繞1-3 美元波動,這就是儲存行業鼎鼎大名的「1 美元地心引力」,無論製程多先進,價格最終都會回歸到成本支撐的均衡區間。1美元地心引力這個概念是老半導體人耳熟能詳的DRAM規則,從歷史上看確實也是如此。不過2016年以後傳統資料中心因為巨量資料開始繁榮,儲存的價格有稍稍的墊高,加上這波AI熱潮,新進的且沒經歷過周期的投資者,幾乎沒有人知道所謂1美元地心引力。但是即使目前價格高企的 DDR5,其單位面積wafer的價值也只有邏輯晶片的幾百分之一,這也是儲存永遠成不了「高價品」的核心原因。DRAM 的 1T1C 儲存單元的密度直接決定了 bit/mm²,其變化規律和 bit 密度完全同步,從 DDR3 到 DDR5,每 mm² 能塞進的 1T1C 單元數從約 0.12 億個提升到 0.8 億個,提升了 6.7 倍,但由於單元尺寸卡在 6F²,這個提升速度遠慢於邏輯電晶體的 10 倍以上提升。簡單說,邏輯晶片是在「做乘法」,儲存晶片只是在「做加法」,這是兩者價值差異的核心資料支撐。五、為什麼儲存一定會有周期?供需的「超級反應」定律理解了價值和定價模型,我們就能輕易解釋儲存的周期性 —— 這不是市場情緒導致的,而是供需結構決定的必然結果。儲存的周期性動態公式Demand↑→ Supply↑↑ → Oversupply → PriceCollapse儲存需求的特點是體量巨大、高度同步,當 AI、手機、PC 需求同時上升時,整個市場會一起拉動儲存需求。而儲存供給端的特點是標準化程度高,技術路徑清晰,三星、海力士、美光三大廠商的擴產節奏幾乎一致。這就形成了一個典型的循環:需求剛剛上漲,三大廠就會同時大規模擴產,最終導致供給遠超需求,價格直接崩盤。歷史資料反覆驗證了這一點DDR3 時代:2011 年需求上漲→廠商擴產→2013 年供過於求→價格暴跌 50%。DDR4 時代:2017 年需求上漲→廠商擴產→2019 年供過於求→價格暴跌 60%。DDR5 時代:2025 年 AI 需求上漲→廠商開始擴產→預計 2027 年供給平衡維持高位→高價儲存導致消費級電子需求低迷→新技術導致AI對儲存容量增長減緩→2028年價格逐漸回落。而邏輯晶片幾乎沒有這種周期,核心原因是邏輯晶片的技術壁壘高、產品差異化大,台積電的 3nm 工藝獨步全球,NVIDIA 的 GPU 架構無人能敵,沒有企業能輕易擴產跟上需求,因此供需能長期維持相對平衡,價格也能保持穩定上漲。邏輯晶片如果競爭力不足,會體現在稼動率,而不是價格,製程節點價格永遠向上,不可能向下,但經爭力不足將導致稼動率崩盤,客戶只會選擇具備最高競爭力的Foundry。六、HBM 能改變儲存的周期宿命嗎?答案是:不能面對儲存的周期性質疑,很多人會拿 HBM舉例,HBM 賣的是頻寬和延遲,不是容量,定價邏輯和邏輯晶片一樣,能擺脫周期。HBM 的確具備了邏輯晶片的某些特徵,但其依然逃不過周期定律,核心原因有三,我們用資料和邏輯說明:產能槓桿效應:放大周期,而非消滅周期生產 1GB HBM 所需的晶圓面積是傳統 DRAM 的 2倍左右,加上良率耗損可能在3倍。AI 需求旺盛時,HBM 會抽乾通用 DRAM 的產能,導致全線漲價,而一旦 AI 需求增速放緩,HBM 釋放的產能會以 2-3 倍的壓力衝擊普通 DRAM 市場,導致價格暴跌,HBM 只是讓儲存的周期波動更劇烈,而不是消滅周期。又或者行業有其他替代方案,比如HBF會部分取代HBM,或者如Google的儲存壓縮演算法,如此一來龐大的HBM帶來產能,將沖垮DDR5,這正是三大原廠對擴產保守的一個核心原因。其實如果未來真的儲存百分百大爆發,向邏輯一般,不會因為某種新技術而被淘汰,那三大原廠必然是往死裡擴產,還擔心啥供給,他們保守以對必然有其核心邏輯。成本驅動而非價值驅動:高價是暫時的目前 HBM 的高價,主要來自於封裝良率低(良率不足 70%)和 TSV(矽通孔)工藝成本高,而不是其單位價值高。一旦工藝成熟、良率提升到 80% 以上,HBM 的成本會大幅下降,價格競爭依然會回歸 ,HBM 的高價是技術不成熟的結果,不是結構性的性能溢價。目前我們可以看到三大原廠對擴產的保守,目的就是長維度的維持高價格,但本質還是人為的利用供給手段來調控價格,即便未來儲存長時間維持高價,但依然沒有本質的改變。同質化競爭:沒有企業能壟斷技術三星、海力士、美光在 HBM 技術上的差距極小,沒有企業能像 NVIDIA 在 GPU 領域那樣形成技術壟斷。只要是同質化競爭,最終的競爭手段必然是「產能擴張 + 價格戰」,這是大宗商品的必然規律 ,HBM 依然是儲存,不是邏輯晶片。簡單說,HBM 只是「高級的儲存」,並沒有改變儲存,『賣容量(頻寬本質也是容量的一種體現)、單位價值恆定』的核心屬性,因此依然逃不過周期宿命。七、結語:儲存的周期,是物理和經濟的雙重必然2025-2026 年的這輪儲存超級周期,的確是 AI 驅動下的歷史性行情,但這並不意味著儲存行業的規律變了。儲存和邏輯晶片的根本差異,從來不在於電晶體和製程,而在於價值函數和單位面積價值潛力:* 邏輯晶片賣的是性能,性能隨電晶體超線性增長,因此能靠性能溢價實現長期提價,定價權掌握在企業手中。* 儲存晶片賣的是容量,容量的單位價值恆定,因此價格只能圍繞成本波動,定價權掌握在供需曲線手中。再加上 DRAM 的 1T1C 單元卡在 6F² 的物理極限,密度提升速度放緩,單位面積價值潛力幾乎見頂,儲存的周期性就成了物理和經濟的雙重必然。對於投資者和產業從業者來說,最危險的念頭就是「這一次不一樣」。當所有人都認為儲存擺脫了周期、會長期漲價時,往往就是下一個周期頂點降臨的時刻。AI 只是給儲存行業打了一劑強心針,讓它在短期內光鮮亮麗,但並沒有改變 DRAM 作為「科技大宗商品」的底層基因。儲存不相信奇蹟,只相信供需。這條底層規律,過去成立,現在成立,未來依然會成立。而這,正是儲存這個行業最難以改變、也最值得市場敬畏的底層規律,技術進步可以提升效率、降低成本,可以催生出高端的性能型細分品類,但始終無法改變其作為基礎元件的容量定價核心,也無法擺脫供需同步性帶來的周期桎梏。對於市場而言,認清儲存產業的周期本質,摒棄 “結構性漲價” 的幻覺,才能做出更理性的產業判斷與投資決策。加入知識星球,你將會得到比所有人更前瞻的行業動態與趨勢,沒有推票,只有最正統的產業邏輯去看投資市場,知識付費,掃文章末尾二維碼即可加入。(梓豪談芯)
輝達,急了!
過去兩年,輝達幾乎是整個 AI 產業鏈中最從容的一家公司。算力需求爆炸式增長,GPU 成為 AI 時代最稀缺的資源。無論是 OpenAI、微軟、Meta,還是亞馬遜、Google,所有雲廠商都在排隊購買輝達 GPU。訂單排期動輒一年以上,“一卡難求”甚至成為行業常態。在這種供需結構下,輝達一度擁有近乎完美的議價權:客戶要算力,就必須等。但最近幾個月,一個微妙的變化正在出現。一邊是 OpenAI 的 Stargate 項目出現停滯和調整,另一邊是中東地緣政治風險正在衝擊資料中心建設節奏。當算力需求的擴張節奏與基礎設施的不確定性開始交織,AI 產業鏈的結構,也正在悄然發生變化。01Stargate停滯:AI算力最大訂單開始搖擺2025年初,OpenAI、SoftBank、Oracle等公司宣佈了一個震動整個產業的項目——Stargate。這個計畫的規模堪稱史無前例:計畫總投資 5000 億美元,目標建設 10GW AI算力基礎設施,主要用於支援 OpenAI 的模型訓練和推理體系。如果順利推進,這將是人類歷史上最大規模的 AI 基礎設施建設計畫之一。但現實很快變得複雜。2026 年 3 月,據CNBC報導,由於 OpenAI 渴望在全新站點部署輝達下一代晶片,其已決定不再擴建與甲骨文合作的旗艦項目——“星際門”(Stargate)資料中心,轉而尋求在其他地方建立擁有更新一代輝達 GPU(Rubin)的叢集。該項目原本計畫將資料中心規模從 1.2GW 擴大到接近 2GW,但最終未能推進。目前的阿比林站點預計使用輝達的Blackwell 處理器,但其電力供應預計在一年內都無法到位。儘管甲骨文周日在 X 上發帖稱相關報導“虛假且不精準”,但該帖僅表示現有項目正按計畫進行,並未提及任何擴建計畫。甲骨文的X原文如下:來源:X「關於阿比林(Abilene)基地的近期媒體報導是虛假且不精準的。首先,Crusoe 和甲骨文(Oracle)正步調一致地合作,以打破紀錄的速度在阿比林交付全球最大的 AI 資料中心之一。目前兩棟建築已投入營運,園區的其餘部分也正按計畫推進。其次,甲骨文已經完成了額外 4.5GW 電力的租賃,以履行我們對 OpenAI 的承諾。我們始終與優秀的合作夥伴及客戶協作,持續評估全球各地的站點,以滿足甲骨文雲基礎設施(OCI)日益增長的需求。」AI晶片的升級速度遠快於資料中心的落成速度。輝達過去每兩年發佈一代資料中心處理器,而現在 CEO 黃仁勳要求公司每年交付一代,且每一代性能都有跨越式提升。今年 1 月在 CES 上揭曉並已投入生產的 Vera Rubin,其推理性能是 Blackwell 的五倍。這一市場現實不僅暴露了 AI 貿易的關鍵風險,也讓甲骨文依靠債務驅動的擴張深陷危機。據報導,甲骨文的帳面債務已超過 1000 億美元,且自由現金流已轉為負值。在眾多雲科技巨頭中,甲骨文是唯一一家主要靠債務支撐建設的超大規模雲廠商。相比之下,Google、亞馬遜和微軟則依賴其龐大的現金流業務。與此同時,甲骨文的合作夥伴 Blue Owl 已拒絕為額外的設施提供資金,並計畫裁員 3 萬人。過去幾年,AI 行業一直認為 GPU 是最大的瓶頸。但現實正在證明一個新事實:真正的瓶頸正在從“晶片”轉向“基礎設施”。一個典型 AI 資料中心的核心要素包括:GPU、電力、冷卻、網路、土地。在訓練級 AI 叢集中,一座資料中心往往需要數百兆瓦電力。作為參考:一個 1GW 資料中心的電力規模,已經接近一座小型城市的用電量。這意味著:AI算力擴張不僅是晶片問題,更是能源和基礎設施問題。而這恰恰是 Stargate 項目遇到困難的原因之一。融資、電力、建設周期——任何一個環節延遲,都可能拖慢AI基建。不過有趣的是,這個被擱置的項目,立刻引來了新的買家。據消息人士透露:Meta 正在考慮接手這一資料中心資源。而更關鍵的一點是輝達主動參與撮合了這筆潛在交易。換句話說,輝達不再只是向客戶賣 GPU。它開始幫助客戶搶資料中心,搶電力資源,搶算力位置,這在過去幾乎不可想像。02中東:AI算力新戰場就在美國AI基建出現波動時,另一片不可忽視的基建地區形勢也不太妙,那就是中東。根據Research And Markets 2025年6月的一份報告統計顯示,中東目前已有約170座資料中心,另有約111個項目正在規劃或建設,區域現有算力容量約 1.2GW,未來規劃容量接近 4.5GW。預計到2027年,將有約120億美元的新投資流入中東地區正在建設的資料中心。按Data Center Map的大概統計,在中東地區,以色列擁有66 座資料中心,沙烏地阿拉伯有61座,阿聯57 座,卡達11 座。這意味著,中東已經成為全球AI基礎設施的重要新戰場。全球資料中心地圖(來源:Data Center Map)從結構來看,中東的資料中心市場呈現出明顯的雙中心格局:一是阿聯:現有存量最集中。阿聯是當前中東資料中心密度最高的國家之一,其首都阿布扎比有約 32 座,杜拜有約 23 座;二是沙烏地阿拉伯,在新建資料中心項目中,沙烏地阿拉伯已經成為中東最活躍的市場之一。資料顯示,沙烏地阿拉伯在中東新興資料中心市場中佔據 接近 60% 的總電力容量,並預計到 2025 年底新增約 350MW 資料中心電力容量。阿布扎比Khazna AUH6資料中心(來源:Khazna / Data Center Dynamics)過去兩年,全球科技巨頭幾乎同時把目光投向了中東。這是為何呢?一句話總結,因為錢、地、電、政策窗口,四樣東西同時具備。對超大規模 AI 資料中心來說,稀缺不只是GPU,還有資本、土地、電力和政策通道。而中東,恰恰是在這四個維度上同時給出了少有的組合條件:一邊是主權基金願意拿出長期資本做大項目,另一邊是阿聯、沙烏地阿拉伯等國本身擁有相對充足的土地與能源資源,同時又希望借 AI 和雲基礎設施完成經濟結構轉型,把自己從傳統能源中心改造成新的全球數字樞紐。也正因為如此,從2023年開始,全球雲廠商和 AI 公司開始系統性地在中東佈局算力基礎設施。最早明確加碼的是 Oracle。2023 年 2 月 6 日,Oracle 宣佈將在沙烏地阿拉伯投資 15 億美元,用於擴展其雲基礎設施能力,並推動利雅德公共雲區域建設;這筆投資與其在吉達、NEOM 等地的雲佈局一起,構成了 Oracle 在沙烏地阿拉伯的長期落子。隨後進入2024年,押注開始明顯提速。2024年3月4日,AWS 宣佈將在沙烏地阿拉伯建設新的雲區域,並計畫在當地投資超過53億美元,目標是在 2026 年啟用。這是 AWS 對沙烏地阿拉伯最重磅的一次基礎設施承諾之一,背後反映的是沙烏地阿拉伯希望通過本地雲區域來承接更多政府、企業和 AI 相關負載,而 AWS 也希望借此進一步繫結中東未來的數字基礎設施增長。緊接著,2024 年 4 月 16 日,微軟宣佈向阿布扎比AI公司G42投資 15 億美元。這筆交易表面上看是股權投資,實質上則是微軟把自己更深地嵌入阿聯 AI 與雲生態的關鍵一步。到 2026 年 3 月,路透披露微軟在 2023—2029 年間對阿聯的總承諾投資規模已達到 152 億美元,其中已經投入 73 億美元;這部分資金不僅包含前述對 G42 的 15 億美元投資,也包括 46 億美元以上的 AI 和雲資料中心容量建設。到了2024年下半年,Google Cloud 也正式下場。2024 年 10 月 30 日,沙烏地阿拉伯公共投資基金 PIF 與 Google Cloud 宣佈合作,計畫在沙烏地阿拉伯東部省份達曼附近建設一個新的全球 AI hub。隨後在 2025 年 5 月 13 日,Google Cloud 又與 PIF 進一步宣佈推進該項目,明確這一 AI hub 將由雙方共同投資100 億美元,並由沙烏地阿拉伯本地科技公司 Humain 參與啟動和營運。還有一個極具主權AI的代表性項目就是 Stargate UAE。據路透社 2025 年 5 月 22 日報導,這一項目落地阿布扎比,由 G42 聯合 OpenAI、Oracle、輝達、思科和軟銀等多方推動,整個園區最終規劃規模達到 5GW,首期為 1GW,其中首批 200MW 預計在 2026 年上線。路透同時援引 TrendForce 的估算稱,僅首期就大致對應 10 萬顆輝達先進 AI 晶片的部署規模。無論從電力口徑還是晶片口徑看,這都不是普通意義上的資料中心擴建,而是把中東直接推進到全球 AI 超級園區競爭的第一線。也正因為如此,中東對輝達的意義,已經不只是多賣一些 GPU。在美國本土,AI 資料中心受制於電力、建設周期和項目推進節奏;而在中東,巨額資本和政策意志又提供了新的承載空間。於是,輝達面對的局面變成了:一邊要盯住美國超大項目是否放緩,另一邊又必須確保中東這些新園區能夠順利吸納它的晶片和系統。03中東的問題是:戰爭中東算力故事的另一面,是地緣政治風險。2026 年 3 月 2 日,AWS 披露其位於阿聯和巴林的部分資料中心在無人機襲擊中受損。 其中,阿聯有兩座設施被直接擊中,巴林也有一座設施因附近襲擊受到物理衝擊;AWS 明確表示,這些襲擊造成了結構性損壞、電力輸送中斷,以及滅火措施帶來的二次水損,恢復過程將會持續較長時間。路透還指出,這是首次有美國大型科技公司的資料中心因軍事行動而遭到擾動,並已影響到部分依賴 AWS 的金融機構和核心雲服務。這個事件的意義很大:它說明中東 AI 基建面臨的風險,已經從地緣政治溢價升級為真實的設施受損與業務中斷。風險的第二層,在於投資與融資成本上升。資料中心本來就是長周期、重資本項目,一旦地區衝突持續,開發商和雲廠商面臨的不只是安保支出增加,更包括保險費用上行、債務融資變貴、項目回報周期被拉長。路透社 2026 年 3 月 6 日援引 JPMorgan 的判斷稱,海灣衝突升級將提高對當地國內投資、外商直接投資和人才吸引的風險;同時,依賴發債籌資的項目和機構也會面臨更高的融資成本。對於沙烏地阿拉伯這類高度依賴主權基金推進“2030願景”的國家來說,主權基金不只是財務投資者,還是大型轉型項目的主要資金來源,因此一旦宏觀環境惡化,其“財務和營運約束”都會上升。對輝達最現實的一層:需求預期會被重新定價。過去市場願意給中東一個極高的想像空間,是因為這裡不僅有 AWS 超過 53 億美元的沙烏地阿拉伯雲區域投資、Google Cloud 與沙烏地阿拉伯 PIF 規劃的 100 億美元 AI hub、Oracle 15 億美元的沙烏地阿拉伯雲基礎設施擴張,還有 Stargate UAE 這種 5GW 等級的超大型 AI 園區。路透 2026 年 3 月 2 日的報導已經把這些項目並列呈現,並直言地區局勢升級正在把外界目光重新拉回到大科技公司在中東的 AI 投資風險上。對輝達而言,問題不只是“這些項目最後會不會做”,而是:這些項目能否按原計畫推進、按原節奏上架、按原規模消化高端 GPU。 只要任何一環延遲,資本市場對 2026—2027 年高性能計算晶片出貨的樂觀預期,就會被打折。對於大型雲巨頭來說,敢不敢把關鍵算力、關鍵資料和關鍵業務連續性押在那裡,也是一個問題。04結 語不得不說,AI時代的算力戰爭,正在升級。如果說 2023—2024年的AI戰爭,是GPU之戰。那麼2025—2027年的 AI 戰爭,將變成算力基礎設施之戰。競爭的焦點將轉向資料中心、電力、網路、冷卻、地緣政治。而在這場戰爭中,輝達既是最大贏家,也承擔著最大的風險。因為所有 AI 產業鏈的擴張,都壓在它的 GPU 上。當產業鏈順風時,它是王者,但當需求波動、基礎設施受阻、地緣政治介入時——輝達必須開始親自下場。不是為了賣更多 GPU,而是為了確保這些 GPU 有地方可用。 (EDA365電子論壇)
AI:正在復刻2006年房地產的“黃金十年”
2006年的房地產,是公認的黃金賽道,需求爆發、資本扎堆,房價與投資熱度一路走高,成為拉動經濟、創造財富的核心引擎,開啟了長達十餘年的繁榮周期。如今2026年,AI應用正迎來類似的爆發期,從工業製造、企業辦公到消費終端、民生服務,AI全面滲透各領域,降本增效、提質升級的效果肉眼可見。資料顯示,2025-2030年全球AI市場規模將從2440億美元飆升至8270億美元,復合年增長率高達24%,遠超物聯網和公共雲等熱門領域。再者,技術迭代加速、政策持續加持、資本密集佈局,AI商業化落地與規模化應用全面提速,滲透廣度與增長潛力堪比當年的房地產,正成為新一輪產業升級與經濟增長的核心驅動力,長期發展前景十分廣闊。01技術迭代+政策護航,AI產業迎來全方位賦能AI產業的快速發展,離不開技術突破與政策支援的雙重驅動。全球範圍內,大模型性能持續提升,各主流模型在語言理解、程式碼生成、電腦視覺等核心領域的差距不斷縮小,為廣泛應用奠定了堅實基礎。2025年7月底,AI大模型Token總使用量已達3.41T,相較年初增長近10倍,直觀反映出技術落地的加速態勢。在政策層面,國務院發佈的《關於深入實施“人工智慧+”行動的意見》,明確了“發展——應用——安全——治理”的清晰路徑,規劃了到2027年、2030年和2035年的三階段里程碑目標。從算力統籌、資料創新到開源生態、人才建設,八大基礎支撐為AI產業保駕護航,推動智能經濟核心產業規模快速增長。與此同時,AI產業鏈生態日趨完善。上游的AI晶片、伺服器等算力基礎設施持續升級,中游的通用大模型與行業解決方案不斷創新,下游的網際網路、金融、教育、醫療等應用領域加速滲透,形成了協同發展的良好格局。這種全產業鏈的協同發力,讓AI技術的落地效率大幅提升,為產業爆發提供了充足動力。02多場景落地開花,AI重塑產業價值格局AI技術的價值,最終體現在豐富的應用場景中。目前,AI已在內容創作、行銷推廣、軟體開發、遊戲產業等多個領域實現規模化落地,不僅帶來了效率的革命,更催生了全新的商業模式。在內容創作領域,AI的賦能效果最為顯著。從圖片生成、視訊剪輯到文案撰寫、劇本創作,AI工具讓內容生產的門檻大幅降低。2025年上半年,全球生成式AI應用下載量接近17億次,應用內購買收入高達19億美元,使用者總使用時長達到156億小時。國內市場同樣火爆,AI漫劇成為新風口,2024第四季度到2025第三季度,中國AI漫畫流水增長900%,月新增劇集數增長567%,抖音、快手等平台紛紛推出AI創作工具與流量扶持計畫,推動全民創作時代的到來。行銷領域更是AI應用的核心戰場。AI驅動的智能投放系統能夠精準分析使用者畫像,實現廣告素材的自動化生成與即時最佳化,大幅提升行銷ROI。藍色游標2025年前三季度AI驅動業務收入達24.7億元,Mobvista核心平台Mintegral的AI智能競價系統貢獻了80%以上的收入,易點天下打造“服務+產品”雙輪驅動戰略成效顯著,跨境電商領域市佔率穩步提升同時,深耕智能家居、新消費、短劇、AI產品等高潛力賽道,頭部客戶的LTV海外市場中AI類應用的數字廣告支出也實現翻倍增長,充分證明了AI在行銷領域的商業價值。此外,AI在軟體開發、遊戲研發等領域的應用也成效顯著。82%的開發者使用AI工具編寫程式碼,工作效率提升超120%;遊戲行業中,86.36%的企業在研發環節應用AI技術,實現了內容生成、系統設計等環節的降本增效。AI正全方位重塑各產業的價值創造方式。03平台+企業雙輪驅動,商業化變現路徑清晰AI產業的蓬勃發展,離不開平台型企業與垂直領域龍頭的共同推動,兩者形成的雙輪驅動格局,讓商業化變現路徑愈發清晰。在平台端,抖音、快手、B站等新媒體平台成為AI應用的重要載體。抖音以豆包大模型為核心,將AIGC技術嵌入內容生產、剪輯、發佈、行銷的全流程,推出“AI創作浪潮計畫”扶持創作者;快手可靈AI全球使用者規模突破4500萬,2025年第二季度收入超2.5億元,其文生視訊模型在全球市場佔據30%的份額;B站、小紅書等平台也紛紛上線AI創作工具,推動內容生態的智能化升級。這些平台憑藉龐大的使用者基數與流量優勢,成為AI技術落地的“試驗場”與“放大器”。在企業端,各類市場主體積極擁抱AI,實現了業務增長與效率提升的雙重突破。美圖憑藉AI圖像、視訊、設計等四大模組的佈局,全球VIP會員數突破千萬,生產力工具付費訂閱使用者達180萬。多鄰國通過AI驅動的高端套餐Duolingo Max,2025年第二季度營收同比增長41%,淨利潤增長84%,股價單日飆升32%;Palantir推出的人工智慧平台AIP,推動公司2025年第二季度收入同比增長48%,“40法則”得分高達94%。這些企業的成功案例,印證了AI技術商業化的巨大潛力。同時,AI產品出海成為新的增長點。在圖像、視訊編輯和社交領域,美圖系、字節系應用佔據全球流量入口,國內模型通過與海外平台合作分發,影響力持續擴大,為行業增長開闢了新的空間。04投資建議:聚焦核心賽道,把握AI成長紅利AI產業的爆發式增長,為投資者提供了豐富的投資機會。結合行業發展趨勢與企業表現,建議重點關注以下三大方向:一是內容與流量平台型企業。這類企業憑藉龐大的使用者基礎與完善的生態佈局,在AI應用落地中具備天然優勢。二是AI行銷與商業化落地龍頭。行銷領域是AI技術率先實現規模化變現的賽道,相關企業業績增長確定性強。三是垂直領域AI應用先鋒。在遊戲、教育、設計等垂直領域,AI技術的應用正在催生新的增長機遇。 (格隆)
但斌,美股第一大重倉股變了!
但斌美股持倉最新出爐!私募排排網據美國證券交易委員會(SEC)統計稱,截至2025年末,東方港灣旗下海外基金在美股市場共持有10隻股票,持倉總市值約為13.16億美元(約合人民幣91億元),較三季度末的12.92億美元略有增長。從調倉動作來看,東方港灣2025年四季度清倉了包括Coinbase、網飛、博通、台積電在內的多隻股票,同時大手筆加倉Google、納斯達克指數等,持倉進一步集中於科技類股巨頭,第一大重倉股也由輝達變為Google。多位業內人士稱,2026年科技仍將是全球資本市場的重要投資主線,尤其是AI相關且逐步兌現業績的標的值得關注。第一大重倉股變更SEC官網披露的資訊顯示,截至2025年末,東方港灣旗下海外基金共持有10隻美股標的,前五大重倉股分別為Google、輝達、TQQQ(三倍做多納斯達克100ETF)、FNGU(三倍做多FANG+指數ETN)和微軟。與2025年三季度末持倉情況對比,東方港灣旗下海外基金去年四季度大手筆加倉了Google,其第一大重倉股也因此發生變化。據私募排排網統計,截至2025年末,東方港灣旗下海外基金持有Google129.35萬股,相較於去年三季度末持股數量增長40.55%,期末持股市值高達4.06億美元,第一大重倉股由輝達變成了Google。持倉進一步集中於科技從調倉情況來看,但斌在2025年四季度進一步提高了組合的“科技含量”。據私募排排網統計,2025年四季度東方港灣旗下海外基金清倉了包括Coinbase、網飛、Astera Labs、BitMine Immersion Technologies、博通、台積電在內的多隻股票。同時,東方港灣旗下海外基金2025年四季度大手筆加倉了TQQQ(三倍做多納斯達克100ETF)和GGLL(二倍做多GoogleETF)。截至2025年末,東方港灣旗下海外基金持倉進一步聚焦科技,除Google和輝達外,微軟、蘋果、Meta、特斯拉和亞馬遜均位列其中,顯示出對美股科技龍頭股的高度關注。東方港灣在近日發佈的年度策略中表示,在過去二十年的網際網路時代裡,除了收入增長,標普500的整體利潤率也提升了不止一倍,這個趨勢在AI時代還會延續。與此同時,AI應用的算力需求空間巨大,容得下輝達GPU與GoogleTPU共同分得蛋糕。因此,我們要在AI技術帶來的變革中尋找機會。機構看好AI產業浪潮下的機會值得注意的是,不僅是東方港灣,多家百億級私募對AI方向興趣盎然。景林資產管理合夥人、CEO高雲程在《2025年終給投資者的一封信》中直言,AI對各行各業的滲透和改造才剛剛開始。2026年需高度重視重要AI應用入口或者平台,如Google、Meta、蘋果、字節跳動、騰訊、OpenAI等世界級入口或平台型公司。而且2026年很可能是AI Agent(智能體)真正普及的元年,軟體層面的AI Agent和軟硬體結合的AI Agent裝置會不斷被推出。以手機等硬體作為底層操作平台的AI大模型,甚至有挑戰原有IOS和Android系統的可能性。原有的很多護城河都可能在這一次技術浪潮中被顛覆。重陽投資也認為,拉長時間看,目前仍處於AI產業發展的早期,無論是多模態大模型的應用爆發,還是人形機器人的落地普及,都需要遠超當前規模的算力投入。只是AI的“星辰大海”如何夯實經濟可行性的微觀基礎,彌合潛在需求和有效需求之間的鴻溝,可能是2026年產業發展無法迴避的問題。 (上海證券報)
晶圓代工,正在重構
最近,不少晶片設計公司在晶圓廠那裡吃到了“閉門羹”,不少晶圓廠反饋:部分成熟工藝的產能已經開始不好投片。然而,這並非傳統意義上“缺芯”的簡單回歸,而是 AI 溢出效應引發的一場深刻連鎖反應。AI 不只搶走先進製程與先進封裝的資源,也通過電源與功率鏈條把壓力傳導到成熟節點:資料中心功耗暴漲,帶動 PMIC、功率器件、驅動等需求持續抬升,而這類晶片往往依賴 8 英吋或成熟製程產能;當供給側又出現縮減時,成熟工藝自然更容易出現投片變難、利用率拉滿、價格修復的連鎖反應。此外,AI催動的儲存市場回暖,正通過 NOR Flash 等基礎器件的漲價,進一步抬高 MCU 與各類模組的綜合成本。而近段時間,晶圓廠的一些動作也是暗流湧動。台積電、三星加速收縮 8 英吋舊產線,矽片廠擴產12英吋,力積電賣掉最先進的12英吋新廠。。。一系列看似分散的事件,背後其實指向同一個趨勢——2026 年的半導體格局,早已不再是簡單的周期波動,而是一場關乎生存的產能重構。理解這場重構的第一把鑰匙,就是從一個看似“過時”的主角開始:8 英吋。8英吋,巨頭退場,利弊如何?在 8 英吋晶圓的歷史坐標上,2026 年註定是一個分水嶺。台積電與三星這兩家執掌全球製程牛耳的巨頭,正不約而同地選擇關掉一些8英吋晶圓廠。台積電在 2025 年 8 月對外表示,將在未來兩年內逐步淘汰 6 英吋晶圓製造業務,並繼續整合其 8 英吋晶圓生產能力以提升效率。目前台積電在台灣仍擁有一座 6 英吋晶圓廠與四座 8 英吋晶圓廠用於成熟節點晶片製造。TrendForce 援引台媒資訊稱,台積電 8 英吋 Fab 5 預計將在 2027 年底前後停止生產,同時 6 英吋 Fab 2 也將在 2027 年停產。三星方面也出現類似動作。據報導,三星計畫關停韓國器興(Giheung)的 8 英吋 S7 廠,時間窗口落在 2026 年下半年,對應產能減少約 5 萬片/月。需要強調的是,這並非“三星全面退出 8 英吋”——器興仍有 S6、S8 等產線繼續運轉。但 The Elec 的資訊指出,S7 下線後三星 8 英吋月產能將從約 25 萬片降至 20 萬片以下,且其 8 英吋產線當前利用率約 70%,這為關停舊線提供了現實基礎。那麼,為什麼兩家公司都在“退休”8 英吋?背後並不是成熟工藝沒有需求,而是一場基於經濟性與平台遷移的深度考量:第一,經濟帳越來越不划算。在同樣的廠房、人力與維護成本下,12 英吋晶圓能產出更多 die,也更容易實現規模化與自動化;而 8 英吋裝置老化、維護成本高、折舊壓力重,利潤空間天然更薄。TrendForce 的判斷也指出:當關鍵產品持續向 12 英吋遷移後,8 英吋繼續大規模運行會越來越不經濟。第二,產品平台在遷移。以 CMOS 圖像感測器(CIS)與顯示驅動(DDI)為代表的品類,正在加速向 12 英吋平台轉移。三星 8 英吋利用率僅約 70%,其中一個重要原因正是 CIS/DDI 等產品“轉場”。一旦這些體量型產品離開,8 英吋的產品結構就更趨邊緣化,關停與整併也隨之發生。第三,AI 虹吸效應: 在算力競賽面前,資本是趨利的。巨頭們正將每一分預算和每一位工程師都投入到回報率更高的先進製程與先進封裝(如 CoWoS)中。在巨頭的資源圖譜裡,8 英吋的優先順序必然會往後排。具有諷刺意味的是,巨頭的退休恰逢需求的復甦。AI 並不只存在於雲端算力,它帶動的電源管理(PMIC)與功率器件需求呈指數級增長。這種需求結構性上行撞上供給側硬收縮直接導致了 8 英吋產能的供需天平失衡。巨頭的撤退,為留守者留下了豐厚的遺產。最直接的就是利用率上行和漲價。隨著台積電和三星兩家大廠均縮減8英吋,TrendForce 估算全球8英吋供給在 2026 年同比下降約 2.4%,同時全球平均利用率可能從 2025 年的 75–80% 升至 85–90%。巨頭們去賺 AI 的“快錢”,而成熟工藝的定價權,交到了剩下的玩家手中。據TrendForce的報導,部分晶圓代工廠已通知客戶,計畫漲價 5%–20%,且不同於2025 年只漲部分平台,這輪可能更廣泛。那麼誰會受益?短期來看,最有可能承接外溢訂單的是二線廠與區域型玩家:例如韓國 DB HiTek 這類擅長 8 英吋高混合小批次(PMIC/DDI 等)產能的廠商,可能吃到一波“訂單回流”;部分中國大陸的 8 英吋產能也將從中分得紅利。中期來看,8 英吋並不會消失,但它的角色會改變:從過去的規模化主力,逐步變成一個更貴、更專用、更高混合度的產能池;而承接主流規模化製造的,將是 12 英吋成熟工藝平台。12 英吋升艙,成熟工藝進入大生產時代無論 8 英吋需求再旺,成熟工藝走向 12 英吋幾乎已是不可逆的趨勢。TI Sherman 的投產,是這一趨勢的標誌性事件。TI 位於德州 Sherman 的最新 12 英吋晶圓製造基地已於去年 8 月開始投產,從破土到投產約三年半。這座工廠的意義不在於“又多一條產線”,而在於它把模擬晶片競爭的底層邏輯,從產品與管道進一步推進到製造規模與成本結構:當巨頭能以更高利用率、更高自動化在 300mm 上跑成熟產品時,傳統模擬市場的成本地板會被重新定義。更有意思的是,12 英吋擴張並不只發生在製造端,上游矽片也在同步加碼。2026 年 1 月,GlobalWafers(環球晶圓)公開表態籌備德州工廠二期擴張。300mm 矽片屬於資本開支大、回收周期長的上游環節,上游敢在這個時間點談“二期”,往往意味著兩件事:一是客戶需求存在更強的確定性(至少在簽約、承諾或長期合作層面),二是對本地供給鏈長期成長性的判斷。換句話說,當上游材料與下游製造在同一區域形成“滾動擴張”,產能遷移會更快、更堅決,並對仍依賴 8 英吋、且擴產彈性弱的玩家形成持續壓力。但 300mm 並不等於“天然勝利”。另一邊,力積電(Powerchip)賣廠的選擇,恰恰揭示了 12 英吋時代的殘酷一面。2026 年 1 月,美光與力積電(PSMC)簽署 LOI,以18億美元現金收購台灣苗栗銅鑼 P5 廠區。這背後體現了二線廠商在周期波動與巨頭夾擊下的典型生存策略:現金流優先,擺脫低利用率下的重資產壓力。這座 P5 工廠是力積電耗資巨大建立的,據外媒報導,P5工廠的月最大產能為5萬片晶圓,但目前僅安裝了月產能約8000片的裝置,產能利用率僅約為20%。二線廠商最怕“折舊黑洞”。每年幾十億的裝置折舊足以吞噬掉 8 英吋線帶來的所有利潤。此時賣廠不僅可以一次性回籠現金、改善財務彈性,更重要的是,把長期的重資產負擔從報表中剝離出去。這筆交易不只是賣廠,雙方公告明確提到:美光將與力積電建立長期合作關係,包含 DRAM 先進封裝相關晶圓製造等合作方向。換句話說,力積電通過出售昂貴但低效率的資產,換取與全球 DRAM 龍頭的長期繫結,從賣產能升級為參與更高價值鏈的協作。這揭示了二線晶圓代工廠的宿命:在12英吋成熟產能加速擴張的時代,如果缺乏自有產品牽引與穩定利用率支撐,12 英吋產能本身並不天然等價於競爭力;相反,它可能成為財務與經營壓力的放大器。而力積電的選擇,更像是一種理性的騰挪——用資產置換彈性,用合作置換產業位置。對美光來說:這是一次用現金換時間、換產能、換供應鏈位置的戰略收購——目標是把 2027 以後 DRAM/HBM 時代的供給權抓在自己手裡。收購完成後,美光將接管 P5,並分階段匯入裝置、爬坡 DRAM 生產,預計 2027 年下半年開始產生“有意義的 DRAM 晶圓產出”。相比從零建廠:土建、潔淨室、環評、水電、人才、配套,時間線至少拉長 3–5 年。成熟工藝退潮中的中國機會:接住 8 英吋,押注 12 英吋台積電與三星逐步收縮 8 英吋產能,本質上是一場成熟工藝供給側的“退潮”——但對中國大陸晶圓廠而言,這反而打開了一個極其寶貴的窗口期:承接 8 英吋存量市場的再分配。隨著三星 S7 等舊線關停推進、8 英吋整體供給進入負增長,全球功率與模擬鏈條的可用產能變得更稀缺,海外客戶開始更集中地尋找替代產能,大陸頭部玩家由此獲得更強的訂單承接能力與議價空間。華虹 8 英吋長期維持 110%+ 的高負荷運行,中芯亦在成熟工藝周期裡實現價格修復——這說明所謂“8 英吋退出”,並非需求消失,而是供給格局重排,為大陸廠商帶來一輪難得的盈利彈性與客戶匯入機會。但真正決定勝負的還是12英吋:誰能把 8 英吋窗口轉化為 12 英吋特色工藝的規模化遷移能力,誰才有資格在下一輪成熟工藝周期中掌握成本曲線與客戶粘性。中芯北京/深圳、華虹無錫二期等 12 英吋擴產,其核心目標並不是簡單“加產能”,而是讓車規 IGBT、PMIC、BCD/HV 等原本依賴 8 英吋的關鍵品類完成“升艙”,用更大晶圓面積、更高自動化和更穩定的良率爬坡,把成熟工藝競爭從“搶存量訂單”帶入“重塑成本結構”的新階段。然而機會的另一面,是更尖銳的雙重擠壓:一是時間壓力——必須在8英吋紅利退潮之前完成12英吋特色工藝的良率與認證爬坡,否則訂單窗口轉瞬即逝;二是供應鏈壓力——在關鍵裝置、材料(尤其是 12 英吋矽片)仍受外部約束的現實下,擴產不再是“想擴就能擴”,供給安全將直接決定產能上限。同時,TI 等巨頭用 12 英吋成熟工藝規模化“捲成本”的趨勢,也在不斷拉低行業成本地板,逼迫大陸廠商不能停留在 8 英吋的價格競爭,而必須走向更高價值的特色工藝、平台化遷移與交付可靠性競爭。因此,中國大陸晶圓廠的破局策略應當更清醒:8 英吋要吃紅利,但不能戀戰;真正該押注的是 12 英吋特色工藝的“升艙遷移工程”——以 8 英吋高利用率作為現金流支撐與客戶入口,用長期框架鎖定遷移路徑,優先攻克可複製的 BCD/HV、功率與車規外圍組合,同時把關鍵材料與裝置約束前置到產能規劃之中,通過平台標準化與國產替代平行,把“窗口期訂單”轉化為“長期能力”。換句話說,這輪 8 英吋退出給大陸廠商帶來的,不只是訂單外溢,更是一張進入 12 英吋成熟工藝新秩序的門票。結語這場由 AI 巨浪引發的產能重構中,我們正目睹一場全球半導體版圖的“大交棒”:一是玩家的交棒,台積電與三星等巨頭正決絕地撤離成熟製程紅海,將 8 英吋的存量訂單與定價特權,移交給更具規模韌性的中國本土晶圓廠與中型代工廠;二是尺寸的交棒:成熟工藝正經歷從 8 英吋向 12 英吋的“升艙”質變,效率與成本的代際差,正在對舊有模式進行一場徹底的降維打擊;三是地理的交棒:產業重心正從過去三十年分散的全球化協作,加速交棒給以德州、亞利桑那為代表的本土製造簇群,供應鏈的安全感正在被物理距離重新定義。半導體歷史證明,每一輪產能告急的背後,都隱藏著生產力的殘酷迭代。對於身處變局中的廠商而言,2026 年的開端是一道分水嶺:巨頭們正在通過剝離與兼併封鎖未來的競爭高地;二線玩家在資產騰挪的陣痛中尋找生存縫隙;而大陸廠商則在升艙的賽道上,以前所未有的速度與時間賽跑。 (半導體行業觀察)