#AI算力
電子布供需警報拉響!AI算力競賽催生3000億材料市場,中國國產替代加速突圍
高端電子布的產能擴充速度正被市場需求碾壓,一場由AI算力引發的材料革命悄然到來。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位業內上市公司高管如是說。隨著AI伺服器需求爆發式增長,PCB產業鏈上游的高端原材料市場正掀起一波供不應求的漲價潮。石英電子布(Q布)作為AI伺服器提速的關鍵材料,其全球年需求預計已達1100萬米,而台光電子僅一家的備貨計畫就高達上半年月均50-100萬米,下半年進一步提升至150-200萬米。在AI算力硬體競賽的背後,一場關乎材料供應鏈主動權的爭奪戰已經打響。01 行業風向轉變:AI驅動高端電子布需求激增AI正重塑整個PCB產業鏈的價值分配。資料顯示,2025年第一季度全球資料中心乙太網路交換機收入同比激增54.7%。這種增長態勢沿著產業鏈向上傳導,最終作用於高端基材市場。“低端產品還未缺貨,AI相關的缺。”一位產業鏈人士指出。行業的核心矛盾是“低端過剩、高端不足”,這種分化格局使得相關企業業績表現冰火兩重天。以專業生產高性能電子布的宏和科技為例,其今年前三季度淨利潤同比增長近17倍,股價漲幅高達284.79%。高性能電子布的價格也隨需求水漲船高。據披露,低介電一代布價格是普通產品的6倍,二代和Low CTE產品價格仍在持續攀升。全球電子紗巨頭日東紡已在今年6月宣佈自8月1日起旗下玻纖產品價格全面調漲20%。02 技術革新驅動:從普通布到Q布的演進AI算力競賽對硬體傳輸速率提出了更高要求,推動PCB材料從M8向M9升級,其對低介電常數(Low Dk)電子布的需求變得愈發迫切。衡量電子布性能有兩個關鍵指標:介電常數(Dk)和介電損耗(Df)。這兩個數值越低,訊號在電路中傳輸時損失的能量就越少,傳輸速度越快。普通電子布的介電常數在6.0以上,而AI伺服器等高端應用則要求材料的介電常數降到4.6甚至更低。石英纖維布(Q布)作為第三代電子布,以其卓越的性能成為頂級訊號傳輸材料的解決方案。其主要成分是純度超過99.95%的二氧化矽,介電常數可低至3.0以下,介電損耗極小。輝達Rubin架構中,CPX部件(midplane、CPX板、網路卡板)、Rubin Ultra的78層正交背板等關鍵部位已明確將採用Q布。GoogleV8平台也可能考慮類似Rubin CPX的外掛形態以增強推理性能,這部分增量也會使用Q布。03 供應鏈格局生變:國產廠商強勢崛起Q布全球供應鏈高度集中,目前僅旭化成、信越、泰山、菲利華四家能夠供應。其中,大陸兩家企業預計將佔據最大市場份額,其次為旭化成和信越。在巨頭博弈中,國內企業正加速突破技術壁壘。菲利華作為全球僅有的兩家能量產石英纖維的企業之一,已將航空航天級石英纖維技術成功遷移至電子布領域,使其介電常數達到行業領先的2.2-2.3。該公司規劃了5000萬米/年的產能遠景,而當前行業總需求僅為約200萬米/年。菲利華作為全球唯一在石英電子布產業鏈實現從石英砂到織布四個環節全自主可控的企業,具備顯著的垂直一體化優勢。目前全球前20大CCL企業中,已有4家穩定採購菲利華的產品,另有7至8家處於小批次測試階段。中材科技在特種玻纖領域表現突出,其低介電玻纖布已實現量產,石英布也已通過國內外頂尖客戶認證。2025年第一季度,中材科技扣非淨利潤同比激增93.28%,毛利率觸底回升。宏和科技則在超薄、極細等高附加值產品上形成技術優勢,其高性能產品低介電一代、二代和低熱膨脹係數產品供不應求。04 市場前景展望:供需緊張或持續至2027年展望2026年,隨著1.6T速率資料中心交換機起量及輝達Rubin平台發售,AI PCB高頻高速趨勢將進一步明朗,石英電子布有望迎來需求放量元年。據預測,到2027年,僅AI伺服器和網路交換機兩大應用,就將催生出接近3000億元人民幣的特種電子布市場。然而,供給瓶頸依然突出。菲利華預計2026年出貨量可達1000萬米,僅台光一家就將貢獻約40%-50%的份額。 據此測算,僅石英電子布業務就將為菲利華帶來超10億元淨利潤增量。產能擴充面臨多重挑戰。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位行業內部人士坦言。 高端電子布的織布機主要依賴日本進口,裝置交貨周期長,進一步限制了產能擴張。認證壁壘同樣構成一道高牆。客戶認證流程通常需要2-3年時間,包括送樣、小批次試產和批次生產三個階段,輝達、台積電等知名企業對供應商的篩選極為嚴格。基於這些制約因素,業內專家預測,這輪高端電子布缺貨潮可能持續到2026年第三季度,到2027年才會陸續有所緩解。05 投資邏輯與風險:聚焦龍頭企業的訂單與產能在AI驅動PCB材料升級的背景下,投資者應聚焦龍頭企業的訂單和產能情況。對於菲利華而言,其關鍵驗證點在於2025年第四季度台系CCL廠30萬米/月訂單的落地情況,以及輝達的認證進度。隨著訂單爆發和產能躍進,菲利華的業績有望實現顯著增長。中材科技雖然估值安全邊際高,但需要觀察其石英布營收佔比是否能超過5%,以及提價傳導能力。 該公司受益於全球龍頭日東紡的價格上漲20%,已靈活調整定價策略,有望實現價格跟漲。風險方面,投資者需警惕產能過剩和技術替代等潛在風險。 若菲利華的產能擴張導致價格鬆動,或其他企業的認證超預期,市場競爭格局可能生變。此外,AI伺服器出貨量不及預期、輝達GPU產品發售節奏放緩等因素也可能影響行業發展速度。隨著AI算力需求不斷攀升,高端材料市場的供需天平正在傾斜。日本日東紡等巨頭已宣佈漲價20%,台光電子等下游廠商則在為Q布做高強度備貨準備。在可預見的未來兩年內,高端電子布的供應緊張狀況仍將持續。對於那些已突破技術壁壘、具備產能先發優勢的國內企業來說,一個歷史性的發展機遇正在眼前。 (吐故納新溫故知新)
摩爾線程重磅發佈:新一代GPU架構“花港”能效提升10倍,系列晶片明年量產上市,推出AI算力筆記本
國產GPU廠商摩爾線程發佈新一代GPU架構"花港",並宣佈基於該架構的系列晶片將於明年量產上市。這是這家"國產GPU第一股"在技術路線上的重要升級,旨在提升本土AI算力供給能力。12月20日,摩爾線程創始人、董事長兼首席執行長張建中在公司首屆MUSA開發者大會上宣佈,基於"花港"架構的華山、廬山系列晶片將於明年量產上市。據介紹,新架構採用全新一代指令集,算力密度提升50%,能效提升10倍,並支援十萬卡以上規模智算叢集。張建中表示,當前大模型推理仍面臨迭代高速化、服務極致化、模型複雜化三大挑戰。為此,"花港"整合了全精度端到端加速技術和新一代非同步程式設計模型,以提升智算叢集的算力利用率。在同場發佈會上,摩爾線程還推出首款AI算力筆記本MTT AIBOOK,搭載自研智能SoC晶片"長江",32GB、1TB版本預售價9999元。新架構性能大幅躍升"花港"架構在計算和圖形性能上實現多項突破。據張建中介紹,該架構採用全新一代指令集,支援非同步程式設計模型和高效的線程同步,算力密度提升50%,能效提升達10倍。基於該架構的"華山"GPU晶片,在浮點算力、訪存頻寬、訪存容量和高速互聯頻寬方面,取得了多項領先甚至超越國際主流晶片的能力。這標誌著國產GPU在高性能計算領域的技術進步。針對圖形渲染場景,基於"花港"的"廬山"高性能圖形渲染晶片,將實現3A遊戲渲染15倍的提升,AI性能提升64倍,光線追蹤性能提升50倍。該晶片除支援遊戲體驗外,還支援所有CAD等圖形設計渲染應用。據介紹,"花港"架構還擁有全新第一代AI生成式渲染架構(AGR)和第二代光線追蹤硬體加速引擎。軟體生態全面升級在硬體架構升級的同時,摩爾線程宣佈自研MUSA架構迎來全端軟體升級。張建中表示,MUSA架構完美支援全功能GPU計算生態,擁有完備的軟體棧和廣泛的生態相容,統一軟體棧覆蓋全系列產品。張建中強調,全功能GPU的創新就是一部算力進化史,"全功能"意味著其能夠計算所有的資料單元和格式。這一能力對於支援日益複雜的AI模型和多樣化的應用場景至關重要。首款AI算力筆記本亮相摩爾線程在大會上發佈了AI算力筆記本MTT AIBOOK,目前已在京東開放預售。該筆記本搭載摩爾線程自主研發的智能SoC晶片"長江",整合高性能全大核CPU和摩爾線程全功能GPU,支援MUSA統一架構,異構AI算力達50TOPS。該筆記本集開發、辦公、娛樂等功能於一體,支援Windows虛擬機器、Linux、Android容器以及所有國產作業系統。32GB記憶體、1TB儲存版本預售價9999元,面向AI開發者和專業使用者市場。 (華爾街見聞)
1.4 兆美元算力帳:OpenAI 還沒獲利,Sam Altman 怎麼付?
一家還沒獲利的公司,準備花掉1.4 兆美元。不是估值,不是估算,而是CEO Sam Altman 親口確認的承諾:我們會在很長一段時間裡,把這筆錢花完。就在最近這一周,OpenAI 動作頻繁:12月18日,推進新一輪融資談判,規模數百億美元、估值7500 億美元;12月16日,ChatGPT 上線全新圖像模型和App 生態平台;同期還發佈了AI 在科學任務上的推理能力評估報告。(Sam Altman 訪談片段: ChatGPT下一步該做什麼?)2025 年12 月19 日,Altman 在新一期播客中回應了外界最大的質疑:一個現金流還沒轉正的公司,憑什麼敢為AI 基礎設施砸下1.4兆?他給了一個出乎意料的答案:如果我們現在有兩倍算力,我們就能賺兩倍的錢。這句話背後,藏著OpenAI 對AI 商業化的全套邏輯:錢怎麼來、怎麼花、何時能獲利。而Altman 這次,把這套邏輯講得異常清楚。第一節|虧損1200億美元,為什麼越花越多?從財報數字來看,OpenAI 確實還在虧損。在訪談中,Sam Altman 承認:我們預計從現在到2028/2029年之間,將會虧損約1,200 億美元。這是什麼規模?作為對比,特斯拉從2003 年成立到2020 年首次實現年度獲利,花了17年時間。 OpenAI 預計4 年虧損1200 億,每年平均虧損300億美元。這是一場前所未有的資本押注。但Altman 並不認為這是問題。他給了一組具體資料:OpenAI 目前每天前沿模型的生成量,大約是10兆個token。這是什麼概念?一本10萬字的書大約是13萬個token,10兆token相當於每天產生7700萬本書的文字量。這個數字還在以每年3 倍的速度成長。每次基礎設施擴容,就能直接換來更高的服務能力、更快的產品上線速度和更強的付費意願。因此,這不是一家沒錢賺的公司,而是一家錢來不及賺的公司。OpenAI 的主要業務收入來自三個部分:ChatGPT 使用者訂閱;企業版API 呼叫;面向大客戶的模型客制化服務。其中最讓Altman 感到興奮的是第二項:API 成長已經超過ChatGPT本身的成長速度,企業客戶正成為OpenAI 的主要收入來源。目前,OpenAI 已擁有超過100 萬家企業使用者,透過API 將模型連接到客服、財務、搜尋、程式設計、資料分析等多個環節。更關鍵的是,這些客戶使用的不是對話,而是一個任務區塊:寫程式碼、產生分析、總結檔案。任務越多,算力消耗越大,收入越高。Altman 舉了個例子:企業員工一小時的工作,可能包括做PPT、寫指令碼、看材料。只要有70%的任務被模型完成,就是實實的降本提效。這就是OpenAI 正在算的帳:不是按人數算訂閱費,而是以任務量算力消耗;不是在意每月續費率,而是專注於每個任務背後提升多少效率。所以,他才會下判斷:訓練支出繼續成長沒關係,重要是推理收入會漲得更快。當然,這套帳也有風險:基礎建設投入已經遠超現階段營收,必須靠資本市場支援持續擴張。但Altman 相信:模型在變得更好,需求變得更大。這是典型的AI 時代獲利模式之一:先投算力,收入隨後成長。第二節|面對競爭,OpenAI的護城河是什麼?算力換收入的邏輯聽起來很美,但前提是OpenAI 必須一直跑在前面。過去一年,從DeepSeek 到Gemini,再到Claude、Mistral、Grok、Qwen,競爭對手接連出現。而OpenAI 的應對是:快速反應,持續推出新品。最近,他們連續推出三項關鍵更新:新影像模型GPT Image 1.5,上線更快,細節更準;ChatGPT開放app提交入口,打造模型版App Store;FrontierScience研究成果上線,AI成為科學家的研究助理。Altman 一直在強調一件事:真正的風險不是模型被超越,而是使用者不用它。這就是他最常說的字:黏性。他提到了幾個例子:有人把血液檢查報告丟給ChatGPT,它讀懂了,提出初步判斷,使用者去醫院確認,發現確實是之前沒查出的病症;有人開始和ChatGPT聊生活、做規劃、定行程,它能記住細節,持續跟進,並提出建議;有人用它解構複雜文件,有人用它做企業報告,有人只讓它早上列個待辦清單。這些行為有個共同點:不是測試模型好不好,而是讓它真正幫你完成任務。當你習慣了ChatGPT 記住你的偏好、理解你的表達方式、知道上次聊到那裡,切換到其他產品的成本就會變得很高。這就是ChatGPT的護城河所在:習慣、一致性和個人經驗所累積的信任感。在企業側,這個護城河變成了另一個維度:個性化能力。第一節講了企業能帶來多少收入,但問題是為什麼他們會留下來?Altman 說:企業需要的不是聰明模型,而是能連結自己資料、完成自己任務、理解自己流程的AI 工具。它可能是客服助手,也可能是法務審查器,甚至是每天早上把管理郵件歸納好再發通知的智慧助理。ChatGPT 企業版的目標,就是讓這些個人化AI 工具運作在一個平台上,連結不同部門、流程和任務。 OpenAI 面向未來建構的真正產品形態:不是大模型,而是企業級AI 入口。而在企業應用這條路上,Google 是最大的威脅。Altman 不否定Google 的實力。他甚至說:如果Google 在2023年一開始就認真對待我們,我們可能就完了。但他也指出了Google的問題:把AI 塞進搜尋框裡,不如重新設計一個AI 優先的入口。他認為,AI 不是功能外掛,而是一種全新的互動方式。你不應該再找某個東西,而應該告訴AI:這是我今天要解決的事。它聽懂了,就去做,不需要你重複輸入指令、點選圖表、切換介面。這不僅是ChatGPT 的方向,也是在定義下一代軟體是什麼。OpenAI 不急著回應每一次跑分。他們關心的是:使用者是否把ChatGPT 當作生活工具;企業是否用它接住任務流程;一家公司是否已經開始圍繞它重建工作流程。技術可以被超越,習慣很難被取代。這,就是Altman 所理解的護城河。第三節|1.4 兆要買什麼?這不是一個隨口報出的數字。在訪談中,Sam Altman 反覆講了幾次:我們計畫在未來很長一段時間內投入約1.4兆美元。前面我們拆解了收入從那裡來,那麼:這筆錢到底花在那裡?1. 這筆用來買什麼?這筆支出大致分為四類:晶片,如NVIDIA的H100、B100或自研方案,用來訓練和運作最先進的模型;資料中心,需要全新建設的AI工廠,不是傳統雲端運算中心,對頻寬、電力和散熱的要求都極高;網絡,連接全球模型推理的骨幹網絡,要確保延遲極低、吞吐極高;能耗,大量GPU同步工作,背後需要穩定且便宜的能源配套。即便如此,Altman 認為仍然不夠:我們的擴張速度已經快到,即使現在就把這些基礎設施建好,也永遠不夠用。2. 為什麼現在就要花?很多人會問,未來五年模型還在變,技術還不穩定,為什麼現在就提早花掉這麼多?Altman 說:不是我們想提早花,而是市場已經等不及了。原因有三:基礎建設周期太長一個資料中心從規劃到投入使用需要2-3年,晶片訂單要提前18個月鎖定,電力配套甚至要提前5年佈局。如果等到需求爆發再建,根本來不及。市場需求正在快速爆發從一年前到現在,OpenAI 的算力擴張了3倍,明年還要再擴3 倍。收入也跟著漲。這是一種算力先行、收入追趕、效率遞增的模式。越早買算力,越早釋放成長。更關鍵的是,競爭對手都在搶同樣的資源NVIDIA的H100、B100供不應求,資料中心的電力配額有限,優質機房更是稀缺。不提前鎖定,別人就搶走了。一句話總結:OpenAI 不是在投資未來,而是在解決現在問題。3. 回本邏輯是什麼?花了1.4兆,成本怎麼變?Altman 的判斷是:未來訓練會越來越省錢,推理也越來越快。OpenAI 的策略是:用一套訓練好的通用模型,支撐多個終端業務。訓練一次,部署多次,推理規模越大,單位成本越低。透過ChatGPT、企業API、代理系統等通道,把token 消耗轉化為真實收入。這是典型的前期重投入、後期低成本模型:先建廠,再接單。Altman 也被問到另一個爭議問題:如果模型進度放緩怎麼辦?他的回答是:「即便模型停在o1-5.2,能做的事情還遠未被挖掘。光是用好現在的模型,就足以支撐一個5000億美金的公司。如果未來模型繼續提升,回本速度只會更高。”在資本上,他認為舉債投資AI 是合理的。 OpenAI 不是靠模型會更強這件事融資,而是現在就能產生的使用量、顧客需求和token消耗。不是靠講故事,而是靠算帳。所以這筆1.4兆,表面是買晶片、買電力,本質是在提前鎖定全球AI算力的供給能力。 在科技巨頭都在爭奪AI 入口的今天,誰能提前建好基礎設施,誰能決定未來的遊戲規則。第四節|ChatGPT 的終極型態是什麼?前三節講的都是錢和算力,但最後要做什麼產品?在大多數人眼中,ChatGPT是個聊天工具。但Altman 每天用它做的,遠不止聊天:安排行程、確定見誰、規劃健身計畫。他說,ChatGPT 已經幫他做了很多他自己都沒注意到的事情。這就是OpenAI 想要的轉變:從被動回答問題的工具,變成主動幫你辦事的助理。這個轉變分三個方向:1 、從記住對話,到記住你的人生第二節提到記憶是使用者黏性的來源,但Altman 認為現在還遠遠不夠。他說:ChatGPT 的記憶能力現在還停留在GPT-2 階段。它能記住一些偏好,能保持上下文,但遠遠達不到真正理解你的水平。下一步呢?未來的AI 不只記住你說過的話,而是瞭解你沒說出口的偏好,懂你長時間的變化,甚至可以主動提醒、提問、跟進。我們對記憶的潛力還完全低估了。就算是人類最頂尖的私人助理,也不可能記住你生活中每一封郵件、每個細節。而AI 可以。2 、從被動回應,到主動處理Altman 對現有AI 互動方式並不滿意。“我不想每天發訊息、等總結、看草稿。我想直接告訴它今天要完成什麼事,能搞定的別來煩我。”這是一種完全不同的使用方式:不是你問我答,而是你交給我辦。為了實現這個目標,OpenAI 正在佈局多條產品線:Code Interpreter可以執行複雜的資料分析任務;AI瀏覽器幫使用者自動讀取網頁、理解內容、產生摘要;Agent原型可以長時間運作、自動喚起其他工具,逐步接管日常事務。關鍵是:你不用時時盯著它。3、不只是螢幕上的對話框在訪談最後,Altman 被問到關於硬體設備的問題。他沒有透露太多細節,但給了一個明確的方向:“我們未來不會只有一個設備,而是多個產品組合。這些產品要能感知你、理解你、主動服務你,而不是等你輸入命令。”這其實就是OpenAI 與硬體團隊(Jony Ive)正在推進的硬體專案。它不一定是手機,不一定有螢幕,但它會主動記錄你說的內容,透過語音或感知理解你的行為,不再讓你像用電腦一樣點開視窗、切換App。現在人們接受了聊天介面是因為它簡單、熟悉,但未來不同類型的任務,AI 應該能自己產生適合的互動方式。例如:你和它討論旅行,它自動展示地圖;你談健康計劃,它產生日曆與飲食建議;你說今天幫我規劃一下,它整合前幾天的對話和習慣,給出主動安排。從記憶、執行、再到硬體,OpenAI 要做的不只是更強的模型,更是改變AI 在人類生活中扮演的角色:從被動回答問題,變成主動協助;從通用工具,變成你的個人化助手;從你使用它,變成它代你做。未來很多人不會再單獨處理任務,而是管理一群AI 幫手。在 Altman 設想裡,ChatGPT 不再只是一個產品,而是能協調其他AI 工具的中樞系統。它會收集指令、分配任務、總結結果、決策提醒。1.4 兆,買的就是這個未來。結語|這筆帳,怎麼付?Sam Altman 給了一套完整的帳本:用算力換收入,用收入涵蓋成本。怎麼做?算力每翻倍,收入就翻倍;透過用戶粘性和個性化,確保持續收入;提前投入基礎設施,確保算力夠用;從聊天工具到AI 作業系統,擴大營收成長空間。1.4 兆聽起來很瘋狂,但拆開看,每一筆都有對應的變現路徑。能不能付得起? OpenAI 用實際成長給了答案:收入確實在跟著算力跑。至於能跑多遠,時間會證明。 (AI深度研究員)
從寒武紀到沐曦,超1.5兆算力軍團,誰是背後隱密捕手?
AI算力上市潮中,誰是幕後最大贏家?這家「獨中四元」的機構,如何用十年完成這場精準伏擊?答案都在這裡。2015年,當深度學習演算法在ImageNet競賽中一鳴驚人時,大多數人看到的是AI應用的曙光,而聯想創投看到的,是一場即將到來的、更為底層的算力革命。十年後,當沐曦股份在科創板上敲響鐘聲,一個完整的拼圖終於呈現:隨著寒武紀、海光資訊、摩爾線程、沐曦這四家AI算力領軍企業全部登陸公開市場,聯想創投作為唯一一家同時重倉四家的投資機構,其長達十年的產業謀局,終於迎來了系統性的收穫期。更值得關注的是,回顧2016年至今在A股上市的科創企業中,市值曾超過5000億的公司僅五家,而聯想創投便捕捉了其中的三家:寧德時代、寒武紀,以及海光資訊。寒武紀、海光訊息,再加上摩爾線程、沐曦股份,僅這四家科創板的AI算力公司的市值總計已經超過1.5兆人民幣(以當前市值計算)。洪荒時代的“冒險者”時間撥回2017年。 AI晶片在中國還停留在實驗室論文和少數巨頭的內部專案。市場上最炙手可熱的是O2O和共享經濟。就在這個時間點,聯想集團提出了「端-邊-雲-網-智」的新IT策略藍圖。在這張藍圖中,聯想創投扮演著「科技瞭望塔」的角色。他們很早就形成了一個核心判斷:智慧世界的萬物生長,都依賴一顆強大的「心臟」——算力。未來的大運算將由應用程式驅動,從雲端的資料中心到邊緣的智慧型設備,對算力的需求將在十年內成長百倍。然而,這顆「心臟」的形態將發生根本性變革:它不再只是中心化、通用化的,而將變得多元化、專屬化,並無所不在。正是基於這超前的產業洞察,聯想創投沒有隨波逐流,而是在AI算力尚處洪荒時代時,便開始了系統性佈局。投資,尤其是早期投資,最忌諱的是盲目類比和追逐風口,獨立思考才是關鍵。2017年,當AI晶片對大多數人而言還是個實驗室概念時,聯想創投集團總裁、管理合夥人賀志強在中國科學院第一次見到了寒武紀創始人陳天石。賀志強回憶,陳天石“話不多,典型的技術天才氣質”,但交流下來發現他兼具商業頭腦。儘管內部對當時寒武紀的估值曾有猶豫,但聯想創投看中了其最根本的價值:它是市場上極少數從底層指令集和晶片架構層面,為人工智慧原生設計的先驅。其MLUarch™架構,為處理AI典型負載提供了更高效率的可能性。於是,聯想創投果斷從A輪(當時估值約45億人民幣)進入,此後連續追加三輪投資,成為陪伴寒武紀穿越周期的重要股東。即便在寒武紀股價一度低迷時,聯想創投也一股未賣,選擇做時間的朋友。在接下來的幾年裡,我們看到了一張清晰的時間表:2018年,寒武紀B輪,繼續加註。2021年,產業轉捩點初現。聯想創投在這一年密集出手:策略性投資海光資訊(當時估值約300億人民幣),投資沐曦A輪(當時估值約40億人民幣),押注摩爾線程A輪(當時估值約45億人民幣)。2025年,在沐曦衝刺上市前,再次參與其C輪融資。「2021年那波投資,在外界看來可能像追風口。」聯想創投曾在內部分享,“但對我們而言,只是邏輯的必然兌現。我們看到了大模型的前夜,看到了從科研到產業對算力需求的質變。”一張「互補」而非「互替」的技術拼圖獨中四元,秘訣不在於押注了同一個賽道的多個選手,而在於構建了一個彼此咬合、功能互補的算力「軍團」。寒武紀是「特種部隊」 。它的思元(MLU)晶片如同為AI計算量身定製的精密儀器,在智能處理效率和能效比上追求極致。當通用GPU因其龐大而複雜的圖形遺留架構顯得有些「笨重」時,寒武紀的專用路徑在特定場景下展現出尖銳的一面。寒武紀思元370海光資訊則是「主力軍團」 。它選擇了一條務實且生態友善的路徑:其CPU相容於龐大的x86軟體世界,讓企業遷移成本降至最低;而其深度運算處理器(DCU),則致力於為現有的高效能運算應用提供平穩的「遷徙之舟」。它解決的是“可用”到“好用” 的平滑過渡問題。最有趣的佈局在GPU領域。聯想創投在這裡下了「雙軌注」。摩爾線程要做的是“全功能GPU” 。其「MUSA」統一架構的野心,是同時駕馭圖形渲染、視訊處理、科學計算和AI訓練。它的產品從遊戲顯示卡延伸到資料中心運算卡,旨在打造一個從個人體驗到企業應用的完整國產GPU生態。它更像一個「多面手」。2022年3月30日,摩爾線程發布第一代MUSA架構GPU而沐曦,則是不折不扣的「攻堅者」。它聚焦一點:面向資料中心與高效能運算,打造純粹為AI訓練與推理優化的高效能GPU。其自主研發的XCORE架構,一切設計都指向一個目標:更高的算力密度和更優的能效比。它是為攻克最嚴峻的計算堡壘而生的「精銳武器」。在2025世界人工智慧大會上,沐曦正式發布了基於國產供應鏈的旗艦GPU曦雲端C600“投資不是選冠軍,而是組建一支最好的球隊。”一位科技產業分析師如此評價,“聯想創投的這四筆投資,就像組建了一支擁有頂級前鋒、中場、後衛和門將的球隊。他們各司其職,共同應對未來算力戰場複雜多變的挑戰。”事實上,聯想創投在AI算力領域的視野遠不止這四家明星企業。過去十年來,其投資版圖早已延伸至更廣泛的算力邊疆,形成了一個更龐大的支撐網。例如,他們投資了專注於高階通用CPU的此芯科技,佈局了推動算力普惠化的AI編譯與平台公司無問芯穹,以及探索存算一體等顛覆性架構的後摩智能等。這些投資與四家領導企業一同,構成了一個從底層晶片、到核心加速器、再到上層軟體與解決方案的立體化算力投資矩陣。這張矩陣的搭建並非一蹴而就,它源自於長期堅持的產業研究,以及一個堅定的信念:未來的智慧世界,需要的是一個多元化、專屬化、能靈活組合的算力工具箱。聯想創投所做的,正是在產業爆發前夜,就提前為這個工具箱收集並打磨好了最關鍵的那幾件「王牌工具」。CVC的「雙向賦能」魔法如果故事止於精準的投資眼光,那這只是一個優秀的財務投資案例。聯想創投作為聯想集團旗下的全球科技產業基金(CVC),其真正的魔法在於「雙向賦能」。想像這個場景: 一家新創晶片公司,設計出世界級的晶片,但面臨的是「雞生蛋還是蛋生雞」的困境:沒有大規模應用,就無法迭代優化;沒有優化,就難獲客戶青睞。聯想創投,恰好能打破這個僵局。以寒武紀為例,其AI晶片從實驗室樣片到穩定可靠的商用產品,需要經歷嚴苛的工程化與場景驗證。聯想將其成功整合到自家伺服器中,在真實的智慧城市交通流分析、醫院醫療影像篩檢等複雜場景中長期運作。這種來自第一線客戶的、高強度的回饋循環,對於一家晶片新創公司優化其設計、驅動其迭代而言,價值遠超過一筆孤立的訂單。同樣,海光資訊的CPU和DCU產品,被應用於聯想多類高效能運算叢集方案中,去處理天文物理模擬、量化金融建模等世界級的算力難題。這種在最嚴苛環境下的“實戰測試”,是金錢難以購買的信任票。在最炙手可熱的GPU領域,綜效則展現得更為立體。摩爾線程的全功能GPU,透過與聯想高端遊戲本和工作站的深度適配與聯合調優,得以在真實的創意生產(如8K視頻渲染)和娛樂場景中證明自己的相容性與性能,這為其切入更廣闊的消費與商用市場鋪平了道路。而聯想與沐曦的合作則更進一步,直接瞄準了當下最迫切的企業級需求——雙方聯合推出了「DeepSeek國產AI一體機」解決方案。這台設備將沐曦的高效能GPU、聯想可靠的伺服器硬體,以及優化過的大模型軟體棧深度融合,打包成一個開箱即用的算力產品,直接交付給那些渴望部署私有化大模型卻又缺乏技術整合能力的企業客戶。這標誌著協同從「零件供應」升級到了「聯合定義產品、共創解決方案」 的新層次。這一切協同的最終成果,是一個典型的「1+1>2」的生態共贏。對於被投資企業而言,它們縮短了充滿不確定性的市場驗證期,並藉助聯想的全球資源加速實現了技術的規模化落地。對聯想集團而言,這些最前沿的算力技術則源源不斷地反哺其從「端」到「雲」的全端產品線,使其在AI時代保持了底層技術的競爭力和解決方案的主動權。實際上,這早已經超越了簡單的投資關係。聯想創投帶來的不僅是商業機會,更是從產品定義階段就開始的共同研發,以及基於大量客戶回饋的快速迭代通道。望向更遠的“地平線”集齊四張「王牌」的聯想創投,並沒有停下腳步。他們的投資版圖,已悄悄延伸至可能在未來十年顛覆遊戲規則的下一代運算範式。這支探索艦隊的航向是多元的,但目標一致:突破經典「馮諾依曼體系」的固有瓶頸。其中,量子運算被視為可能帶來指數級算力飛躍的「革命性變數」。聯想創投在此領域佈局瞭如華翊量子、圖靈量子等公司,前者專注於離子阱技術路徑,後者探索光量子計算等多元方案。儘管商用化道路漫長,但提前卡位意味著在「第二曲線」上擁有理解與話語權。而在現有的半導體生態中,一場以開放、靈活為旗幟的架構變革正在發生,這就是RISC-V。聯想創投投資了進迭時空等專注於RISC-V架構高效能CPU研發的企業。這條路徑的意義在於,它試圖在確保性能領先的同時,構建一個從底層指令集開始就更開源的計算底座,為未來的算力基礎設施提供一種全新的、不受傳統生態束縛的選擇。投資清程極智這類企業,則意味著聯想創投正在關注那些從根本上重構計算邏輯的可能性。這些技術目前大多處於實驗室轉化為產業的早期,風險極高,但其顛覆性潛力也同樣巨大。這些看似分散的前瞻性投資,共同勾勒出聯想創投對未來運算技術的全景思考。從十年前在會議室勾勒算力革命的藍圖,到如今四家被投企業齊聚科創板,聯想創投完成了一次典型的「產業CVC」 的長跑示範。透過聯想創投,我們可以見到,在硬科技投資這場需要極度耐心與定力的馬拉松中,最大的獎勵不僅屬於能預見風口的人,更屬於那些能紮根產業、建構生態、並與創新者並肩跨越從技術到市場「死亡之谷」的長期夥伴。而這場關於算力的故事,才剛翻開下一篇章。 (創業邦)
中國算力的開放時刻:超節點邁入萬卡紀元
日前,在崑山的人工智慧創新大會(HAIC 2025)上,中科曙光展示了首個中國萬卡級AI超叢集-scaleX 萬卡超節點真機。這是中國AI算力史上的一個標誌性時刻,超節點真正意義上邁入萬卡紀元。Scale X萬卡超級群的落地,不僅是一次超節點技術的權利交接,更是中國AI算力基礎設施在發展路徑上給出的新答案。超節點之始三年前,國內的AI 算力體系基本上都得靠輝達,不管是GPU 加速卡、NVLink 高速互聯技術,還是CUDA 軟體棧,都是NV的東西。這套方案幾乎成了行業默認標準,也讓整個產業鏈對這一家供應商的依賴越來越明顯。轉折點就出在輝達晶片的出口限制上。高階GPU 一缺貨,再加上CUDA 生態不對外開放、NVLink 技術也不給授權,國內廠商這下不得不琢磨一個現實問題:要是沒了輝達,我們自己能搭起什麼樣的算力體系?最先給出答案的是華為,它走了一條「全端自研」 的路,從底層晶片、互聯技術,到上層框架軟件,全都是自己研發的。後來橫空出世的384 超節點,也延續了這種縱向一體化的思路,晶片、通訊協議、操作系統和框架生態全是自研。靠著系統層面的高度一致性,它的效能相當能打:通訊延遲只有2.1 微秒,單機櫃算力達到300PFlops,PUE 還能穩定在1.1 左右。單看這些參數,確實能和輝達掰手腕。不過和輝達一樣,華為也選擇了「封閉自洽」 的路線。這種模式雖然能把資源效率拉滿,技術把控力也強,但短板也很突出:生態相容性比較受限,整個產業的協同推進速度也會慢一些。走向岔路口在全球AI 算力領域,超節點被視為下一代智慧計算的核心單元。它可以把幾十、幾百甚至上萬張AI 加速卡,整合為一個統一的邏輯節點,將通訊時延壓縮到微秒等級,以此突破傳統算力叢集的通訊瓶頸。這樣的技術優勢,也吸引了許多行業巨頭入局佈局。 2025 年下半年,阿里、浪潮、曙光就先後推出了各自的超節點產品。這三家廠商選擇的技術路線,和華為有所不同。它們以「開放架構」 為核心,走出了一條全新的道路,致力於打造屬於中國的AI 算力底層基礎。其中,發佈時間相對較早的浪潮“元腦SD200” 和阿里“磐久128”,共同搭建起了國產開放架構體系的雛形。浪潮這款產品主打多品牌GPU 異構計算,還創下了8.9 毫秒生成token 的亮眼紀錄;阿里的產品則依靠開放協議整合不同互聯標準,成功搭建出「雲超節點」。而中科曙光在HAIC 大會上推出的scaleX 萬卡超節點真機,也是備受矚目。此系統由16 個scaleX640 超節點互聯組成,總共部署了10240 張AI 加速卡,總算力突破5EFlops。它搭載的自研scaleFabric 高速網絡,帶寬能達到400Gb/s,端側延遲不到1 微秒。同時,曙光採用浸沒相變液冷技術,將單機櫃的PUE 壓低至1.04,堪稱名副其實的算力巨獸。更關鍵的是,這款產品不繫結任何單一晶片廠商。 scaleX640 能夠相容於寒武紀、壁仞、登臨等多個品牌的加速卡,並且已經適配了400 多個主流大模型和AI 框架。這也意味著,中國的AI 算力真正具備了「多晶片共存」 的能力,實現了算力生態的多元化發展。去輝達化隨著國產算力廠商的集體突破,「去輝達化」 早已不是一句口號,而是中國保障算力安全、推進自主創新的共同需求。從2023 年起,美國多次收緊對華高性能GPU 的出口限制,A100、H100 等主力型號相繼被列入管控清單,輝達的超節點NVL72 也是在限制之內。儘管近期美國政府對部分型號的限售政策略有鬆動,但覆蓋範圍也僅限於H 系列。再加上先前有消息指出輝達晶片可能存在安全後門,相關的安全風險進一步凸顯。這一系列變化,倒逼中國AI 產業加速尋找替代方案。但我們的核心目標,不是簡單再造一個類似輝達的企業,而是要搭建一套具備可替代性的完整算力生態系統。目前來看,國內已經湧現出兩套頗具代表性的發展路徑:一條是走封閉全棧的縱向整合路線,以華為昇騰為典型代表;另一條則是主打開放協同,像曙光、浪潮、阿里這些企業都在這條賽道上發力。在落地應用層面,各家的產品也已嶄露頭角。華為的CM384已經發貨很多套,在貴州的數據中心正常使用運營;浪潮的SD200 已經在多個模型推理平台實現商用,成為DeepSeek 與Kimi 等大模型的重要算力支撐;阿里的磐久128 在雲端搭建起大規模叢集,承擔起多模型協作的基礎設施角色;更是已經落地上海、杭州等地的智算中心,也被納入國家級算力調度工程的採購清單。更值得關注的是,開放路線的推進,也帶動了國產晶片的大規模落地應用。曙光的scaleX 體系已經完成了對壁仞BR 系列、登臨、寒武紀MLU 等多款國產加速卡的適配,浪潮和阿里也在為本土GPU 提前預置驅動環境。這意味著,國內的算力基礎設施不再依附於單一的輝達生態,轉而形成了以中國廠商為核心的開放式協作系統。“過去幾年大家都在埋頭造芯,現在終於有地方能讓這些晶片真正跑起來了。” 一位業內人士這樣感慨,“這其實比單純拿到訂單更有價值,它標誌著中國AI 算力體系開始具備自我造血的能力。”2025 年,堪稱中國AI 算力體系發展的「拐點之年」。封閉路線憑藉其技術優勢,佔據著性能高地,代表著極致的算力表現與可靠的可控性,在特定場景中具備不可替代的價值;開放路線則貼合產業發展的現實需求,有力推動了算力普惠與生態繁榮,為行業帶來了更多可能性。國內算力產業的發展邏輯也在悄悄轉變:不再是單一維度的表現比拚,而是更注重不同晶片的高效協同;不再是不同體系間的孤立較量,而是趨向於多元生態下的共生共贏。中國AI 算力的未來,很可能就藏在這兩條路線的共存與平衡之中,被重新書寫與定義。 (傅立葉的貓)
AI算力“逃離地球”?Google宣佈“追日者”計畫,2027年擬在太空部署AI資料中心
Google提出“太空資料中心”設想,試圖以太陽能驅動的衛星叢集緩解AI算力與能源瓶頸。但高昂成本、維護困難、軌道碰撞與監管缺失構成重大挑戰。在微軟水下項目受挫後,這一計畫更像對AI無限擴張的激進押注。Google正在嘗試一項突破性的基礎設施實驗,計畫將高能耗的AI資料中心轉移至太空,以應對地面電力短缺和規劃受阻的瓶頸。據英國《金融時報》17日報導,Google披露了名為“Project Suncatcher”的計畫,旨在建構一個由太陽能驅動的太空資料中心原型。該項目並不是建立一個單一的軌道巨石,而是由81顆搭載AI晶片的衛星組成的叢集,它們將在太空中協同飛行並處理資料。作為該計畫的第一步,Google將與衛星公司Planet合作,預計於2027年向近地軌道發射兩顆原型衛星。此舉的核心邏輯在於利用太空獨特的環境優勢——特別是太陽同步軌道提供的近乎恆定的太陽能,以及免除在地面建設所需的土地和水資源。對於投資者而言,這釋放了一個明確的訊號:儘管面臨物理世界的限制,科技行業仍試圖證明AI具備無限的可擴展性。如果Gemini等AI模型的查詢能夠在太空中處理並將結果傳回地球,將徹底改變算力基礎設施的成本結構與能源依賴。然而,這一宏大構想正面臨嚴峻的技術可行性與經濟性拷問。在微軟此前結束其海底資料中心項目(Project Natick)後,業界對極端環境下資料中心的維護難度與成本效益持謹慎態度。除了高昂的發射與維護成本,太空環境的輻射、碎片撞擊風險以及日益擁擠的軌道交通,都為這一“上天”計畫的前景蒙上了陰影。01 逃離地球:Google的“追日”計畫根據Google研究人員上個月發佈的預印本論文,Project Suncatcher設想在距離地球約650公里的太陽同步軌道上運行。該軌道能夠確保通過衛星搭載的太陽能電池板獲得近乎不間斷的電力供應,從而為高能耗的AI負載提供動力。與傳統地面資料中心不同,這一架構依賴於衛星群的協同工作。這些衛星不僅要處理計算任務,還需要在高速飛行中保持通訊。這一方案旨在規避地面資料中心面臨的諸多障礙,包括日益複雜的規劃審批程序、當地社區的反對,以及現有電網無法滿足AI極速擴張帶來的巨大能源缺口。據行業估算,AI所創造的能源需求已難以在地球現有的資源邊界內得到滿足。02 太空雷區:擁擠軌道的碰撞風險與技術挑戰儘管太空提供了無限的能源潛力,但其技術風險不容忽視。密歇根大學空間科學家Mojtaba Akhavan-Tafti指出,Google計畫使用的軌道也是近地軌道中最為擁擠的路徑之一。為了實現互聯互通,這些衛星之間的間距僅為100米至200米。Mojtaba Akhavan-Tafti警告稱,在如此近的距離下,軌道導航的誤差容限幾乎為零。一旦發生單次撞擊,不僅可能摧毀一顆衛星,還可能引發連鎖反應,導致整個衛星叢集毀滅,並向本已是“雷區”的軌道散佈數百萬塊碎片。歐洲航天局資料顯示,目前軌道上已有超過120萬塊尺寸超過1釐米的碎片,任何一塊都可能造成災難性破壞。隨著軌道交通激增,“凱斯勒效應”(Kessler effect)——即碎片引發連鎖碰撞導致軌道無法使用——的可能性正在上升。此外,Google的論文也承認,太空輻射會降解電子裝置並破壞資料。更為棘手的是,與地面設施不同,太空資料中心幾乎無法進行遠端硬體維護,如何處理故障硬體或報廢衛星仍是未解難題。03 微軟水下項目折戟與高昂的“上天” 成本在Google之前,微軟也曾探索過利用非常規環境解決資料中心散熱和能耗問題。2018年,微軟在蘇格蘭海岸沉入了一個名為Project Natick的水下資料中心。然而,據報導該項目已經結束,微軟且表示沒有進一步的海底計畫。相比於海底,在太空中建立資料中心的難度呈指數級增加。儘管火箭發射成本正在通過SpaceX等公司的努力不斷降低,但在這一階段,太空電力的單位成本與地面電力相比大致相當,並無顯著的成本優勢。當被問及具體置評時,Google方面僅引用了相關的預印本論文及部落格文章。04 科技巨頭的太空圈地運動?除了技術和成本障礙,該項目還引發了關於太空治理的擔憂。天文學家擔心,更多的衛星星座將進一步干擾科學觀測。目前地球周圍已有近1.6萬顆衛星在運行,其中近9000顆屬於馬斯克的Starlink網路,且還有1.5萬顆新衛星的計畫正在接受審查。Starlink已因反射光線干擾光學圖像以及無線電洩漏干擾射電天文學而受到詬病。目前的太空領域正逐漸成為Jeff Bezos和馬斯克等科技巨頭缺乏規則約束的競技場。Google的這一計畫不僅可能加劇光污染和無線電干擾,還暴露了針對太空這一公共資源的有效治理機制的缺失。對於市場而言,這既是一次展示AI無限潛力的豪賭,也是該行業在能源焦慮下“過度擴張”的隱喻。 (硬AI)
八國圍堵,一場科技自立的“新長征”
日前,美國拉攏日本、韓國,加上歐洲幾個核心盟友,共8個國家,簽署了一份“對抗中國AI聯合聲明”。這事的性質極為惡劣。如果說以前是美國一家“單挑”,現在則是直接拉起了群架。然而,就在這道鐵幕落下的同時,美國卻反常地批准輝達向中國出售H200晶片。不少人的第一反應是:“美國是不是因為輝達業績壓力大,所以認慫了?”錯了。在“8國聯合圍堵”的大背景下,H200的放行絕非美國的仁慈,而是一套精心設計的“組合拳”:妄圖一邊用“八國聯盟”斬斷你的造血能力(生產),一邊用“H200”鎖死你的依賴習慣(生態)。01 從“技術封鎖”到“全產業鏈絞殺”這次8國《聯合聲明》最狠毒的地方,不在於美國,而在於日韓和澳大利亞、新加坡、荷蘭、英國、以色列和阿聯等八個國家的深度介入。這次不僅僅是稀土聯合抵抗中國,還是一個分工明確的AI科技“全產業鏈絞殺局”:日本(材料端): 半導體材料之王。高端光刻膠、電子級清洗液,全球市場佔比極高。韓國(儲存端): HBM(高頻寬記憶體)的霸主。現在的AI晶片,算力再強,沒有HBM配合就是廢鐵一塊。荷蘭及歐洲(裝置端): 掌握著光刻機這一“工業皇冠上的明珠”。以前,我們還能利用這些國家與美國的利益分歧,搞搞平衡,買點裝置。現在8國抱團,意味著中國試圖從外部獲取先進製造能力的路徑,可能基本被堵死了。他們的目標很清晰:在物理層面,把中國本土的晶片製造能力,永久鎖定在落後兩代的水平。02 H200是一顆“劇毒糖果”既然要圍堵,為什麼還要賣H200?這半年的教訓讓美國人看懂了一件事:全面封鎖,只會倒逼中國成功。此前中國大廠買不到輝達,只能硬著頭皮買華為昇騰,買國產卡。結果呢?逼著中國廠商把那套原本很難用的國產軟體生態,硬生生地給磨合出來了。美國人一看,壞了!原本想餓死中國AI,結果反而逼出了一個能打的對手。所以,現在的策略變了,這是一招“抽梯子”的損招:斷你生產:我聯合8國,把造晶片的裝置和材料斷了,把中國自主製造的難度拉到滿級;毀你生態: 我把目前最好用的H200送還給你,雖然貴點,但比你自己造的好用。一旦你吃下了這顆毒糖果,中國本土晶片尚在襁褓中的生態,就可能會受到沉重打擊。03 爭奪科技發展的“定義權”現在的世界地緣格局,是從“全球化分工”變成了“陣營化切割”。美國拉著日韓搞8國聯盟,妄圖在AI算力、半導體裝置、高端材料這三個核心維度,對中國實施徹底的“物理隔絕”。其本質,是要把全球科技市場切割成兩半:“美國+盟友圈” 和 “中國圈”。在這個邏輯下,H200的出售,並不是美國想和你做生意,而是它試圖用技術優勢,繼續在這個分裂的世界裡,保留對中國科技發展的“定義權”。他們希望看到的局面是:中國負責: 出資料、出應用場景、出電費、做低端應用。西方負責: 掌握底層的硬科技、控制算力霸權、收取高額“技術租金”。這就像當年的殖民經濟:宗主國傾銷工業品,殖民地只負責提供原材料。如果你接受了H200,你就接受了成為“AI時代的殖民地”。更致命的是供應鏈安全。在8國對抗中國的背景下,把國家的AI基礎設施建立在輝達的晶片上,無異於沙灘築樓。川普或者下一任總統,心情不好隨時可以斷供,甚至利用晶片裡的後門遠端鎖死算力。到時候,咱們的資料中心就是一堆廢銅爛鐵。04 大廠的艱難選擇和考驗黃仁勳相信:只要美國稍微鬆開一點口子,大量中國的訂單就會瞬間流回輝達。因為作為商業公司,追求利潤最大化和效率極致化是其生存的本能,這無可厚非。但這也正是我們最擔憂的軟肋:特別是對於字節、阿里、騰訊這些商業大廠來說,這不僅是一道選擇題,更是一場“長考”:選國產卡:這意味著巨大的沉沒成本,算力暫時只有H200的60%。選H200:簡直太誘人了。插上就能用,CUDA生態無縫銜接,業務效率立馬起飛,競爭優勢瞬間拉滿。但這正是對手最陰險的“陽謀”。我們一旦動搖而拋棄國產,將面臨可怕的後果:國產晶片廠商剛拿到的訂單可能會枯竭,資金鏈斷裂;剛建立的使用者反饋機制可能會中斷,工程師不再為國產架構找Bug,晶片迭代失去方向;剛聚起來的開發者生態會可能後續無力,由於缺乏應用場景,人才將再次流失。結論很殘酷,但我們必須看清:晶片不僅是造出來的,更是“用”出來的,這是我們的優勢。所以,我們不能退步,不能拋棄國產,否則國產晶片好不容易燃起的星星之火,將被我們自己親手掐滅。寫在最後:面對H200技術性能的“誘惑”和所謂8國聯盟的“圍剿”,我們需要做的不是恐慌,當然也不能抱有任何僥倖的幻想。中方目前對解禁H200的“冷處理”,以及監管層對相關產業鏈的審慎佈局,恰恰是一種極度清醒的戰略定力。我們必須參透一個殘酷的底層邏輯:買來的現代化,是守不住的空中樓閣;跪著求來的繁榮,是必然帶毒的慢性藥。在8國“鐵幕”已然落下的今天,我們早已沒有退路。我們要珍惜每一塊艱難生產出來的國產晶片:那怕它現在算力還不夠強、發熱還比較大、適配還需改程式碼,但它不僅僅是工業品,更是屬於我們自己的“爭氣芯”。使用它、打磨它、迭代它,是我們這一代人的責任。我們早就看到了這一天,科技自立就是:一場不得不走的“新長征”,也是我們維護國家尊嚴與發展權利的護城河。唯有把關鍵技術掌握在自己手中,我們才能在談判桌上挺直腰桿,才能把“卡脖子”的清單,變成激勵我們前行的“軍令狀”。 (金百臨財富通)
大摩:中國AI算力的供給及需求
一、核心事件:美方開放H200晶片出口的背景與政策博弈1. 事件核心參數出口條件:美方允許輝達向中國出口H200晶片,但需收取25%的銷售分成,且僅對「獲批准客戶」開放,隱含用途監管(如禁止軍事領域使用)。效能定位:H200為Hopper架構訓練型晶片,FP16算力約為上一代H20晶片的2倍,雖不及最新Blackwell架構(如B100),但仍是當前國內稀缺的高性能訓練算力載體。供應鏈現況:台積電為H200主要代工廠,單台medium unit H200的wafer+封裝成本約1300美元,對應營收佔台積電總營收僅1%左右;後端測試環節由金源店參與,PCB打件(OAM)主要依賴工業富聯。2. 中美政策博弈邏輯二、中國AI算力需求面:缺口顯著,資本開支難追缺口1. 需求端核心數據①.算力缺口規模:雲廠商層面:騰訊因GPU短缺在2025年三季報下調資本開支(capex)預期;阿里巴巴規劃三年3000億+人民幣AI capex,但明確“供給遠趕不上需求”,即使全額投入仍可能不足。產業整體:2025年中國智慧算力規模已達1037.3EFLOPS,2026年將翻倍至2000+EFLOPS,市場規模突破250億美元;但GPU平均利用率僅40%,部分場景低於20%,算力浪費與缺口並存存。②.資本開支對比:中國:預計2024-2027年頭部超大規模雲端服務商(hyper scalers)capex年增25%,2027年達4,500億人民幣;六大CSP(阿里、騰訊、字節等)2025年AI capex已達3730億人民幣,同摩27%,2025月,2025月200億人民幣。美國:同期美國大廠(如AWS、微軟)capex規模為中國的3-4倍,僅微軟2025年AI相關capex即超500億美元(約3600億人民幣),接近中國頭部廠商總和(新浪財經)。2. 需求結構分化:訓練與推理的差異三、供給面:進口與國產並行,本土產能加速爬坡1. 進口晶片:H200短期成核心補充採購意願:中國雲廠商對H200需求強烈,即使加價25%仍具備吸引力,核心原因是Hopper架構擁有成熟開源生態(如CUDA),可降低AI運算建製成本,性價比優於NVL汽車級晶片。供應規模預測:若政策放行,2026年上半年H200對華交付量或達50萬-80萬顆,可滿足國內30%-40%的訓練算力缺口;疊加存量H100、A100晶片,進口晶片將覆蓋近60%的訓練需求(新浪財經)。2.國產晶片:從「合規推理」向「高算力訓練」突破①技術與產能規劃:合規推理晶片:國內雲廠商(阿里平頭哥、百度崑崙、騰訊燧原)已推出符合美國ECCN 3A09標準的產品(TPP<4800 TOPS,單位面積算力<200 TOPS/mm²),採用台積電6nm/7nm製程,2025年月升達1.25年月調達1.25年月調。高算力訓練晶片:依賴中芯國際7nm(N+2)工藝,2024年月產能8000片,2025年增至2萬片,2026年達3-4萬片(大摩開門會);2027年國產算力晶片需求將達48萬片(具體單位為1.123×10²⁰算力單位),本土供給可滿足60%(新浪財經)。②國產化瓶頸:良率:中芯國際7nm製程良率僅30%-50%(大摩7月報告),導致國產晶片單位成本比台積電代工高20%-30%。生態:國產晶片多依賴開源框架(如MindSpore),與CUDA生態相容性不足,部分大模型廠商需額外投入30%成本進行適應。四、產業鏈影響:從硬體到應用的全鏈條機遇1. 核心受益環節與標的(含資料支撐,僅供參考)2. 潛在承壓環節①國產高階GPU廠商:短期面臨H200競爭,2026年國產GPU市佔率或從20%降至15%,但華為昇騰、寒武紀等龍頭因綁定政務、國企訂單,份額相對穩定。②先進封測(CoWoS):若H200封測訂單回流台積電,國內通富微電、長電科技的CoWoS業務短期增速或從40%降至25%(新浪財經)。五、長期趨勢:算力自主與生態建構成核心方向國產算力網路建置:聯通雲等企業推進「5+4+31+X」算網一體架構,5大核心智算樞紐(京津冀、長三角等)支撐大模型訓練,4大西算樞紐(內蒙古、貴州等)承接離線任務,2026年跨區域算力調度將延遲(50ms)以內電計算範圍內50msms(世界)以進行通訊延遲(50msms)將延遲(世界計算範圍內50msms。政策支援:國家透過「算力券」補貼國產晶片應用,2025年已發放50億元算力券,帶動國產GPU採購量成長3倍(大摩7月報告);2026年計畫將補貼規模擴大至100億元,重點支援推理場景國產化。技術突破方向:國內廠商加速佈局3nm以下先進製程、Chiplet(芯粒)技術,中芯國際計畫2027年量產5nm(N+3)工藝,國產Chiplet封裝良率預估2026年突破85%(大摩調校),可降低高算力晶片成本40%。 (有道調查)