#昇騰
CPU價格持續上漲!晶片行業十大要聞解讀
晶片及CPU價格持續上漲:英特爾和AMD的CPU價格自2月份以來普遍上漲了10-15%,且國際大廠正在醞釀在第三季度再次上調價格。隨著AI場景從訓練向推理及智能體演進,CPU在算力架構中的地位不斷提升。DeepSeek V4適配華為昇騰生態,半導體行情爆發:4月27日,DeepSeek V4大模型適配華為昇騰生態,多家國產晶片完成適配,市場開始重估國產算力的商業化前景,A股半導體類股集體走強。4月27日當天,科創50指數大漲3.76%,半導體產業鏈全線走強。4月28日早盤,算力晶片概念延續活躍態勢。氦氣等工業氣體價格持續上漲:受供應鏈緊張影響,高純氦氣(40L)價格一個月內從550元飆升至5000元,氦氣概念股因此大漲。據瞭解,三星和SK海力士此前已表示,由於原材料中斷,光刻膠等產品的供應鏈面臨嚴重衝擊。盛美上海等半導體裝置股下跌:4月28日,半導體裝置股震盪下挫,盛美上海跌超10%,至純科技逼近跌停,芯源微、矽電股份等跟跌。消息面上,盛美上海發佈的一季報顯示其歸母淨利潤同比大幅下滑57.66%。台積電以"二倍速"推進擴產:為應對AI與高性能計算需求的爆發式增長,台積電正以"二倍速"推進擴產計畫,今年將同時有五座2nm晶圓廠進入產能爬坡階段,2nm首年產出將較3nm同期提升約45%。輝達市值突破5.2兆美元,閃迪首次站上1000美元:4月27日美股交易中,輝達大漲4.0%,市值突破5.2兆美元,創下全球上市公司市值新紀錄。儲存晶片股閃迪暴漲8.11%,收盤價首次站上1000美元,受益於NAND快閃記憶體強勁的定價動能。韓國股市超越英國,躍升全球第八:受AI和半導體熱潮推動,韓國上市公司總市值今年來增長逾45%,達到4.04兆美元,超越英國躋身全球第八大股票市場。三星電子與SK海力士兩大儲存晶片巨頭佔據韓國綜指總市值的四成以上。美伊談判陷入僵局持續推高油價,半導體材料供應鏈承壓:美國白宮證實川普團隊正討論伊朗提出的談判新方案,但談判幾乎無進展,荷姆茲海峽局勢再度升級導致油價持續上漲。中東緊張局勢進一步加劇了半導體原材料(氦氣、光刻膠等)的供應緊張局面。電裝將撤回收購羅姆報價,日本功率器件三強合併將加速:因未能獲得羅姆公司同意,日本電裝集團正考慮撤回對羅姆的收購提案。羅姆已確定與東芝、三菱電機進行三家合併磋商。三強合併後的新實體將佔據全球功率半導體約11%的市場份額,規模位列全球第二,僅次於英飛凌。費城半導體指數結束18連陽,晶片股走勢劇烈分化:4月27日美股收盤,費城半導體指數下跌1.34%,結束了長達18個交易日的連續上漲紀錄。晶片股走勢呈劇烈分化態勢,Arm跌超8%,邁威爾科技、AMD跌超3%,而高通則大漲逾7%。 (晶片行業)
DeepSeek再次會師華為昇騰!1.2萬億MoE震撼發佈,全端重寫CANN架構,CUDA時代終結?
事情是這樣的。前兩天,大模型圈子裡出了個特別炸裂的消息,炸到什麼程度呢,連輝達的黃仁勳(Jensen Huang)在採訪裡都說了一句話。雖然那個傳得有鼻子有眼的「Terrible」評價大機率是圈內人自嗨的段子,但老黃對 DeepSeek 的忌憚是真的。他在內部和公開場合多次感嘆過,DeepSeek這種用極低算力成本跑出極高性能的演算法效率,確實讓輝達感到了前所未有的壓力。如果你一直關注 AI 圈子,你應該知道 DeepSeek(深度求索)這家公司的脾氣,他們以前有個鐵律:不拿外部融資。這家由幻方量化(國內頂尖量化私募)一手帶大的實驗室,一直以來給人的感覺就是個「純粹的技術極客」,不差錢,也不想被資本指手畫腳。但就在最近,這個鐵律被打破了。根據《The Information》的爆料,DeepSeek 正在跟投資者談首輪外部融資,估值直接奔著 100 億美元去了。很多人納悶,為啥以前不拿,現在拿了?其實答案就在即將發佈的 DeepSeek V4 身上,這玩意兒不僅是個模型,更是一次「飽和攻擊」等級的戰略轉型。我聽到的消息是,DeepSeek V4 預計在 4 月下旬正式亮相,它的參數量直接堆到了 1.2 萬億(1.2T)等級,採用的是 MoE(混合專家)架構。為了養活這個萬億參數的「哥斯拉」,DeepSeek 已經在內蒙古烏蘭察布大規模招人了,專門負責自建算力中心。但這還不是最騷的。最騷的事在於,DeepSeek V4 是他們第一個完全基於華為昇騰(Ascend)晶片訓練出來的旗艦模型。如果你還記得我前兩天寫過的那篇關於 GLM-5 的文章,你就會發現,這件事的訊號意義已經強到溢出來了。在那篇文章裡我聊過,智譜(Z.ai)用了 10 萬塊華為昇騰晶片,把 GLM-5.1 基礎模型從頭練完了,最後在 SWE-Bench Pro 這個全球最硬核的軟體工程榜單上,跑出了比 Claude 和 GPT 還要高的分數。雖然咱得承認,跑分高不代表實戰手感就能完全取代 Claude,但在這種公認的、需要解決真實 GitHub Bug 的硬核榜單上,國產模型第一次登頂,而且是基於華為晶片跑出來的,這事兒本身就足夠離譜了。如果說 GLM-5.1 是國產大模型在華為晶片上的第一次「奇蹟會師」,那現在的 DeepSeek V4,就是在嘗試把這個奇蹟推向另一個量級。為了在國產晶片上跑出最優效率,DeepSeek 的工程師幹了一件特別狠的事:他們把模型底層程式碼全重寫了,直接從輝達的 CUDA 生態完全遷移到了華為的 CANN Next 軟體棧。甚至為了適配華為昇騰 950PR 晶片的記憶體訪問特性,他們還專門重構了算子庫,針對 128 位元組的記憶體顆粒度做了專項最佳化。這事兒聽著簡單,但做過底層開發的兄弟應該知道,這跟「把房子的地基整個換掉還要保證房子不塌」沒啥區別。這也是為什麼 V4 引入了一個叫 Engram 的條件記憶架構,能支援 100 萬 token 的上下文,而且百萬長度下的資訊召回率還能頂到 97%。我突然意識到一個很重要的轉變。以前大家覺得用國產晶片是「沒辦法」,是由於被制裁後的無奈之舉。但從 GLM-5 到 DeepSeek V4,這個邏輯變了。它們不是在「勉強運行」,而是在「超越」。GLM-5 證明了用華為晶片能練出在全球頂級榜單登頂的模型,而 DeepSeek V4 準備證明,用華為晶片能練出萬億參數的多模態旗艦,而且效率高到讓老黃都覺得脊背發涼。說真的,我挺感慨的。以前我們聊 AI,總覺得我們是在「追趕」,用著別人的卡,跑著別人的架構。但現在,智譜和 DeepSeek 就像是兩條平行線,最後在華為的算力底座上匯合了。這種感覺,怎麼說呢,確實挺帶勁的。我們正在見證一套完全獨立於美國技術堆疊的 AI 生態,正從地底下冒出頭來。至於 V4 到底有多強,咱們等它發佈那天,我一定第一時間去試。 (KmTech)
DeepSeek V4 新進展:使用華為昇騰晶片, 從CUDA生態轉變為CANN框架!
有關Deepseek V4 要來的消息可以說是從去年炒到今年,本月真的要來了嗎?根據相關報導——DeepSeek創始人梁文鋒近日在內部溝通中透露,DeepSeek V4將於4月下旬正式發佈。真的可謂是“千呼萬喚始出來,猶抱琵琶半遮面”了!但從節奏上看,這一訊號並非孤立出現:首先是,Deepseek 網頁端出現疑似新模型測試痕跡。在4月8日,Deepseek 上線“專家模式”與“快速模式”;以及在部分使用者中又增添了一個視覺模式(vision),被認為是V4 版本的灰度測試。第二,多項關於“兆參數、超長上下文、國產算力適配”的資訊開始集中流出。換句話說,DeepSeek V4 的發佈,從“長期預期”,進入到了可驗證的倒計時階段。網傳模型更新內容有關V4的模型內容在網路上傳的沸沸揚揚,有的媒體使用了洩露的基準測試資料進行了測試。網傳的更新內容包括:最佳化 MoE 架構,推理成本極低繼承 V3 的 MoE 設計,但更進一步。採用兆參數混合專家架構,每次推理過程中,只有約 320 億個參數處於啟動狀態。這使得推理成本和速度與 V3 相當,甚至 API 定價可能比 GPT-5.4 等低 20-50 倍。有網友評論:“V4 改變了幾乎所有內容,除了每花一美元最大化能力的核心理念。”引入Engram 條件記憶:“記”與“算”分開引入條件記憶機制,將靜態知識儲存與動態推理計算分離,能夠高效地從超過 100 萬個詞元的上下文中檢索資訊。傳統 Transformer 把所有知識塞進參數,容易導致長上下文檢索衰退;Engram該模組將經典的 N-gram 嵌入現代化,以實現 O(1) 尋找。效果也很顯著:提升了長上下文檢索能力(例如,Multi-Query NIAH:從 84.2 提升到 97.0);減輕 Transformer 主幹負擔,讓模型“記性好”且不浪費視訊記憶體——與 MoE 的條件計算互補。備註:2026 年 1 月 DeepSeek 開放原始碼的論文技術 | GitHub: deepseek-ai/EngrammHC(Manifold-Constrained Hyper-Connections,流形約束超連接)這是 DeepSeek 在 2026 年1月份發佈的另一項架構創新論文成果,主要解決超大規模(兆級)訓練中的梯度不穩、訊號爆炸問題。備註:論文連結 https://arxiv.org/abs/2512.24880通過 Sinkhorn-Knopp 等數學約束,將層間連接投影到流形上,把訊號放大控制在合理範圍(例如從傳統方法的 3000 倍壓到 1.6 倍以內)據報導:可提升訓練效率約 30%,讓兆參數模型的訓練變得可行。除此之外,還有降低注意力計算成本的DSA機制——這使得 1M 上下文窗口成為可能等等。等到Deepseek-v4正式發佈,各位大佬可以對照一下~採用國產晶片這個可以說是小編最期待的一點。晶片問題一直是行業最敏感也最關鍵的痛點。過去幾年,中國大模型開發幾乎離不開輝達GPU,從訓練到推理都高度依賴CUDA生態。一旦遇到出口管制或供應鏈波動,整個AI落地節奏就會被卡住。而根據The information媒體的報導:DeepSeek 即將推出的 V4 型號將採用華為技術有限公司生產的硬體;與華為和寒武紀科技直接合作,對 V4 核心軟體架構的部分內容進行了修改;V4 預計將在未來幾周內亮相,同時還將推出另外兩款正在研發中的衍生型號。而在以往大模型開發,早期測試往往優先給輝達、AMD等美系晶片測試。而V4反過來,將完全運行在華為最新AI晶片上(主要為Ascend 950PR,部分適配寒武紀晶片)。阿里、字節跳動、騰訊等巨頭已提前向華為採購數十萬顆新一代昇騰晶片(Ascend 950PR等),晶片價格一度上漲約20%。華為3月發佈的Atlas 350加速卡搭載該晶片,FP8算力達1PFLOPS、FP4算力達2PFLOPS,支援多種低精度,單卡性能強勁。X上神秘的Elephant Alpha.在正式發佈前,通過匿名模型進行灰度測試,正在成為大模型行業的常見方式。在今年2月,一個名為Pony Alpha的匿名模型出現在OpenRouter上,五天後智譜確認這是其GLM-5系統的一部分;OpenRouter 上也曾短暫出現Hunter Alpha和Healer Alpha,憑藉兆參數與超長上下文迅速引發關注,並一度被猜測為 DeepSeek V4 的前期測試版本——後續被證實是小米 MiMo-V2系列的早期測試版。而昨天, X.上又出現了一款名為 Elephant Alpha 且擁有 1000 億參數的即時模型,讓網友興奮起來了!有網友猜測是 DeepSeek V4,也有網友認為它是Qwen,或者其他系列的模型,與騰訊混元同步發佈根據相關媒體報導: DeepSeek V4或與騰訊混元或將同期發佈。而混元模型的負責人姚順雨曾經是OpenAI研究員,於2025年底從OpenAI回國加入騰訊。DeepSeek V4或與騰訊混元的這次撞期,並非是簡單的同台PK,更像是大模型兩條技術路徑(“底層架構+自主硬體”和“場景驅動+Agent落地”)的碰撞。 (51CTO技術堆疊)
華為昇騰950發佈:中國AI晶片終於追上輝達
單卡算力是H20的2.87倍,華為這波真的"硬"了。2026年3月20日,華為在中國合作夥伴大會上扔了一顆重磅炸彈。昇騰950PR處理器正式發佈。搭載這顆晶片的Atlas 350加速卡,在多個關鍵指標上實現了對輝達H20的反超。這不是"追趕",這是"超越"。一、昇騰950到底強在哪?核心參數單卡算力是H20的2.87倍。這不是參數黨自我感動,這是實打實的性能碾壓。技術突破1️⃣ 國內唯一支援FP4低精度的推理產品FP4是什麼?簡單說,就是把模型壓縮到原來的1/8,性能幾乎不損失。輝達H100不支援,H20不支援。現在昇騰950支援了。2️⃣ 自研HBM技術HBM(高頻寬記憶體)一直是韓國廠商的天下。華為這次首發自研HBM,打破了國外壟斷。3️⃣ 記憶體訪問顆粒度最佳化從512位元組減少到128位元組。這意味著什麼?小算子訪存效率提升4倍。大模型推理中,小算子佔比超過60%,這個最佳化帶來的提升是實打實的。4️⃣ 叢集能力支援百萬卡叢集,單叢集算力達數百EFLOPS(FP16)。這是什麼概念?相當於把全國Top10超算的算力塞進一個機房。二、為什麼這次不一樣?過去的昇騰:能用,但不夠強昇騰910時代,華為的姿態是"備胎"。能用,但性能、生態、穩定性都和輝達有差距。客戶選擇昇騰,更多是出於"不得不選"。現在的昇騰950:可以正面對剛這一次,華為不是在做"替代品",而是在做"超越者"。單卡算力:超越H20記憶體頻寬:超越H20FP4支援:H20沒有,950有國產生態:完全國產化客戶選擇昇騰950,不再是"無奈之舉",而是"最優解"。三、昇騰950系列規劃華為這次還公佈了完整的晶片路線圖:這是什麼意思?950PR:適合推理階段的第一步——快速生成第一個token。950DT:適合推理階段的第二步——高速解碼後續token。兩顆晶片配合,實現端到端推理加速。四、對產業鏈的影響硬體廠商的機會7家核心夥伴同步發佈基於Atlas 350的整機產品:這些廠商,將成為昇騰生態的"基建商"。投資者關注昇騰產業鏈核心標的:五、對普通人的意義你可能會說:我又不買AI晶片,這跟我有什麼關係?關係很大。1. AI服務成本下降算力成本是AI服務成本的核心。國產晶片性能提升、成本下降,意味著AI服務會更便宜。你用的ChatGPT、文心一言、Kimi,底層都可能跑在昇騰上。2. 資料安全更有保障國產晶片意味著資料不需要出境。政務、金融、醫療等敏感領域,可以放心使用AI。3. 科技自主權昇騰的突破,意味著中國在AI晶片領域不再被"卡脖子"。這是國家層面的戰略安全。昇騰950的發佈,不是技術迭代,是戰略突圍。從"能用"到"好用",從"替代"到"超越",華為走了整整7年。中國國產AI晶片的春天,真的來了。 (碼農看AI)
華為重磅發佈新一代算力加速卡
在剛剛結束的華為中國合作夥伴大會2026上,華為重磅發佈並展出了搭載全新昇騰950PR(Ascend 950PR)處理器的AI訓練推理加速卡Atlas 350。搭載全新昇騰950PR處理器的AI訓練推理加速卡Atlas 350。記者 時娜 攝崑崙、華鯤振宇、神州鯤泰、長江計算、寶德、軟通華方、百信7家華為核心夥伴在會上發佈了基於Atlas 350的伺服器整機產品,標誌著昇騰950代際推理算力正式進入商用階段。上市公司軟通動力旗下的軟通華方在會上發佈的“超強A860 A5”就是其中之一。軟通動力計算產品事業群企業級產品研發管理本部總經理鄧忠良將超強A860 A5比作賦能大模型時代的“核武級”算力。據介紹,超強A860 A5是一款6U2路AI伺服器產品,搭載鯤鵬920新型號處理器,可支援8塊昇騰Atlas350加速卡,具有超強算力、靈活拓展、安全可靠等特點,適合用於AI大語言模型訓練和推理、AI加速計算、視訊分析等應用場景。科大訊飛集團副總裁、星火企業軍團總裁劉江在會上表示,訊飛新一代星火大模型也將與昇騰910/950系列算力底座進行充分適配,為使用者提供“懂行業、能幹活、守規矩、會進化”的整體AI解決方案。算力的基礎是晶片,昇騰晶片是華為AI算力戰略的基礎。華為2018年發佈的昇騰310晶片,是昇騰系列晶片首款產品。2019年,華為發佈昇騰910晶片;2025年,昇騰910C晶片隨著Atlas900超節點規模部署,昇騰晶片逐漸為外界所熟悉。去年9月,華為副董事長、輪值董事長徐直軍在華為全聯接大會2025上首次介紹了昇騰950系列晶片,並官宣了昇騰950系列晶片的發佈時間——昇騰950PR將在2026年第一季度推出,首先支援的產品形態是標卡和超節點伺服器。在本次華為中國合作夥伴大會上,昇騰950PR隨標卡Atlas 350如約亮相,受到業界的廣泛關注。Atlas 350展台成為中國合作夥伴大會2026網紅打卡點。記者 時娜 攝與前一代昇騰晶片相比,昇騰950PR在低精度資料格式、向量算力、互聯頻寬及自研HBM等方面實現大幅提升。據華為昇騰計算業務總裁張迪煊介紹,Atlas 350的單卡算力達到了輝達H20的2.87倍,是目前國內唯一支援FP4低精度的推理產品;HBM(高頻寬記憶體)容量是H20的1.16倍,達到了112GB,多模態生成速度可以提升60%;記憶體訪問顆粒度從512字節減少到128字節,小算子訪存效率提升4倍。在大會展廳Atlas 350展台,上證報記者看到了Atlas 350的具體參數:Atlas 350的FP4精度算力為1.56P,頻寬達到了1.4TB/s;功耗為600W,是H20的1.5倍。大會展出Atlas 350具體參數。記者 時娜 攝展台工作人員告訴記者,Atlas 350除了支援FP16、FP8外,還支援更低精度的FP4。這意味著,整合Atlas 350類股的伺服器能夠支援更大的模型以及時延更低的推理,精度小了,計算速度就會更快,暫存器效率業會更高。目前Atlas 350在網際網路推薦場景的實測資料顯示,該卡的時延更低、響應更快,特別適合短影片、電商、廣告推薦等高並行場景。在大模型推理、文生圖、文生視訊等多模態場景,其性能也和輝達的L20相當。張迪煊表示,基於Atlas 350等產品,結合AI發展趨勢與客戶需求,昇騰將打造大、中、小三大核心算力場景,助力夥伴滿足差異化場景需求,共同深耕行業智能化。面向兆級模型,昇騰384超節點憑藉“超大頻寬、超低時延、統一記憶體編址”三大特性,實現有效算力線性擴展,更好支撐大模型訓練與推理,已在多行業成功落地;面向千億級模型,昇騰提供“開箱即用”的單機伺服器,滿足“快速部署”與“成本可控“的平衡;面向百億級模型,昇騰開放更多算力檔位、更高整合度、更寬溫度設計的模組/板卡,結合更多OS相容、更多場景SDK(軟體開發工具包),使能夥伴打造多樣化產品。會上,昇騰聯合20家行業頭部夥伴,發佈了2026昇騰AI應用場景解決方案,覆蓋輔助辦公、AI實訓、電子病歷、智能客服、政務辦公等多個行業核心場景,以“輕量部署、快速落地、可規模複製”的特點,破解行業智能化部署複雜、周期長的痛點。此外,“養蝦”熱潮再度激起了一體機的需求,華為副總裁、ICT產品組合管理與解決方案部總裁馬海旭在會上透露,過去一個多月已有十幾家合作夥伴推出了基於昇騰的OpenClaw一體機。截至目前,昇騰已聯合夥伴打造400多款行業一體機,服務客戶逾2700家,佔據國內一體機市場80%以上份額。 (上海證券報)
【MWC 2026】出海硬剛輝達!華為昇騰950超節點及液冷架構解析
01. 華為攜950 SuperPoD出征海外,MWC展會硬剛輝達昨天,在 2026 年巴塞隆納世界移動通訊大會上,華為計算產品線總裁張世偉發佈了最新的 SuperPoD 產品 Atlas 950 SuperPoD、TaiShan 950 SuperPoD 以及一系列計算解決方案,標誌著這些產品首次在全球亮相。華為Atlas 950 SuperPoD專為人工智慧資料中心部署而設計,整合了8192顆華為昇騰950 DT晶片,是華為最新的高性能人工智慧基礎設施產品。此次活動將為華為提供向海外客戶展示其人工智慧解決方案的機會,報告補充道,SuperPoD計畫於2026年第四季度商用。除了Atlas系統外,華為還展示通用計算平台TaiShan 950 SuperPoD,以及包括TaiShan 500和TaiShan 200在內的下一代伺服器。02. 叢集級人工智慧:華為Atlas 950 SuperPoD揭秘在聊華為的950前,先簡單梳理下華為昇騰AI晶片出貨節點。25年9 月 18 日,在華為全聯接大會 2025 上,華為輪值董事長徐直軍公佈了最新的 AscendAI 晶片路線圖。根據路線圖顯示,華為在25年 Q1 已經推出了 Ascend910C,2026 年 Q1 推出全新的 Ascend950PR晶片,2026 年 Q4 推出 Ascend950DT,2027 年 Q4 推出 Ascend960 晶片,2028 年Q4 推出 Ascend970 晶片。關於華為的Atlas 950 SuperPoD的架構特點: 華為為其SuperPoD開發了一種名為UnifiedBus的新型互連架構,旨在與NVIDIA的NVLink競爭。在基於 UnifiedBus 的 Atlas 950 SuperPoD 每個機櫃整合 64 個 NPU,最高可擴展至128個機櫃,也是就 8,192 個 NPU,可以為為大規模人工智慧訓練和高並行推理提供卓越的性能。與傳統叢集相比,它顯著提升了模型訓練效率、可靠性和推理性能。950超節點整機櫃是通過正交架構,可實現零線纜電互聯,採用液冷接頭浮動盲插設計做到零漏液,其獨創的材料和工藝讓光模組液冷可靠性提升一倍。其創新的 UB-Mesh 遞迴直連拓撲網路架構,支援單板內、單板間和機架間的 NPU 全互聯,以 64 卡為步長按需擴展,最大可實現 8192 卡無收斂全互聯。03. 液冷唯一標配!華為950超節點液冷用量及架構解析華為950 Atlas SuperPoD採用面向大規模AI訓練場景的超節點架構設計。該系統由8192張 Huawei Ascend 950昇騰加速卡構成,單機櫃配置64張加速卡,總體由128個電腦櫃和32個互聯機櫃組成,整套系統共計160個機櫃,形成完整的大規模AI算力叢集。在散熱方案上,Atlas 950 SuperPoD全面採用全液冷架構設計,不提供風冷版本選配,出廠即為液冷機櫃。這一策略表明,隨著算力密度和功耗持續提升,液冷已從傳統的可選配置升級為基礎架構能力。通過全液冷部署,系統能夠實現更高的功率密度、更優的能效表現以及更穩定的運行環境,滿足大模型訓練等高強度負載的長期運行需求。同時,統一液冷形態也有助於提升系統交付效率與維運標準化水平,降低複雜度,體現出當前AI資料中心從“風液混合”向“全液冷”演進的趨勢。整機櫃架構方面,華為950採用高密度超節點設計。單機櫃由16台1U伺服器構成,總計整合64顆NPU晶片,整櫃設計功耗約75kW,已進入典型高密度液冷部署區間。在散熱方案上,整體採用冷板式液冷架構,對核心高功率器件進行直接液冷覆蓋,以保障在高算力負載下的穩定運行與能效表現。在系統架構層面,該方案機櫃內部不配置Rack級CDU(機架內CDU),而是採用機櫃式CDU進行統一冷卻液分配與控制。這種集中式CDU部署方式有利於提升維護便利性與系統一致性,同時減少機櫃內部空間佔用,最佳化結構佈局。伺服器方面,華為950平台採用分佈式獨立冷板架構,在每一顆NPU上均配置單獨冷板,實現對高功率核心器件的精細化散熱管理。據業內資訊顯示,當前華為尚未大規模引入MLCP技術,而是以成熟穩定的單級冷板方案為主,以兼顧可靠性與工程可落地性。在管路設計上,華為採用EPDM材質的液冷軟管,強調柔性與裝配便利性,並未像 NVIDIA 那樣大量採用不鏽鋼金屬波紋管結構。同時,在連接方式上,華為引入浮動接頭設計,以緩解裝配公差、熱膨脹及振動帶來的機械應力,從而提升系統長期可靠性。值得關注的是,華為950方案中液冷覆蓋範圍進一步擴大。此前液冷主要集中於CPU/NPU等核心晶片,本次方案則將光模組納入液冷散熱體系。在超節點(Supernode)架構下,光互連密度與頻寬需求顯著提升,光器件功耗持續攀升,傳統風冷逐漸難以滿足熱管理要求。隨著高速光模組(如800G及以上)功耗進入更高區間,液冷正從“可選方案”向“必選路徑”轉變,這也標誌著伺服器液冷從核心計算晶片向系統級關鍵器件全面擴展。更多液冷前沿趨勢,液冷大會現場呈現 2026年4月14日至15日,第五屆資料中心液冷峰會暨展覽會將在上海舉行。本次大會由零氪主辦,聚焦AI時代資料中心散熱技術升級與產業生態協同,吸引了包括整機廠、晶片廠、資料中心營運商及核心裝置供應商在內的產業鏈頭部企業參與,預計2000位行業專家參與。 (零氪1+1)
中國超節點雙雄對決:昇騰384 & scaleX640底牌盡出!
熱度最高的兩大中國國產超節點終於同框出鏡。近日,出自華為的昇騰384與曙光scaleX640超節點,在2025世界計算大會首次毗鄰展出。前者圍繞華為全端技術閉環高度整合384張昇騰加速卡,被視為垂直整合路線里程碑之作;後者基於AI運算開放架構設計,以業界首個單機櫃級640卡超節點反超,展現出開放協同路線的蓬勃潛力。兩大路線迥異的超節點產品「面對面」互飆實力,成為本屆大會的關鍵亮點之一。有業內人士指出,前有昇騰384「以網補算」換道超車輝達,再有scaleX640在算力規模、密度、能效領域全面領航突破,國產超節點正在你追我趕中重塑中國計算系統的全球競爭力。六項指標飆升,國產超節點馬力全開!從昇騰384年中首次亮相,到曙光scaleX640年尾的漂亮收官,國產超節點接連打破業界記錄,在關鍵性指標上飆升加速度。這次兩大代表產品同框,將此進展體現到了極致。數據顯示,昇騰384 超節點以384 張昇騰算力卡組成一個超節點,可提供高達300PFLOPs 的密集BF16 算力,接近輝達GB200NVL72 系統的兩倍。彼時,華為特別強調了"超節點+叢集"策略,透過Atlas900SuperCluster 實現業界最大規模的高速匯流排互聯。相較於昇騰384的珠玉在前,scaleX640進一步實現單機櫃640張加速卡整合,並基於「一拖二」的高密架構組成雙scaleX640超節點(可達1280卡計算單元),FP16/BF16算力突破至昇騰384的2.1倍率當然,超節點的本質是讓叢集系統像一台電腦有效運作,考慮的不僅是算力卡的堆疊程度,其算力密度和整體能效也是系統最佳化過程中的重要版圖。內先進水平根據會上展出訊息,昇騰384單機櫃可搭載32張昇騰910C NPU(共12個機櫃),低至1.12的PUE值及800伏高壓直流(HVDC)供電技術,將功耗能源效率提升至業界先進水準。1. 算力密度scaleX640單機櫃640卡將算力密度提升了整整20倍,而解決散熱問題的關鍵在於全球頂尖的浸沒相變液冷技術,其PUE值降低到了1.04,配備400/800MW的超散熱能力供電,可以為千卡級計算單元提供高達1.72MW的超級散熱能力。2. 記憶體頻寬此外,國產超節點在HBM記憶體頻寬和記憶體容量上表現出明顯的遞進趨勢。其中,昇騰384記憶體頻寬為1229 TB/s,總記憶體達49.2 TB;曙光scaleX640記憶體頻寬為2304 TB/s,總記憶體容量81.9 TB。後者兩項指標分別達到前者的1.7倍、1.9倍。3. 國產計算至此,兩大超節點產品在關鍵指標對壘交出超分答案。尤其scaleX640在昇騰384領先輝達的基礎上再進一階,彰顯了國產計算叢集可持續迭進的澎湃動能。兩大路線並進,華為與曙光仍有底牌?從技術路線特性來看,昇騰384採用了典型的「蘋果係」垂直整合模式,主要由單一巨頭廠商為主導,建構獨立的生態閉環。scaleX640則是「Android系」超節點玩家的代表,追求全端開放協同共贏。兩大路線你追我趕構成了國產計算叢集主流發展圖景。儘管昇騰384在技術路線競跑中被暫時趕超,但在此次大會同台競技中,華為方面正掏出一張張新底牌,試圖在下一程「萬卡級」賽道迎頭趕上。據悉,所謂「Android系」之於「蘋果係」的主要優勢在於生態相容能力。如scaleX640基於AI運算開放架構,適配支援多品牌AI加速卡,可以提供使用者更多彈性選擇。並且,該產品全面相容主流AI運算生態,適配優化了400+主流大模型,能夠支援AI模型、業務應用快速無縫遷移與深度優化,對於AI用戶的高效部署上線需求具備天然的吸引力。為了在算力閉環內實現極致協同,彌補與前者的相容性、擴展性差距,華為方面緊急上線了Flex:ai技術,聚合叢集內空閒XPU算力聚合形成「共享算力池」。業界認為,此項技術本質上是透過軟體創新來實現算力資源的統一管理與利用,進而遮蔽算力硬體的差異。值得一提的是,華為近期也預告了下一步Atlas 950 超節點計畫。該產品支援8192 張基於Ascend 950DT的昇騰卡,可擴展至上一代超節點的20多倍,預計將於2026年Q4上市。面對華為方面一年後下定的“戰書”,曙光似乎正在提前鎖定萬卡級超節點目標。業界傳聞稱,基於scaleX640和1280千卡計算單元,曙光或將在年內進一步推出「萬卡計算叢集」。有人猜測,“很可能就在12月末,開放式超節點路線或將率先奪得全球萬卡級計算高地。”這一番底牌頻出的“高手過招”,儼然將國產大算力熱度推向了極致。可以明顯看出,兩大主流技術路線在輪動迭進中不斷提速,從算力規模、整合密度到功耗能效、內存頻寬,乃至生態層面的全方位比拚下,中國算力正以更積極的姿態衝擊全球計算產業鏈頂端。 (AI雲原生智慧算力架構)