Q: AI 發展經歷了那些階段,各階段與計算系統有何關聯?A: AI 發展歷經符號主義、控制主義、連結主義三個核心階段,且每個階段的突破都與計算系統的支撐密不可分。第一階段符號主義以邏輯運算與符號操作為核心,依託圖靈機背後的基礎計算系統實現符號的推理與處理,此階段也為AI奠定了早期的理論與實踐基礎;第二階段控制主義的控制機制建立在自控系統的基本演算法之上,這些演算法的運作完全依賴於電腦的運算支援,聚焦於透過明確的控制邏輯解決特定場景問題;第三階段連接主義借助神經網路實現了重大突破,其核心依賴運算系統在平行運算方面的革新,本質是多層神經網路構成的數學模型,具備明確的輸入輸出邏輯,例如在影像判別場景中,輸入人物照片後,模型可輸出判斷為該人物的機率,完美適配複雜場景下的智慧處理需求。Q: AI 晶片類型有那些,GPU 和CPU 在平行運算中的表現如何,中國國內AI 晶片架構選擇情況如何?A: AI 晶片的發展與平行運算架構密切相關,主要包括通用運算晶片、專用晶片以及基於新興架構的晶片類型。其中,GPU 在平行運算中表現極為出色,因其整合了大量運算單元和高速內存,能夠精準適配AI 任務的加速需求,是當前並行運算的核心硬體之一;而CPU 雖具備一定的AI 運算能力,但在平行處理效率上遠低於GPU,難以應付AI 任務中大規模的並行運算需求,僅能承擔部分簡單的輔助運算工作。隨著技術演進,ASIC、FPGA 等專用晶片逐漸興起,ASIC 可針對特定AI 演算法進行深度最佳化,推理晶片多基於這兩種架構開發;新興的非馮・諾依曼架構也衍生出存算一體架構,以及在SoC 上整合CPU 與NPU 的混合架構。國內國產AI 晶片架構選擇呈現多樣化特徵,多數產品基於ASIC 架構打造,部分採用可重構的FPGA 架構以提升彈性,同時也有廠商推出基於通用GPU 架構的產品,滿足不同情境的應用需求。Q: 國內外AI 晶片生態差距體現在那些方面,國內建構狀況如何?A: 國內外AI 晶片生態的差距主要體現在發展歷程、完善程度和技術自主性。輝達自20 世紀90 年代起就基於遊戲闆卡逐步構建生態,經過數十年的積累,其生態系統已極為完善,涵蓋硬體、軟體、演算法、開發者社群等全產業鏈環節。而國內AI 晶片生態建構明顯落後,頭部廠商大多成立於2019 年後,發展歷史僅3-6 年。從建造難度來看,硬體層面的晶片設計可在約1 年內完成,但完整生態的搭建需要大量模型架構師、軟體工程師熟悉硬體特性及驅動開發,周期長、投入大。先前國內頭廠商多依賴類CUDA 或類輝達生態的技術,但2023 年左右輝達對相關技術實施禁令,導致國內廠商無法繼續沿用原有生態,軟體生態和硬體適配均受到顯著影響,進一步拉大了與國際成熟生態的差距。Q: 國內先進製程晶片製造有那些瓶頸,台積電採取了什麼措施?A: 國內在低於7 奈米的先進製程晶片製造領域存在明顯瓶頸。儘管中芯國際等企業已具備一定的先進製程產能,但產品穩定性較差,良率遠未達到台積電等國際頂尖廠商的成熟水平,青島等地的相關先進製程研發與生產嘗試也尚未實現穩定量產。台積電則以限制產能為由,對國內先進製程晶片設計企業(無論是否列入相關名單)的流片需求實施嚴格限制,這直接導致國內企業在5 奈米、7 奈米等先進製程晶片的製造上仍面臨較大困難。在此背景下,國內廠商開始嘗試Chiplet(芯粒)及多芯粒架構等替代方案,但這些方案目前仍面臨高功耗、算力規格不足等技術難題,尚未能完全彌補先進製程製造的短板。Q: 國產化需求對國內AI 晶片發展有怎樣的推動作用,國內廠商採取了什麼措施?A: 國產化需求為國內AI 晶片產業的發展提供了強勁動力,相關政策明確要求算力闆卡等核心硬體的國產化率達到40% 以上,且必須優先使用國產晶片,這一要求倒逼國內AI 晶片企業加速技術研發與產品迭代。為滿足國產化適配需求,實現不同架構晶片之間的高效互聯,國內廠商積極探索異構晶片架構,透過整合多種類型晶片的優勢,嘗試多晶片協同的綜合任務處理模式,突破單一架構在特定場景下的效能限制。這種基於國產化需求的技術探索,不僅推動了國內AI 晶片在架構創新、相容性等方面的進步,也為建構自主可控的AI 產業鏈奠定了基礎。Q: 大模型普及對國內AI 晶片產業有怎樣的驅動作用,以DeepSeek 為例說明?A: 大模型的快速普及為國內AI 晶片產業帶來了強烈的新增需求,成為推動產業發展的核心驅動力之一。大模型在訓練和推理過程中需要處理大量數據,對晶片的算力、記憶體頻寬等性能指標提出了極高要求,直接拉動了高性能AI 晶片的市場需求。以DeepSeek 為代表的大模型,其獨特的多步驟驗證機制(包含反思機制、知識遷移能力等)使得推理過程中的token 用量大幅增加,多步驟驗證的推理token 數量較單步驗證上升10 倍以上,這意味著需要更強大的晶片算力來支撐模型的高效運行。這種需求傳導直接刺激國內AI 晶片企業加大對高算力、高適配性晶片的研發投入,推動晶片產品性能持續升級,以配合大模型的發展節奏。Q: 開源模型對AI 普惠有怎樣的推動作用,DeepSeek 衍生模型情況如何,對AI 應用拓展有何影響?A: 開源模型大大降低了AI 技術的使用門檻,推動AI 普惠進程加速,讓更多企業、開發者乃至科研機構能夠低成本獲取先進的AI 技術與模型,打破了技術壟斷,促進了行業創新活力的釋放。以DeepSeek 為例,其衍生模型數量已達47 萬個,覆蓋全球超170 個國家和地區,形成了龐大的開源生態。這些衍生模型不僅豐富了AI 技術的應用場景,也推動AI 應用從傳統的公共安全、政府部門等領域,廣泛拓展至金融、醫療、教育、工業等20-30 個產業,產業滲透率超過30%。尤其在科學智慧場景中,大模型能夠取代部分科研人員的實驗過程,大大提升了科研效率,同時也產生了龐大的算力需求,進一步帶動了AI 晶片及相關產業的發展。Q: MCP、A to A 等協定對多智能體綜效有怎樣的影響,多智能體協作對算力需求有怎樣的成長?A: MCP、A to A 等協定的出現與應用,顯著增強了多智能體之間的協同效應,使得多智能體能夠高效配合完成複雜任務,逐步取代傳統的單點應用模式。在多智能體協作場景中,單一智能體呼叫模型一次約消耗2000 個token,而多智能體之間的協同互動作用需要處理大量的跨智能體資料傳輸與計算任務,導致算力需求爆發式增長。與單智能體相比,多智能體協作的算力需求倍增,以10 倍的成長幅度估算並不誇張。這種算力需求的成長,不僅對AI 晶片的平行運算能力、資料處理速度提出了更高要求,也為算力基礎設施的升級與擴容提供了重要的市場驅動力。Q: 當前推理算力市場處於什麼階段,從那些數據可以看出,未來算力需求趨勢如何?A: 目前推理算力市場仍處於早期滲透階段,尚未進入大規模普及期。從具體數據來看,2025 年年終座談會的相關統計顯示,阿里雲每月帳面使用推理算力達到1 萬以上的客戶佔比不足5%;同時,國央企雖然在推理端存在明確需求,且透過雲端部署或私有化部署等方式開展相關應用,但整體態度較為謹慎,僅在個別行業實現了大規模普及,尚未形成全行業的普及,尚未形成全行業的普及,尚未形成全行業的普及,尚未形成全行業的普及。基於當前的市場滲透情況和AI 技術的發展趨勢判斷,隨著大模型應用的持續深化、開源生態的不斷完善以及多智能體協同場景的日益豐富,未來推理算力需求將迎來爆發式增長,成為算力市場增長的核心引擎。Q: 東數西算工程在十四五期間的實施情況如何,建成了多少國家級計算中心,資金來源是怎樣的,政策統籌情況如何?A: 東數西算工程是十四五期間國內算力基礎設施升級的核心舉措之一,其核心邏輯是將東部發達地區對算力需求大、能耗較高的訓練任務,轉移至中西部能耗成本低、水電和風電等綠色能源充足的地區進行算力部署,計算完成後再將結果參數傳回東部地區。透過這項工程的實施,國內已成功建成12 個國家級運算中心,建構全國性的算力網路骨幹架構。在資金來源方面,並非由國家全額出資,而是採用多元化的融資模式,包括企業(如華為等科技企業)自主投資、地方政府統籌籌措資金,同時輔以地方債補充資金缺口。政策統籌層面,東數西算工程需要國家發改委與地方發改委協同推進,涉及算力佈局、能耗指標、能效標準等多項審批工作,地方新計算中心通常需要上報至國發改委層面完成最終審批,確保工程實施與國家整體算力規劃、能源戰略相契合。Q: 算力具有怎樣的戰略意義,未來算力規模將有怎樣的變化,中國為何必須持續投入算力基建?A: 算力已從過去的技術支援角色走向台前,成為與電力同等重要的經濟基礎設施,是衡量一個國家科技實力和經濟競爭力的核心指標之一。掌握先進的算力基礎設施,意味著在全球科技競爭中擁有主導權,同時也能獲得推動經濟結構轉型升級、實現高品質發展的核心引擎。從未來發展趨勢來看,隨著AGI(通用人工智慧)、科學智慧及具身智慧等技術的持續演進,資料處理的規模和複雜度將大幅提升,算力規模將從目前的10 萬卡等級快速提升至30 萬張卡等級。算力是實現下一代智慧技術突破的核心前提,對中國而言,持續投入算力基建不僅是應對全球科技競爭的戰略選擇,更是保障產業鏈供應鏈自主可控、推動數位經濟高品質發展的必然要求,因此必須長期堅持並加強投入。Q: 國內主流的AI 晶片頭廠商有那些,是基於什麼排序的?A: 目前國內主流的AI 晶片頭廠商包括華為、寒武紀、沐曦、摩爾線程、壁仞、天數等企業。這項排名是基於個人實測的角度形成的大致排序,主要參考維度包括晶片的實際算力性能、在不同應用場景下的適配能力、軟硬體生態的完善程度、產品的穩定性與良率,以及在市場中的實際應用案例和客戶反饋等多方面因素,綜合反映了各廠商在當前國內AI 晶片市場中的競爭力水平。Q: 未來算力市場規模成長情況如何,2025 年國內智算規模及全球算力市場規模預計為多少,國內2025 年整體服務市場規模及構成情況如何?A: 未來全球及國內算力市場規模都將呈現指數級成長態勢,過去幾年算力市場的年增長率已超過40%,且此成長趨勢將持續。 2025 年國內智算規模已達1000 多EFLOPS(其中1000P 相當於10 的18 次方FLOPS,1P 算力可拆分為兩張卡,規模相當於2×10^6);全球2025 年算力市場規模預計達726 億美元。從國內市場來看,2025 年AI 算力整體服務市場(包含晶片及相關配套服務)規模約為155 億元,其中基礎設施整合規模(涵蓋晶片、伺服器、機櫃、電源配套、網路儲存設備等核心硬體)達到120 億元,年成長超過110%,呈現強勁的成長動力。值得注意的是,目前市場資金正快速向頭部企業集中,產業集中度持續提升,頭部廠商在技術研發、產能供應和生態建構的優勢將進一步擴大。Q: 晶片算力的主要消費主體有那些,國內主要雲廠商和營運商的算力投資情況如何?A: 晶片算力的主要消費主體集中在雲端廠商和營運商,這兩類主體憑藉其業務特性,對算力有著持續且大規模的需求。國內主要雲端廠商中,阿里、騰訊、百度、字節(合稱BATT)是核心採購方,其中阿里已明確宣佈未來在算力領域的投入將超過3800 億元;騰訊的算力相關開支增長超過200%,資金主要集中於晶片採購、伺服器部署和計算叢集搭建。營運商方面,中國移動、中國聯通、中國電信的算力投資未來將至少維持10% 的年均成長,但由於過去幾年已進行了大規模的基礎設施投入,2025 年的實際投入量相對平穩,不會出現爆發式增長。此外,除了頭部雲廠商和營運商,國內其他科技企業也紛紛加大算力佈局,預計將有多家廠商相繼投入千億以上資金用於算力相關的硬體採購和基礎設施建設。Q: 華為新出的昇騰910C 晶片在2025 年WIC 世界人工智慧大會展出情況如何,其技術性能如何?A: 華為全新推出的昇騰910C 晶片在2025 年WIC 世界人工智慧大會上正式展出,引發業界廣泛關注。該晶片在技術性能上表現突出,採用384 卡全光互聯技術,推理效率較行業標竿產品H100 提升超過20%,國產化率達到85%,由中芯國際採用7 奈米過程代工生產,實現了核心硬體的高度自主化。在關鍵參數方面,昇騰910C 支援HBM3 的128G 顯存規格,標準算力達到800T FLOPS,1 至8 卡叢集的算力可達到1500 多TOPS,在當前國產AI 晶片中技術性能排名靠前,能夠充分滿足大模型訓練、複雜推理等高端算力需求,為國內AI 的獨立硬體支撐提供了支援。Q: 沐曦晶片有什麼特點,代表型號是什麼?A: 沐曦晶片的核心特點是原生支援FP8 標準,而FP8 是當前大模型訓練的主流精度標準,這使得沐曦晶片在大模型訓練場景中具備天然的適應優勢。同時,得益於軟硬體的深度適配優化,沐曦晶片的千卡叢集吞吐率較業界平均提升40%,能夠大幅提升大型模型訓練與推理的效率,降低算力消耗成本。沐曦晶片的代表型號為MXCU C600,該型號產品憑藉其高性能、高適配性的特點,已在多個國內大模型項目中得到應用,成為國產高端AI 晶片的重要選擇之一。Q: 計算中心建置需要採購那些設備和服務?普通42U 機櫃最多可容納多少八卡設備,單機櫃功耗一般多少?A: 計算中心建置是一項系統工程,需要購買的設備和服務涵蓋多個維度。核心設備包括伺服器、AI 闆卡、儲存設備等算力核心硬體;配套設備則包括機櫃、電力供應系統、冷卻系統(如暖通空調、液冷設備等)、網路交換設備等基礎設施;此外,還需要專業的運維服務、技術支援服務以及後期的設備升級與維保服務,以保障運算中心的穩定運作。在硬體部署方面,普通42U 機櫃受設備尺寸和安裝規範限制,最多可容納約15 台八卡設備;單機櫃功耗通常不超過12000 瓦,不過部分廠商透過優化設備佈局、採用高效電源和冷卻方案等適配改良措施,可在保證安全的前提下適當提升單機櫃的功耗上限,以滿足高密度算力部署的需求。Q: 光互聯技術有什麼優勢,國內有什麼實務應用?A: 光互連技術作為算力網路中的關鍵支撐技術,具有顯著的效能優勢。與傳統的電互聯技術相比,全光互聯能夠大幅降低節點間的資料傳輸延遲,減少訊號衰減和乾擾,從而提升計算任務的成功率和整體運算效率,尤其適合大規模計算叢集、跨區域算力調度等對傳輸速度和穩定性要求極高的場景。在國內,光互聯技術已進入實際應用階段,以上海為例,當地已在多個資料中心和算力叢集中採用光互聯、光直連(闆卡間直接互聯)技術,透過建構高速、低延時的算力網絡,為大模型訓練、跨區域資料共享等場景提供了高效的傳輸保障,成為國內光互連技術實踐的標竿案例。Q: 國家製訂了那些完整的人工智慧晶片系統標準?A: 國家已針對人工智慧晶片領域制定了完整的系統標準體系,涵蓋AI 晶片從設計、生產到應用的全生命周期關鍵環節。具體包括智慧晶片指令集標準,規範晶片的指令架構,確保軟硬體的相容性;性能功耗測試要求,明確晶片在不同負載下的性能評估指標和功耗控制標準,為產品選型提供依據;軟體算子互聯互通標準,保障不同廠商的晶片與各類AI軟體、演算法的適配性,打破技術壁壘;神經網路模型演算法載入標準,規範模型在晶片上的部署流程與運作機制;以及編譯器相關標準,優化晶片對模型的編譯效率,提升算力發揮水準。這一系列標準的製訂,為國內AI 晶片產業的規範化發展提供了重要保障,推動產業形成統一的技術規範和市場秩序。Q: 根據巴克萊預測,2026 年全球推理算力需求將如何,產業發展方向有那些?A: 根據巴克萊的專業預測,到2026 年,全球推理算力需求將佔總運算需求的70% 以上(此資料不含訓練需求),推理算力將成為算力市場的核心成長極。未來AI 算力產業的發展方向主要集中在兩大領域:一是綠電佈局,透過電算協同的模式,引導算力資源向綠電富集的負極區佈局,實現能源供給與算力需求的精準匹配,既降低算力運行成本,又符合綠色低碳的發展理念;二是十萬卡跨域分佈式跨域分佈式晶片協同作用,萬張,其中國產晶片佔比達50% 以上,未來將進一步推動跨區域、大規模的算力協同,提升整體算力的利用效率與調度彈性。Q: 主流AI 晶片效能參數如何,國內算力需求規模預計是多少,網路廠商需求情況怎樣,從應用場景看訓練與推理佔比如何?A: 主流國產AI 晶片的性能參數各有優勢:華為昇騰910C 的INT8 算力為1500 TOPS,FP16 算力為800T FLOPS,顯存規格128GB;寒武紀690 的FP16 算力為512T FLOPS,顯存容量為1444218697239753;算力約320T FLOPS。從國內算力需求規模來看,未來兩年預計將達到500 萬張卡的總量需求,其中互聯網廠商是核心需求主體,由於其業務涵蓋大模型應用、短視頻處理、智能推薦等多個高算力消耗場景,需求規模較大。從應用情境來看,目前大部分GPU 卡均具備訓練與推理雙重功能,無需嚴格區分場景屬性;若需明確劃分,推理場景的算力需求佔比約為60%-70%,訓練場景佔比約為30%,推理需求已成為算力消耗的主要部分。Q: 適合國內大模型訓練的國產晶片建議型號有那些?A: 適合國內大模型訓練的國產晶片推薦機型包括一系列經過市場驗證、性能穩定的產品:華為昇騰910B、華為昇騰910C、寒武紀690、沐曦MXCU C600、壁仞BR200、天數智芯天垓2000、摩爾線程S80 等。這些晶片均具備高算力、大顯存、高頻寬等大模型訓練所需的核心特性,能夠適應不同規模、不同類型的國內大模型訓練需求。其中,華為昇騰系列憑藉著完善的生態支援和穩定的性能表現,在頭部大模型項目中應用廣泛;寒武紀、沐曦、壁仞等廠商的產品則在特定場景下具備獨特優勢,為國內大模型訓練提供了豐富的國產化選擇,有效降低了對國外晶片的依賴。Q: 華為384 叢集搭載的是920B 還是920C 晶片,該產品大規模出貨情況如何?A: 華為在2025 年展出的384 卡算力叢集搭載的是昇騰920C 晶片,該晶片作為華為推出的新一代高端AI 晶片,在算力性能和互聯技術上均有顯著提升。不過,昇騰920C 晶片目前尚未實現大規模售賣,核心限制因素是代工供貨短缺,當前國內先進製程代工產能的不足,導致該型號晶片的量產規模無法滿足市場的大規模需求。需要注意的是,目前華為在市場上大規模出貨的並非昇騰910C 晶片,而是技術成熟、產能穩定的昇騰910B 晶片,昇騰910B 仍是當前華為AI 晶片的主流出貨型號,能夠滿足大部分客戶的算力需求。Q: 該產品對外宣傳的算力指標是基於920B 還是920C 計算的,市場實際交付情況如何?A: 從業界常規宣傳邏輯來看,產品對外宣傳時通常會採用最先進或最新推出的版本所對應的性能指標,華為384 叢集對外宣傳的算力指標正是基於已流片的新一代晶片昇騰920C 計算的,這能夠更直觀地展現產品的技術實力和未來潛力。但從市場實際交付情況來看,由於昇騰920C 晶片受代工產能限制,尚未實現大規模量產,因此當前市場實際交付的產品仍以昇騰920B 為主。而在華為的整體產品矩陣中,昇騰910B 憑藉穩定的產能、成熟的技術和較高的性價比,成為當前市場的主流交付產品,能夠充分滿足國內大部分AI 項目的算力需求。Q: 910C 與690 兩款產品中,那一款的算力較強,實測效果較優,實測的算力水準分別是多少?A: 在華為昇騰910C 與寒武紀690 兩款產品的比較中,昇騰910C 的算力更強,實測效果更優,更能滿足高端算力需求場景。根據實測數據,昇騰910C 在FP16 精度下的算力達到1500 TOPS,配備128GB HBM 顯存,顯存帶寬和數據處理速度表現出色;寒武紀690 在FP16 精度下的實測算力約為500 TOPS,沐曦同級在FP16 下昇級功率下的實測算功率為華FLOPS,顯存容量為144GB,在實際運行大模型時,昇騰910C 消耗的卡牌數量相對較少,算力利用效率更高,能夠有效降低大規模算力部署的成本。Q: 920B 是否優於590,海光目前是否涉及生產3 號產品?A: 華為昇騰920B 在性能上明顯優於寒武紀590,寒武紀590 作為前一代產品,在算力、顯存頻寬、適配性等核心指標上均落後於昇騰920B,已逐漸退出高端算力市場,僅在部分中低端場景中仍有應用。關於海光的產品佈局,海光的核心產品以CPU 為主,其推出的DPU 產品主要面向大數據處理場景,專注於資料傳輸、儲存最佳化等任務,一般不用於AI 加速運算。目前海光並未涉及所謂「3 號產品」 的生產,其業務核心仍聚焦於CPU 及相關配套晶片的研發與生產,主要應用於國產替代中的CPU 晶片領域,為國內電腦設備提供自主可控的核心處理器支援。Q: 目前國內市場算力晶片以卡片數量計算的整體市場需求量級是多少,其中用於訓練與推理的卡數量分別是多少,該投資範圍僅指特定主體嗎,互聯網廠商的投資規模情況如何,分兩年規劃的500 萬卡中,用於推理與訓練的比例分別是多少?A: 國內算力晶片按卡數量計算的總體市場需求量級可透過區域增量推導得出:上海未來兩年的算力將從當前的30 億FLOPS 增長至55 億FLOPS,增量約25 億FLOPS,對應約10 萬張晶片需求;按全國範圍需求為上海的10 倍總投資,未來兩年國內算力道而網路廠商的算力需求更為龐大,保守估計其投資規模是政府或國有投資資料中心的5 倍,約500 萬張卡,這部分需求主要來自頭部雲廠商和科技企業的算力叢集搭建。從場景劃分來看,目前無需嚴格區分訓練與推理用卡,因為大部分GPU 卡均可相容兩種場景,僅端側設備用卡更側重推理;若需明確區分任務屬性,預計推理用卡佔比約60%-70%,訓練用卡佔比約30%,推理場景仍是算力晶片的主要需求來源。 (大道調查)