#AI產業
騰訊首席AI專家:在未來5年內,中國在AI產業上反超美國的機率不足20%
01. 前沿導讀據《聯合早報》新聞報導指出,前美國Open AI高級研究員、現騰訊首席人工智慧學家姚順雨在北京舉行的AGI-Next前沿峰會上表示,儘管中國晶片在先進製造裝置上被卡脖子嚴重,但中國企業還可以憑藉著技術叢集等方法縮短與美國的技術差距。但是在未來的3至5年內,先進晶片將會成為最大的瓶頸,中國企業對美國實現彎道超車的機率不足20%。參考資料:中國AI行業領袖:未來三至五年彎道超車美國機率不及20% | 聯合早報網https://www.zaobao.com/finance/china/story20260111-8084335?ref=home-top-news02. 現存瓶頸據《北京日報》報導指出,騰訊首席ai專家姚順雨對於中國未來的產業發展持樂觀態度,他認為中國已經在工程實現、產業落地等方面具備優勢,一旦將技術路徑驗證成功,便可以快速實現大面積跟進,此前的中國製造業、中國新能源汽車就是成功的案例。但是中國ai產業不能規避的現存問題就是硬體層面的瓶頸,先進的算力晶片、To B成熟的企業市場環境以及更具開創性的技術精神,這些都是需要進一步實現突破的關鍵點。參考資料:中國誕生全球頂尖AI公司機率幾何?這場前沿峰會展開熱議_京報網https://news.bjd.com.cn/2026/01/11/11517366.shtml在2025年全球ai算力支出中,美國佔比超50%,中國佔比在20%左右。美國的Google、open ai等企業背靠源源不斷的輝達算力晶片,可以持續長期的投入資源採購晶片來訓練模型。而中國無法獲得最先進的算力晶片,開始將重點目光轉嚮應用層級。通過最佳化現有的技術模型來快速進行規模化應用,搶先一步佔據市場份額。To B的企業級市場是ai產業商業化的重要領域,需要具備可靠性、定製化能力、長期服務能力的多種支援。美國憑藉Salesforce、Microsoft(微軟)等企業的積澱,已經形成了非常成熟的To B生態,而中國市場一直以消費者端(To C)應用為主導,現在正在向企業級快速蔓延。成熟的企業級生態所帶來的成果是多方面的,既可以通過企業級技術定製的方法獲取更高的收入,又可以通過該領域帶動產業發展。典型例子就是微軟公司,如今的民用電腦幾乎都是搭載微軟開發的正版Windows系統以及office套件,微軟通過在軟體層面植入ai功能,將美國的ai技術滲透到全球銷售的個人或者企業電腦當中。依靠Windows系統的強大工作生態,微軟又將ai技術滲透到能源、城市建設、電信、教育醫療等多個商業體系。之前中國市場上的民用電腦一直都是以Windows或者Mac OS為主,這也給了美國ai技術佔領中國市場的機會。但是在最近幾年當中,隨著國產作業系統以及國產開源ai的發展,中國ai產業的市場佔有率正在快速增加,一切導向都在以國產技術的應用為主。03. 資金投入阿里巴巴Qwen技術負責人林俊暘在峰會中指出,中美雙方在ai領域的資金投入出現了截然不同的兩個方向。美國擁有大量源源不斷的先進晶片,正在將投資目標重點放在電力資源等基礎設施的建設上。在這種條件下,美國在硬體算力上面具備領先優勢。而中國則是將投資目標重點放在了先進晶片上,光是為瞭解決EUV光刻機的問題,中國機構已經對其進行了20年以上的研究,重點投資也已經超過了10年時間,目前還未實現國產EUV光刻機的商業化發展,未來還將會繼續在這個環節當中進行投資。EUV光刻機是ASML聚集了全球頂級資源製造而成,從開始研發到最終進入商業化用途,經過了20年以上的時間。從原型機製造完成到大規模量產,經過了12年時間。ASML的背後有美企、韓企、歐盟、台積電等多個機構共同投資,其耗費的資金已經是天文數字。而美國針對中國光刻機產業圍追堵截,對國際供應鏈施壓,禁止其與中國光刻機企業合作,基本上堵死了中國企業獲取海外幫助的機會,只能靠國產供應鏈的支援一點點解決問題。如今中美雙方的ai競爭格局就變成了美國投資解決基礎的資源供應問題,中國投資解決先進算力晶片的量產問題,這兩個投資領域都不是一朝一夕能完成的項目。 (逍遙漠)
百兆規模!輝達最新Rubin平台AI計算架構及產業鏈深度剖析!2026
前言:AI算力產業的時代拐點與Rubin平台的戰略意義1.1 全球AI算力產業發展現狀與趨勢進入2026年,全球人工智慧產業已從技術探索期邁入規模化應用的關鍵階段,而算力作為AI產業的核心基礎設施,正迎來爆發式增長的黃金周期。根據IDC最新發佈的《全球人工智慧算力發展白皮書》資料顯示,2025年全球AI算力市場規模已突破60兆元,預計到2026年底將達到120兆元,正式邁入百兆規模時代。這一增長背後,一方面是大模型參數規模持續擴大,從千億級向兆級跨越,對算力的需求呈指數級增長;另一方面,AI應用場景從網際網路領域向金融、醫療、製造、自動駕駛等傳統行業深度滲透,催生了多元化的算力需求。在這一產業背景下,算力供給能力成為制約AI產業發展的核心瓶頸。傳統計算架構由於存在資料傳輸延遲高、能效比低、協同調度能力弱等問題,已難以滿足新一代AI任務的需求。行業迫切需要一款具備高性能、低成本、高可靠性的一體化計算平台,來破解算力供給難題,推動AI應用的規模化普及。輝達作為全球AI算力領域的領軍企業,此前推出的Blackwell平台已在全球範圍內獲得廣泛應用,而2026年1月6日在CES 2026展會上正式推出並宣佈全面量產的Rubin平台,憑藉其顛覆性的架構設計和性能突破,被業內視為開啟百兆級AI算力時代的關鍵引擎。1.2 Rubin平台的推出背景與戰略定位輝達CEO黃仁勳在Rubin平台發佈會上強調:“AI計算正從少數巨頭的專屬資源走向全民普惠,Rubin平台的使命就是通過技術創新,大幅降低AI算力的使用成本,讓每一家企業、每一個科研機構都能享受到頂尖AI算力帶來的創新紅利。” 這一定位背後,是輝達對AI產業發展趨勢的深刻洞察。從產業競爭格局來看,隨著亞馬遜、Google、微軟等雲廠商加速佈局自研AI晶片,以及寒武紀、壁仞科技等國內企業的崛起,全球AI算力市場的競爭日趨激烈。輝達需要通過持續的技術迭代,鞏固其在高端AI算力領域的領先地位。從技術發展邏輯來看,此前的Blackwell平台雖然實現了算力的大幅提升,但在MoE(混合專家模型)訓練效率、推理成本控制等方面仍有最佳化空間。Rubin平台正是在這一背景下應運而生,通過6款全新晶片的協同設計,實現了性能與成本的雙重突破,旨在進一步擴大輝達在AI算力領域的市場份額,推動全球AI產業進入規模化普及階段。結合華安證券2026年1月12日發佈的行業周報資料顯示,Rubin平台推出後,全球四大雲巨頭亞馬遜AWS、Google雲、微軟Azure和甲骨文雲已確認將於2026年率先部署基於Vera Rubin的實例,CoreWeave、Lambda等專業AI算力服務廠商也將同步跟進。這一市場反響充分印證了Rubin平台的行業認可度,也預示著其將在全球AI算力市場中佔據重要地位。一、深度拆解輝達Rubin平台AI計算架構與核心技術2.1 Rubin平台整體架構設計:一體化協同計算的創新突破與傳統計算平台“晶片堆疊”的設計思路不同,Rubin平台採用了“全端協同最佳化”的架構理念,由6款全新晶片組成一個有機的整體,分別承擔計算、互連、儲存、網路等核心功能,通過深度協同實現了整體性能的躍升。Rubin平台由6款全新晶片組成:Vera CPU、Rubin GPU、NVLink6交換機、ConnectX-9SuperNIC、BlueField-4DPU及Spectrum-6乙太網路交換機,協同設計整合為AI超級電腦,可以大幅縮短AI訓練時間並降低推理Token生成成本。Rubin平台五項關鍵技術深度融合,實現性能提升和成本降低雙重突破:1)新一代NVLink互連技術建構起高速資料傳輸通道,確保多晶片協同工作時的低延遲與高頻寬;2)第三代Transformer引擎針對AI任務最佳化,大幅提升模型訓練與推理效率;3)機密計算技術為敏感AI資料提供全流程安全防護,滿足金融、醫療等行業的合規需求;4)RAS引擎(可靠性、可用性與可維護性引擎)保障平台在7x24小時高負載運行下的穩定表現;5)專為代理推理設計的Vera CPU。從架構邏輯來看,Rubin平台建構了“三層協同架構”:底層為硬體基礎層,由6款核心晶片組成,負責提供基礎的計算、儲存和網路資源;中間層為協同調度層,通過輝達自研的CUDA-X AI軟體棧,實現對各硬體資源的高效調度和協同工作;頂層為應用適配層,針對不同的AI應用場景,提供專用的演算法庫和工具集,確保平台能夠快速適配各類AI任務。這種架構設計的核心優勢在於,打破了傳統硬體之間的“資料孤島”,實現了資料在各元件之間的高效流轉,大幅提升了整體計算效率。根據輝達公佈的官方資料,Rubin平台的訓練性能達到前代Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本相比Blackwell平台可降低10倍,且在訓練MoE模型時所需的GPU數量減少至原來的四分之一。這些性能指標的提升,正是得益於其一體化協同架構的創新設計。2.2 核心元件解析:各晶片的功能定位與技術優勢2.2.1 Rubin GPU:AI計算的核心引擎Rubin GPU是整個平台的核心計算元件,專為新一代AI任務進行了深度最佳化。該GPU採用了輝達最新的Ada Lovelace-Next架構,搭載了第三代Transformer引擎,能夠大幅提升大模型訓練和推理的效率。與Blackwell GPU相比,Rubin GPU的CUDA核心數量增加了50%,張量核心性能提升了70%,在處理FP16、BF16等高精度計算任務時,表現出更為卓越的性能。值得注意的是,Rubin GPU針對MoE模型進行了專門的硬體最佳化。MoE模型作為當前大模型發展的主流方向,通過將模型分為多個“專家”模組,僅在處理特定任務時啟動部分專家,能夠在提升模型性能的同時,降低計算成本。但傳統GPU在處理MoE模型時,存在專家調度效率低、資料傳輸延遲高等問題。Rubin GPU通過引入專用的MoE調度單元,實現了專家模組的快速啟動和切換,將MoE模型的訓練效率提升了3倍以上,這也是其訓練MoE模型所需GPU數量大幅減少的關鍵原因。2.2.2 Vera CPU:專為代理推理設計的高效處理器Vera CPU是輝達首款專為AI代理推理設計的CPU,打破了傳統CPU在AI計算中“輔助角色”的定位,成為AI任務的核心處理器之一。隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務調度能力,這對CPU的平行處理能力、低延遲響應能力提出了更高的要求。Vera CPU採用了ARM架構,擁有64個核心,支援超線程技術,最大快取容量達到256MB。與傳統x86 CPU相比,Vera CPU的能效比提升了2倍,在處理多工平行推理時,延遲降低了30%以上。此外,Vera CPU還整合了專用的AI加速單元,能夠直接處理部分輕量級的AI推理任務,減少了對GPU的依賴,進一步提升了整個平台的協同計算效率。2.2.3 NVLink 6交換機:高速互連的“資料高速公路”在大規模AI計算中,多晶片之間的資料傳輸效率是制約整體性能的關鍵因素。Rubin平台搭載的NVLink 6交換機,是輝達新一代的高速互連技術,實現了晶片之間的低延遲、高頻寬資料傳輸。根據官方資料,NVLink 6的單鏈路頻寬達到1.6TB/s,是上一代NVLink 5的2倍,單個交換機最多可連接32個GPU,形成一個高速互連的計算叢集。NVLink 6採用了全新的互連協議,支援自適應路由和錯誤恢復功能,能夠在保證資料傳輸速度的同時,提升傳輸的可靠性。此外,NVLink 6還實現了與PCIe 5.0的相容,能夠與傳統的儲存和網路裝置進行高效對接,進一步擴大了平台的相容性和應用範圍。通過NVLink 6交換機,Rubin平台建構了一個高效的“資料高速公路”,確保了多晶片協同工作時的資料流暢通,為大規模平行計算提供了堅實的支撐。2.2.4 ConnectX-9 SuperNIC:智能網路的核心元件ConnectX-9 SuperNIC是一款高性能的智能網路介面卡,專為AI計算場景進行了最佳化。該網路卡支援200Gb/s的乙太網路速率,整合了專用的AI加速引擎,能夠對網路資料進行即時的處理和分析,減少了CPU和GPU的網路處理負擔。在AI訓練場景中,大量的資料需要在計算節點之間進行傳輸和同步,ConnectX-9 SuperNIC通過支援RDMA(遠端直接記憶體訪問)技術,實現了資料在不同節點記憶體之間的直接傳輸,無需經過CPU的中轉,將資料傳輸延遲降低了50%以上。此外,該網路卡還支援網路虛擬化技術,能夠將物理網路資源劃分為多個虛擬網路,為不同的AI任務提供隔離的網路環境,提升了網路資源的利用率和安全性。2.2.5 BlueField-4 DPU:資料處理的“專用引擎”BlueField-4 DPU(資料處理單元)是Rubin平台中負責資料儲存和處理的核心元件,能夠承擔傳統CPU的部分資料處理任務,提升整體計算效率。該DPU整合了ARM架構的處理器核心和專用的資料處理引擎,支援對儲存資料的即時加密、壓縮和格式轉換,能夠大幅提升資料處理的效率。在AI計算場景中,大量的訓練資料需要從儲存裝置中讀取並進行預處理,這一過程往往會佔用大量的CPU資源。BlueField-4 DPU通過將資料預處理任務從CPU解除安裝到DPU,能夠將CPU的佔用率降低40%以上,讓CPU能夠專注於核心的計算任務。此外,BlueField-4 DPU還支援儲存虛擬化技術,能夠對不同類型的儲存裝置進行統一管理,提升了儲存資源的利用率和可擴展性。2.2.6 Spectrum-6乙太網路交換機:高速網路的“骨幹支撐”Spectrum-6乙太網路交換機是Rubin平台的網路骨幹元件,支援100Gb/s和200Gb/s的乙太網路速率,能夠為大規模的AI計算叢集提供高速、穩定的網路連線。該交換機採用了全新的晶片架構,支援高密度連接埠設計,單個交換機最多可提供64個200Gb/s連接埠,能夠滿足大規模計算叢集的網路需求。Spectrum-6乙太網路交換機還支援先進的流量控制技術,能夠根據不同AI任務的網路需求,動態調整網路頻寬分配,確保關鍵任務的網路資源供應。此外,該交換機還整合了網路安全功能,支援對網路流量的即時監控和威脅檢測,能夠有效防範網路攻擊,保障AI計算叢集的網路安全。2.3 五大關鍵技術:Rubin平台性能突破的核心驅動力Rubin平台之所以能夠實現性能與成本的雙重突破,關鍵在於五大核心技術的深度融合。這五大技術相互協同,共同建構了Rubin平台的技術壁壘。2.3.1 新一代NVLink互連技術:打破資料傳輸瓶頸如前文所述,新一代NVLink互連技術是Rubin平台的核心技術之一。該技術通過提升資料傳輸頻寬和降低延遲,實現了多晶片之間的高效協同。與上一代技術相比,NVLink 6不僅在硬體性能上實現了躍升,還通過軟體層面的最佳化,實現了對多晶片叢集的高效管理。例如,輝達推出的NVLink Fabric Manager軟體,能夠即時監控多晶片之間的資料傳輸狀態,動態調整傳輸路徑,確保資料傳輸的高效和穩定。在實際應用場景中,新一代NVLink互連技術的優勢尤為明顯。以訓練千億參數的大模型為例,採用NVLink 6互連技術的Rubin平台,能夠將資料同步時間縮短60%以上,大幅提升了訓練效率。同時,由於資料傳輸延遲的降低,平台能夠支援更大規模的晶片叢集,進一步提升了整體計算能力。2.3.2 第三代Transformer引擎:AI任務的高效加速器第三代Transformer引擎是Rubin GPU的核心技術,專為Transformer架構的AI模型進行了深度最佳化。Transformer架構是當前大模型的主流架構,廣泛應用於自然語言處理、電腦視覺等領域。第三代Transformer引擎通過硬體層面的創新,實現了對Transformer模型中關鍵運算的加速。具體來看,第三代Transformer引擎最佳化了矩陣乘法和softmax運算的硬體實現方式,將這兩種運算的效率提升了50%以上。同時,該引擎還支援混合精度計算,能夠在保證計算精度的前提下,採用更低精度的資料格式進行運算,進一步提升了計算效率和能效比。在處理自然語言處理任務時,採用第三代Transformer引擎的Rubin GPU,能夠將推理速度提升3倍以上,推理成本降低70%以上。2.3.3 機密計算技術:敏感資料的全流程安全防護隨著AI應用在金融、醫療等敏感行業的滲透,資料安全問題日益凸顯。Rubin平台搭載的機密計算技術,能夠為敏感AI資料提供全流程的安全防護,滿足行業合規需求。該技術基於硬體層面的加密機制,能夠在資料儲存、傳輸和計算過程中進行即時加密,確保資料不被洩露或篡改。具體來說,機密計算技術通過建構“可信執行環境”(TEE),將AI任務的計算過程限制在安全的硬體區域內。在可信執行環境中,資料和程式碼均以加密形式存在,只有經過授權的程序才能訪問。同時,該技術還支援遠端認證功能,能夠確保計算節點的硬體和軟體環境的安全性。在金融行業的AI風控場景中,機密計算技術能夠有效保護使用者的金融資料安全,避免資料洩露帶來的風險;在醫療行業的AI診斷場景中,該技術能夠保護患者的隱私資料,符合醫療資料安全的相關法規。2.3.4 RAS引擎:高負載運行下的穩定保障RAS引擎(可靠性、可用性與可維護性引擎)是Rubin平台保障穩定運行的核心技術。AI計算任務往往需要長時間的高負載運行,對平台的穩定性提出了極高的要求。RAS引擎通過硬體層面的故障檢測、錯誤糾正和冗餘設計,能夠有效提昇平台的可靠性和可用性。具體來看,RAS引擎能夠即時監控平台各元件的運行狀態,包括CPU、GPU的溫度、電壓、負載等參數,一旦發現異常,能夠及時發出告警並採取相應的措施。例如,當某個GPU出現故障時,RAS引擎能夠自動將該GPU上的任務遷移到其他正常的GPU上,確保任務的持續運行。同時,該引擎還支援錯誤糾正碼(ECC)技術,能夠自動檢測並糾正記憶體中的資料錯誤,提升資料儲存的可靠性。通過RAS引擎,Rubin平台能夠實現7x24小時的高負載穩定運行,滿足大規模AI計算任務的需求。2.3.5 代理推理專用最佳化技術:AI代理的高效支撐隨著AI代理技術的發展,AI系統需要具備更強的自主決策和任務執行能力。Rubin平台通過Vera CPU和專用的代理推理最佳化技術,為AI代理的高效運行提供了堅實的支撐。該技術能夠最佳化AI代理的任務調度邏輯,提升代理的決策效率和響應速度。具體來說,代理推理專用最佳化技術通過建構專用的任務調度模型,能夠根據任務的優先順序和資源需求,動態分配計算、儲存和網路資源。同時,該技術還支援多代理協同工作,能夠實現多個AI代理之間的高效通訊和協作。在智能客服場景中,採用該技術的AI代理能夠快速響應使用者的需求,精準處理使用者的問題;在自動駕駛場景中,AI代理能夠即時分析路況,做出快速、精準的決策,保障行駛安全。2.4 Rubin平台與前代平台及競品的對比分析為了更清晰地展現Rubin平台的優勢,我們將其與輝達前代Blackwell平台以及市場上的主要競品進行對比分析。2.4.1 與Blackwell平台的對比從性能指標來看,Rubin平台的訓練性能達到Blackwell平台的3.5倍,運行軟體性能提升5倍,推理每Token生成成本降低10倍。在核心技術方面,Rubin平台採用了新一代的NVLink 6互連技術、第三代Transformer引擎等,而Blackwell平台採用的是NVLink 5互連技術和第二代Transformer引擎。此外,Rubin平台新增了專為代理推理設計的Vera CPU,進一步拓展了平台的應用場景。從應用場景來看,Blackwell平台主要面向大規模大模型訓練場景,而Rubin平台不僅在大模型訓練方面表現更優,還在推理場景和AI代理場景中具備顯著優勢。例如,在推理場景中,Rubin平台的低成本優勢能夠推動AI應用的規模化普及;在AI代理場景中,Vera CPU的加入能夠提升AI代理的運行效率。2.4.2 與市場主要競品的對比當前市場上的主要競品包括亞馬遜的Trainium晶片、Google的TPU v5、寒武紀的思元590等。與這些競品相比,Rubin平台具有以下優勢:一是性能優勢。Rubin平台的訓練性能和推理效率均領先於市場上的主要競品。例如,與GoogleTPU v5相比,Rubin平台的訓練性能提升2.8倍,推理效率提升3.2倍。二是架構優勢。Rubin平台採用了一體化協同架構,由6款核心晶片協同工作,而競品大多採用單一晶片或簡單的晶片堆疊設計,協同效率較低。三是生態優勢。輝達擁有完善的CUDA-X AI軟體生態,能夠為Rubin平台提供豐富的演算法庫和工具集,而競品的軟體生態相對薄弱,難以滿足多樣化的AI應用需求。四是成本優勢。Rubin平台通過技術創新,大幅降低了推理成本,相比競品,其推理每Token生成成本降低了50%以上。當然,Rubin平台也存在一定的挑戰。例如,其硬體成本相對較高,對於中小企業來說,初期投入較大;此外,平台的部分技術處於領先地位,相關的人才儲備相對不足,可能會影響平台的推廣和應用。二、全產業鏈解析Rubin平台帶動的百兆AI算力生態Rubin平台的推出,不僅自身具備強大的性能優勢,還將帶動整個AI算力產業鏈的發展。AI算力產業鏈涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,Rubin平台將通過技術溢出效應,為產業鏈各環節帶來新的發展機遇。3.1 上游核心硬體環節:晶片、零部件與材料的機遇上游核心硬體環節是AI算力產業鏈的基礎,主要包括晶片設計、晶圓製造、封裝測試、零部件(如光模組、PCB、散熱器等)和材料(如光刻膠、靶材等)。Rubin平台的大規模量產,將大幅拉動上游核心硬體的需求。3.1.1 晶片設計與製造Rubin平台的6款核心晶片均由輝達自主設計,採用台積電的先進製程工藝(3nm製程)。隨著Rubin平台的大規模量產,台積電的3nm產能將得到充分釋放,同時也將帶動相關晶片設計工具廠商的發展。例如,Synopsys、Cadence等晶片設計EDA工具廠商,將為輝達的晶片設計提供技術支撐。此外,國內的晶片設計廠商也將受益於Rubin平台的技術溢出效應,通過學習和借鑑輝達的晶片設計理念,提升自身的技術水平。3.1.2 封裝測試Rubin平台的晶片採用了先進的CoWoS封裝技術,這種封裝技術能夠實現晶片的高密度整合,提升晶片的性能和可靠性。隨著Rubin平台的量產,CoWoS封裝的需求將大幅增長,帶動封裝測試廠商的發展。例如,日月光、ASE、長電科技等封裝測試廠商,將為Rubin平台的晶片提供封裝測試服務。此外,封裝測試所需的相關裝置和材料,如封裝基板、鍵合絲等,也將迎來新的發展機遇。3.1.3 零部件Rubin平台的大規模部署,將帶動光模組、PCB、散熱器等零部件的需求。光模組方面,Rubin平台的ConnectX-9 SuperNIC和Spectrum-6乙太網路交換機均需要高速光模組的支撐,200Gb/s及以上速率的光模組需求將大幅增長,受益廠商包括中際旭創、新易盛、天孚通訊等。PCB方面,由於Rubin平台的晶片整合度高,對PCB的性能要求也更高,高多層、高密度的PCB需求將增加,受益廠商包括深南電路、滬電股份、生益科技等。散熱器方面,Rubin平台的高負載運行需要高效的散熱解決方案,液冷散熱器的需求將增長,受益廠商包括曙光數創、高瀾股份、英維克等。3.1.4 材料晶片製造和封裝測試所需的材料,如光刻膠、靶材、拋光液等,也將隨著Rubin平台的量產而需求增長。光刻膠方面,台積電3nm製程需要使用先進的EUV光刻膠,受益廠商包括東京應化、信越化學、南大光電等。靶材方面,晶片製造所需的銅靶、鋁靶、鈦靶等需求將增加,受益廠商包括江豐電子、有研新材、阿石創等。拋光液方面,晶片製造過程中的晶圓拋光需要使用高性能的拋光液,受益廠商包括安集科技、鼎龍股份等。3.2中游算力服務環節雲廠商與算力租賃的爆發中游算力服務環節是連接上游硬體和下游應用的橋樑,主要包括雲廠商的算力實例服務、專業算力租賃服務、算力調度平台等。Rubin平台的推出,將為中游算力服務環節帶來新的發展機遇。3.2.1 雲廠商的算力實例服務如華安證券行業周報所述,亞馬遜AWS、Google雲、微軟Azure和甲骨文雲四大雲巨頭已確認將於2026年率先部署基於Vera Rubin的實例。這些雲廠商將通過Rubin平台的高性能和低成本優勢,推出更具競爭力的算力服務產品。例如,亞馬遜AWS可能會推出基於Rubin平台的P4d實例,針對大規模大模型訓練和推理場景;微軟Azure可能會推出NDm v5實例,滿足企業客戶的AI算力需求。隨著雲廠商部署基於Rubin平台的算力實例,企業客戶將能夠以更低的成本獲取頂尖的AI算力,這將進一步推動AI應用的規模化普及。同時,雲廠商的算力服務收入也將迎來大幅增長,根據摩根士丹利的預測,2026年全球雲廠商的AI算力服務收入將達到30兆元,其中基於Rubin平台的算力服務收入將佔比超過40%。3.2.2 專業算力租賃服務除了雲廠商,CoreWeave、Lambda、Nebius和Nscale等專業AI算力租賃廠商也將跟進部署Rubin平台。這些專業廠商主要面向AI創業公司、中小企業和科研機構,為其提供靈活的算力租賃服務。與雲廠商相比,專業算力租賃廠商的服務更加專注於AI場景,能夠提供更個性化的解決方案。Rubin平台的低成本優勢將使專業算力租賃廠商能夠降低服務價格,吸引更多的客戶。例如,CoreWeave可能會推出基於Rubin平台的算力租賃套餐,價格相比基於Blackwell平台的套餐降低50%以上。這將為AI創業公司和中小企業提供更多的創新機會,推動AI技術的創新和應用。3.2.3 算力調度平台隨著AI算力需求的增長,算力調度平台的重要性日益凸顯。算力調度平台能夠實現對分散算力資源的整合和調度,提升算力資源的利用率。Rubin平台的推出,將對算力調度平台提出更高的要求,同時也將推動算力調度平台的發展。國內的算力調度平台廠商如平行科技、優刻得等,將需要針對Rubin平台的特性進行技術最佳化,實現對基於Rubin平台的算力資源的高效調度。同時,算力調度平台還將與雲廠商和專業算力租賃廠商合作,建構多元化的算力資源池,為客戶提供一站式的算力服務。3.3 下游應用場景環節AI應用的規模化普及下游應用場景環節是AI算力產業鏈的終端,涵蓋網際網路、金融、醫療、製造、自動駕駛、教育、環保等多個領域。Rubin平台通過降低算力成本,將推動這些領域AI應用的規模化普及。3.3.1 網際網路領域:大模型應用的深化網際網路領域是AI應用的先行領域,也是算力需求的主要來源之一。Rubin平台的推出,將推動網際網路領域大模型應用的深化。例如,在自然語言處理領域,基於Rubin平台的大模型能夠實現更精準的語音識別、機器翻譯、文字生成等功能;在電腦視覺領域,大模型能夠實現更高效的圖像識別、視訊分析、目標檢測等功能。國內的網際網路企業如百度、阿里、騰訊等,將利用Rubin平台的算力優勢,進一步提升其大模型的性能和應用體驗。例如,百度的文心一言大模型可能會基於Rubin平台進行訓練和推理,提升模型的響應速度和生成質量;阿里的通義千問大模型可能會拓展更多的應用場景,如智能辦公、智能創作等。3.3.2 金融領域:智能風控與個性化服務的升級金融領域是AI應用的重要場景,Rubin平台的機密計算技術能夠滿足金融領域的資料安全需求,推動智能風控、個性化服務等應用的升級。在智能風控場景中,基於Rubin平台的AI模型能夠即時分析使用者的交易資料,精準識別風險交易,降低金融機構的風險損失;在個性化服務場景中,AI模型能夠根據使用者的需求和偏好,提供個性化的金融產品推薦和服務。國內的金融IT企業如同花順、恆生電子、東方財富等,將受益於Rubin平台的推出。例如,同花順可能會基於Rubin平台最佳化其智能投顧產品,提升產品的精準度和使用者體驗;恆生電子可能會推出基於Rubin平台的智能風控解決方案,為金融機構提供更高效的風險防控服務。3.3.3 醫療領域:AI診斷與藥物研發的突破醫療領域的AI應用能夠提升醫療服務的效率和質量,Rubin平台的高性能和低成本優勢將推動醫療領域AI應用的突破。在AI診斷場景中,基於Rubin平台的AI模型能夠快速分析醫學影像,精準識別疾病,輔助醫生做出診斷;在藥物研發場景中,AI模型能夠模擬藥物分子的相互作用,縮短藥物研發周期,降低研發成本。國內的醫療AI企業如推想科技、鷹瞳科技、藥明康德等,將利用Rubin平台的算力優勢,提升其產品的性能和競爭力。例如,推想科技的肺部AI診斷產品可能會基於Rubin平台進行最佳化,提升診斷的精準率和速度;藥明康德可能會利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。3.3.4 製造領域:工業質檢與智能生產的普及製造領域的AI應用能夠提升生產效率和產品質量,Rubin平台的推出將推動工業質檢、智能生產等應用的普及。在工業質檢場景中,基於Rubin平台的AI模型能夠即時檢測產品的缺陷,提高質檢的效率和精準率;在智能生產場景中,AI模型能夠最佳化生產流程,實現生產資源的合理配置。國內的工業軟體企業如用友網路、鼎捷數智、賽意資訊等,將受益於Rubin平台的推出。例如,用友網路可能會基於Rubin平台最佳化其工業網際網路平台,為製造企業提供更高效的智能生產解決方案;鼎捷數智可能會推出基於Rubin平台的工業質檢產品,幫助製造企業提升產品質量。3.3.5 自動駕駛領域:高階自動駕駛的落地自動駕駛領域對算力的需求極高,Rubin平台的高性能和低延遲優勢將推動高階自動駕駛的落地。根據華安證券行業周報資訊,聯想車計算與韓國SWM合作的L4級自動駕駛計程車平台基於NVIDIA DRIVE AGX Thor晶片,而Rubin平台的推出將進一步提升自動駕駛系統的算力和效率。國內的自動駕駛企業如小鵬汽車、理想汽車、蔚來汽車等,以及自動駕駛解決方案提供商如Mobileye、小馬智行等,將利用Rubin平台的算力優勢,提升自動駕駛系統的性能。例如,小鵬汽車的XNGP自動駕駛系統可能會基於Rubin平台進行升級,實現更複雜路況下的自動駕駛;小馬智行可能會推出基於Rubin平台的L4級自動駕駛解決方案,加速自動駕駛的商業化落地。3.3.6 教育與環保領域:公益應用的拓展除了商業領域,Rubin平台還將推動AI在教育、環保等公益領域的應用拓展。在教育領域,基於Rubin平台的AI模型能夠實現個性化教學,為學生提供定製化的學習方案;在環保領域,AI模型能夠即時監測環境資料,預測環境變化,為環境保護提供決策支援。國內的教育科技企業如好未來、新東方等,可能會基於Rubin平台最佳化其線上教育產品,提升教學效果;環保科技企業如聚光科技、先河環保等,可能會利用Rubin平台的算力優勢,提升環境監測和分析的效率。三、AI應用普及分析Rubin平台驅動的產業變革4.1 AI應用普及的核心驅動力:成本降低與性能提升Rubin平台對AI應用普及的核心驅動作用,源於其在成本降低和性能提升方面的雙重突破。一方面,推理每Token生成成本相比Blackwell平台降低10倍,這將大幅降低AI應用的營運成本,使更多的企業和機構能夠負擔得起AI技術的應用;另一方面,訓練性能提升3.5倍,運行軟體性能提升5倍,這將提升AI應用的體驗和效率,拓展AI應用的場景範圍。以智能客服場景為例,此前基於Blackwell平台的AI客服系統,由於推理成本較高,僅大型企業能夠應用。Rubin平台推出後,推理成本降低10倍,中小企業也能夠部署AI客服系統,實現客戶服務的自動化。同時,性能的提升使AI客服能夠更準確地理解使用者的需求,提供更優質的服務,進一步推動智能客服的普及。再以藥物研發場景為例,傳統藥物研發周期長達10年以上,成本高達數十億美元。基於Rubin平台的AI模型能夠大幅縮短藥物研發周期,降低研發成本。例如,利用Rubin平台訓練的藥物研發模型,能夠在幾個月內完成傳統方法需要數年的藥物篩選工作,研發成本降低50%以上。這將推動更多的製藥企業採用AI技術,加速藥物研發處理程序,為人類健康帶來更多的福祉。4.2 不同行業AI應用普及的路徑與節奏由於不同行業的數位化水平、算力需求和合規要求存在差異,Rubin平台驅動的AI應用普及將呈現不同的路徑和節奏。4.2.1 網際網路行業:快速普及,深度滲透網際網路行業的數位化水平高,算力需求旺盛,且對新技術的接受度高。Rubin平台推出後,網際網路行業將成為AI應用普及的先行領域,實現快速普及和深度滲透。預計在2026年,網際網路行業的AI應用滲透率將達到80%以上,涵蓋內容推薦、智能客服、語音識別、圖像分析等多個場景。4.2.2 金融與醫療行業:穩步推進,合規優先金融和醫療行業對資料安全和合規要求較高,雖然Rubin平台的機密計算技術能夠滿足其合規需求,但由於行業特性,AI應用普及將穩步推進。預計在2026-2027年,金融行業的AI應用滲透率將達到60%以上,主要集中在智能風控、個性化服務等場景;醫療行業的AI應用滲透率將達到50%以上,主要集中在AI診斷、藥物研發等場景。4.2.3 製造與自動駕駛行業:逐步落地,場景拓展製造和自動駕駛行業的AI應用需要與實體經濟深度融合,涉及到硬體裝置的升級和流程的改造,普及節奏相對較慢。預計在2027-2028年,製造行業的AI應用滲透率將達到50%以上,主要集中在工業質檢、智能生產等場景;自動駕駛行業的L4級自動駕駛將實現規模化落地,滲透率達到30%以上。4.2.4 教育與環保行業:公益引領,逐步推廣教育和環保行業的AI應用更多地體現公益屬性,需要政府和社會的推動。預計在2028年以後,隨著算力成本的進一步降低和技術的成熟,教育和環保行業的AI應用將逐步推廣,滲透率將達到40%以上。4.3 AI應用普及帶來的社會與經濟影響Rubin平台驅動的AI應用普及,將對社會和經濟產生深遠的影響。4.3.1 經濟影響:推動產業升級,促進經濟增長AI應用的規模化普及將推動各行業的產業升級,提升生產效率和產品質量。根據麥肯錫的預測,到2030年,AI技術將為全球經濟貢獻13兆美元的價值。Rubin平台作為推動AI應用普及的關鍵引擎,將在其中發揮重要作用。例如,在製造行業,AI應用能夠提升生產效率20-30%;在金融行業,智能風控能夠降低風險損失15-20%。同時,AI應用的普及還將催生新的產業和商業模式,創造新的就業機會。例如,AI算力服務、AI諮詢服務等新興產業將迎來快速發展;AI訓練師、AI維運工程師等新職業將不斷湧現。4.3.2 社會影響:提升生活質量,促進社會進步AI應用的普及將提升人們的生活質量,為社會進步帶來新的動力。在醫療領域,AI診斷能夠提高疾病的早期診斷率,降低死亡率;在教育領域,個性化教學能夠滿足不同學生的學習需求,提升教育質量;在環保領域,AI監測能夠及時發現環境問題,推動環境保護。此外,AI應用還將推動社會治理的智能化升級。例如,在城市管理領域,AI技術能夠實現交通流量的智能調度、公共安全的即時監測,提升城市管理效率;在政務服務領域,AI技術能夠實現政務流程的簡化和最佳化,提升政務服務水平。四、國內外AI算力基礎設施及應用相關標的梳理基於前文的產業鏈分析,我們梳理了國內外AI算力基礎設施及應用相關的核心標的,涵蓋上游核心硬體、中游算力服務、下游應用場景等多個環節,為投資者提供參考。5.1 國內相關標的5.1.1 上游核心硬體環節1. 晶片設計:寒武紀(688256)、壁仞科技(未上市)、沐曦積體電路(未上市)。寒武紀是國內AI晶片設計的領軍企業,其思元系列晶片在國內市場具有較高的知名度和市場份額,能夠為國內企業提供AI算力支撐。2. 晶圓製造:中芯國際(688981)。中芯國際是國內規模最大、技術最先進的晶圓製造企業,雖然目前的製程工藝與台積電存在差距,但隨著技術的不斷進步,將逐步滿足國內部分AI晶片的製造需求。3. 封裝測試:長電科技(600584)、通富微電(002156)、華天科技(002185)。長電科技是國內封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,能夠為AI晶片提供封裝測試服務。4. 光模組:中際旭創(300308)、新易盛(300502)、天孚通訊(300394)。中際旭創是全球光模組行業的領軍企業,其200Gb/s及以上速率的光模組產品能夠滿足Rubin平台的網路需求。5. PCB:深南電路(002916)、滬電股份(002463)、生益科技(600183)。深南電路是國內高多層、高密度PCB的龍頭企業,能夠為AI晶片和伺服器提供高品質的PCB產品。6. 散熱器:曙光數創(872808)、高瀾股份(300499)、英維克(002837)。曙光數創是國內液冷散熱器的領軍企業,其液冷解決方案能夠滿足AI伺服器的高散熱需求。7. 材料:江豐電子(300666)、有研新材(600206)、安集科技(688019)。江豐電子是國內高純濺射靶材的龍頭企業,其產品能夠滿足晶片製造的需求。5.1.2 中游算力服務環節1. 雲廠商:阿里雲(阿里巴巴,9988.HK)、騰訊雲(騰訊控股,0700.HK)、百度智能雲(百度集團,9888.HK)。國內三大雲廠商均在積極佈局AI算力服務,將逐步部署基於Rubin平台的算力實例,為國內企業提供AI算力服務。2. 專業算力租賃:平行科技(839493)、優刻得(688158)。平行科技是國內專業的算力調度和租賃服務提供商,能夠為AI創業公司和中小企業提供靈活的算力租賃服務。3. 算力基礎設施:中科曙光(603019)、浪潮資訊(000977)、紫光股份(000938)。中科曙光是國內高性能計算領域的領軍企業,其超級電腦產品能夠為AI計算提供強大的算力支撐。5.1.3 下游應用場景環節1. 網際網路領域:百度集團(9888.HK)、阿里巴巴(9988.HK)、騰訊控股(0700.HK)。國內三大網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:同花順(300033)、恆生電子(600570)、東方財富(300059)。同花順是國內金融資訊服務領域的龍頭企業,其智能投顧產品將受益於Rubin平台的推出,提升產品的精準度和使用者體驗。3. 醫療領域:推想科技(688212)、鷹瞳科技(688297)、藥明康德(603259)。推想科技是國內醫療AI領域的領軍企業,其肺部AI診斷產品將基於Rubin平台進行最佳化,提升診斷的精準率和速度。4. 製造領域:用友網路(600588)、鼎捷數智(300378)、賽意資訊(300687)。用友網路是國內工業軟體領域的龍頭企業,其工業網際網路平台將基於Rubin平台最佳化,為製造企業提供更高效的智能生產解決方案。5. 自動駕駛領域:小鵬汽車(XPEV.US)、理想汽車(LI.US)、蔚來汽車(NIO.US)、小馬智行(未上市)。國內的自動駕駛企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。6. 其他領域:金山辦公(688111)、焦點科技(002315)、阜博集團(3738.HK)。金山辦公的辦公軟體產品將融入AI功能,提升使用者的辦公效率;焦點科技的跨境電商平台將利用AI技術提昇平台的營運效率和使用者體驗。5.2 國外相關標的5.2.1 上游核心硬體環節1. 晶片設計:輝達(NVDA.US)、AMD(AMD.US)、英特爾(INTC.US)。輝達是全球AI晶片設計的領軍企業,Rubin平台的推出將進一步鞏固其市場地位;AMD和英特爾也在積極佈局AI晶片領域,與輝達形成競爭。2. 晶圓製造:台積電(TSM.US)、三星電子(SSNLF.OTCMKTS)。台積電是全球最先進的晶圓製造企業,Rubin平台的晶片採用台積電的3nm製程工藝;三星電子也在積極推進先進製程工藝的研發,與台積電形成競爭。3. 封裝測試:日月光(ASE.US)、安靠(AMKR.US)。日月光是全球封裝測試行業的龍頭企業,具備先進的CoWoS封裝技術能力,為Rubin平台的晶片提供封裝測試服務。4. 光模組:Finisar(FNSR.US)、Lumentum(LITE.US)。Finisar是全球光模組行業的領軍企業,其高速光模組產品能夠滿足Rubin平台的網路需求。5.2.2 中游算力服務環節1. 雲廠商:亞馬遜(AMZN.US)、Google(GOOGL.US)、微軟(MSFT.US)、甲骨文(ORCL.US)。全球四大雲巨頭已確認部署基於Rubin平台的算力實例,將為全球使用者提供頂尖的AI算力服務。2. 專業算力租賃:CoreWeave(未上市)、Lambda(未上市)。CoreWeave是全球專業AI算力租賃領域的領軍企業,將部署基於Rubin平台的算力資源,為客戶提供低成本的算力租賃服務。5.2.3 下游應用場景環節1. 網際網路領域:Meta(META.US)、Google(GOOGL.US)、微軟(MSFT.US)。這些網際網路巨頭均在積極推進大模型的研發和應用,將利用Rubin平台的算力優勢,提升大模型的性能和應用體驗。2. 金融領域:摩根大通(JPM.US)、高盛(GS.US)、花旗集團(C.US)。這些國際金融巨頭將利用Rubin平台的算力優勢,最佳化其智能風控和個性化服務系統。3. 醫療領域:強生(JNJ.US)、輝瑞(PFE.US)、默克(MRK.US)。這些國際製藥巨頭將利用Rubin平台加速藥物研發處理程序,推出更多的創新藥物。4. 自動駕駛領域:特斯拉(TSLA.US)、通用汽車(GM.US)、福特汽車(F.US)。這些國際汽車企業將利用Rubin平台的算力優勢,提升自動駕駛系統的性能,加速高階自動駕駛的落地。五、未來展望展望未來,Rubin平台將成為推動全球AI算力產業發展的核心引擎,帶動百兆規模AI算力生態的建構。在技術層面,輝達將持續最佳化Rubin平台的性能,推出更先進的技術和產品,進一步提昇平台的競爭力;在產業鏈層面,Rubin平台將帶動上游核心硬體、中游算力服務、下游應用場景等多個環節的協同發展,形成完善的AI算力產業生態;在應用層面,AI應用將實現規模化普及,滲透到社會經濟的各個領域,推動產業升級和社會進步。對於國內企業來說,應抓住Rubin平台帶來的發展機遇,加強技術研發,提升自身的核心競爭力。在硬體領域,加快先進製程工藝的研發,突破關鍵零部件和材料的技術瓶頸;在軟體領域,建構完善的AI軟體生態,提升對Rubin平台的適配能力;在應用領域,積極探索AI技術在各行業的應用場景,推動AI應用的規模化普及。同時,政府應加強政策支援,完善相關法律法規,為AI算力產業的發展創造良好的環境。總之,Rubin平台的推出標誌著AI算力產業進入了新的發展階段,百兆規模的AI算力生態正在加速形成。在這一過程中,企業、政府和社會各界應加強合作,共同推動AI算力產業的健康發展,為全球經濟和社會的進步做出更大的貢獻。 (AI雲原生智能算力架構)
美國研究員:用H200這種過時晶片來討好中國,根本無法動搖中國發展自主技術的決心
01 前沿導讀美國企業研究所研究員、《chip war》作者克里斯·米勒在演講時表示,中國已經多次表明晶片自主化是國家經濟安全的核心目標,並願意在這個領域投入大量的資源以實現目標。美國的政策轉變,根本無法影響中國設定的遠大目標。雖然中國在先進的自主裝置上存在明顯不足,但任何出口管制都是暫時性的,並非永久有效,中國最終會在本土製造裝置上取得巨大技術進展。02 嵌入式技術米勒在2022年10月份,出版了個人書籍《chip war》。該書籍以晶片產業為基礎,對晶片技術以及中美之間的科技戰進行了階段性的總結梳理。在該書籍出版三天後,美國商務部便開始針對中國晶片實施全產業鏈的制裁限制,米勒也因此在國際層面成為了備受關注的專家學者。Deep Seek出現之後,由於其以較低成本實現了比肩GPT的大模型效果,在全球科技領域受到了重點關注。米勒對此評價稱,西方企業對Deep Seek的看法存在誤區,只看到了Deep Seek低成本高效率的大模型推理,卻忽略了Deep Seek開源模式的影響力。中國ai產業的思路與美國存在根本上的差別,美國掌控著最尖端的算力晶片,所以GPT以閉源模式運行。而Deep Seek以開源模式運行,這就導致全球範圍內的很多企業為了效率和成本,會主動選擇中國的開源模型。在這種情況下,中國企業就有機會將其技術嵌入到全球各地的應用當中,先美國一步將技術擴散到全球範圍內佔領市場。中美兩國在晶片產業上面走出了兩條完全不一樣的路線,美國掌控著先進晶片的供應,並且在晶片領域對中國實行斷供以及出口管制。在硬體上面,美國企業擁有明顯優勢,並且該優勢還在持續擴大。而中國擁有資源優勢以及完善的產業鏈和內需市場,在規模化應用層面有著明顯優勢。大模型技術的市場佔有率極其重要,過高的市場佔比將會讓使用者依賴於特定企業提供的大模型,並且在此之上發展應用層技術。這是一個零和博弈的競爭,如果不用這家的大模型技術,那麼只能選擇其他家的技術。在國際市場上搶佔更多的市場份額,是當下ai技術的核心發展模式。並且中國大模型的訓練推理晶片,也正在從輝達晶片逐步過渡到國產晶片上。昇騰910B的綜合算力已經達到了輝達A100的水平,但輝達A100是5年前發佈的產品,在單卡算力上中國晶片與美國晶片的差距較大,這也催生出了中國企業採用計算叢集的策略來彌補單卡性能的差距。華為推出了Cloud Matrix384服務架構,採用384顆昇騰算力晶片組成超節點算力叢集。通過對CPU、GPU等技術的最佳化,實現了點對點直連通訊,將384顆算力晶片整合成為一個整體,以此提高大模型的推理效率。在硬體晶片落後的情況下,走計算技術的路線是非常正確的選擇。03 裝置自主化針對美國發起的出口管制,米勒表示晶片自主化是中國未來持續推動的核心目標,這關乎於國家的經濟安全。沒有先進的製造裝置,中國晶片在製程技術上落後明顯。美國也借此機會開始逐步放鬆對先進晶片的出口管制,在收取輝達、AMD在華收入15%的前提下,允許這兩家企業向中國出口特定的晶片產品。儘管美國允許H20、H200晶片對華出口,但中國對此並不感興趣。中國自主晶片已經足夠出色,就算達不到輝達最先進的水平,也並不比輝達閹割版的晶片差。據新華社發佈的專欄報告指出,美國的此次舉動引起了國際法界和商界人士的熱議,這種做法不但沒有先例,而且極不尋常,甚至構成違反憲法的行為。韓禮士基金會貿易政策負責人德博拉·埃爾姆斯表示稱,該政策的先河一開,美國政府以後便可針對特定的企業實施組合管制方案,相當於直接宣稱“其他人不得進行貿易,但如果向我們付錢,你就可以獲得貿易的權力”。晶片產業依然是美國製約中國發展的核心要素,這也是中國現在以及未來要解決的問題。中國晶片在設計與製造環節均具備了不錯的市場規模和本土產能,也正在積極解決先進製造裝置上面的技術短板。將自主裝置開發完成並過渡到量產商用階段,該目標是未來十五五規劃的重點推進項目。 (逍遙漠)
付鵬:決定2026全球資產漲跌的關鍵—AI“高速路”上,真有車跑嗎?
12月20日,在華爾街見聞和中歐國際工商學院聯合主辦的「Alpha峰會」上,知名經濟學家付鵬發表了題為《AI時代下--秩序的重構》的演講。付鵬表示,當前AI產業的核心矛盾在於“路修好了,等待車跑”。上游算力基建投入已基本完成,2026年將進入下游企業級應用能否落地並兌現盈利的“證偽之年”。他還表示,2026年投資者應重點關注特斯拉。它將在明年面臨類似當年輝達的“身份驗證”時刻:究竟只是一一家汽車公司,還是真正的企業級“重AI應用”載體。付鵬指出,這正如檢驗“高速公路修好後有沒有車跑”,如果特斯拉能證明其作為AI應用的價值,市值空間將巨大;否則以當前作為汽車股的邏輯看,其估值並不具備吸引力。付鵬還強調,如果AI被證偽,全球股市都將面臨劇烈波動。當前美股(特別是AI類股)是全球“生產力”的核心,全球主要資產的波動率都與其高度繫結。如果AI最終被證實為泡沫,那不僅是美股,包括日本、歐洲在內的全球股市都會崩盤,“這是一根繩上的螞蚱”。他認為,目前加息或降息已不重要,核心在於資產端(AI)能否產生真實回報率,若資產端出問題,負債端的調整無濟於事。以下為演講實錄:生產力、生產關係與制度秩序的聯動這個話題的底層邏輯,在《見證逆潮》章節中有所探討,也對應2024年諾獎得主阿西莫格魯的AJR模型——聚焦生產力與生產關係的互動,尤其落腳於“制度與秩序”這種特殊生產關係。“秩序”多用於國與國之間(如基辛格《世界秩序》所指的貿易、金融、安全維度),“制度”則常見於企業內部的規則(如打卡考勤)。二者本質上都是特殊形式的生產關係。今天我們討論的,是生產力、生產關係與制度秩序三者的聯動。很多人誤以為宏觀經濟指標是股市的“晴雨表”。但在我看來,股市真正反映的是全要素生產率(TFP)——經濟系統將生產要素轉化為產出的效率。這個過程就像一套齒輪:生產力拉動生產關係,生產關係重塑制度秩序,制度秩序反過來推動生產力。齒輪轉動的效率,就是TFP。大量研究(包括聯準會論文)證實,多數國家股市的長期走勢都與TFP的變化趨勢高度匹配。以美股為例,1929年至今,推動其長期向上的核心動力,始終是經濟效率的提升,而非短期經濟波動。這種提升可來自齒輪的任一環節:科技突破、生產關係最佳化、或制度調整(如上市公司治理改革)。在我常用的“分子分母乘以G”股市模型中,G就代表制度與秩序這一維度。美國資本市場的發展也印證了:從薩班斯法案到股東積極主義,制度最佳化始終是市場長期健康的關鍵。需強調的是,沒有任何環節是完美的。科技是雙刃劍,生產力、生產關係、制度秩序都有兩面性。真正的“完美”,是形成良幣驅逐劣幣的進化機制:好的制度能淘汰壞的制度,系統在糾錯中向前。產業生命周期視角:從廣撒網到去偽存真回到AI話題。2015、2016年是關鍵節點:不僅是美股打破十幾年寬幅震盪、開啟趨勢性行情的起點,也是市場意識到美國經濟效率將躍升的轉折點。此時,木頭姐離開機構自立門戶。她常被稱為“女版巴菲特”,但邏輯完全不同——她是在二級市場運行一套一級市場的成長股投資策略。這涉及佩雷斯的“產業生命周期”理論:真正的產業投資往往從一級市場開始,二級市場看到的是一級市場未來的表現。產業早期,無人能預判那條技術路徑會勝出。因此最優策略是廣泛佈局——如木頭姐的操作,把所有技術路徑納入組合。這是風險投資的核心邏輯:投100個項目,死90個,活10個就是成功。該策略在產業早期估值擴張階段非常有效,能享受所有賽道紅利。但當產業進入成熟期,市場必然去偽存真:資金從90個被淘汰項目,集中到10個真正跑出來的贏家。此時仍分散投資,回報必然落後。2022年的市場殺估值,正是這一“去偽存真”過程。輝達跌70%,比特幣從8萬跌至2萬,所有估值型資產深度調整。這一輪調整的核心,是逼產業交出答卷:例如輝達,必須證明自己不是遊戲顯示卡公司,而是AI算力基礎設施提供商。而2022年底、2023年初ChatGPT的出現,標誌著市場從眾多技術路徑中,明確了少數能跑通的賽道。輝達用後續財報給出了答案,確立了AI時代的核心地位——“想富先修路,修路先買鏟子”,輝達的鏟子成了確定性標的。波動率與市場風險:確定性越高,風險越大分析市場,波動率是核心指標。它是確定性的反面:不確定性越高,波動率越大;確定性越強,波動率越小。2022年輝達跌70%後,市場逐漸確認AI將帶來巨大資本開支,其業績也逐步兌現。從那時到2023、2024年,波動率持續下降——說明市場共識越來越強,確定性極高。但問題恰恰出在“確定性太高”上:高確定性催生貪婪,場外槓桿、民間配資、押房押車all in的現象日益普遍。2024年6月14日,付鵬在華爾街見聞《付鵬說》專欄第20期中提醒:輝達應該考慮買入保險。8月市場波動上升後,付鵬隨即分享了應對方法。可以這樣理解:《付鵬說》專欄中的很多內容,是專門面向普通投資者朋友的。大家並非金融機構,無法通過券商管道每季度參與線下交流。付鵬的專業性內容主要集中於該專欄,而非短影片平台——短影片僅為閒談,深度分析與觀點輸出都在這裡。果不其然,2024年輝達“閃崩”印證了這一邏輯。當時許多分析歸因於“日元套息交易拆倉”,但在我看來,核心原因只有一個:全球資產都綁在了AI這一“生產力資產”上,當資產端的確定性被過度透支,負債端的任何變化都只是導火索。這也是我一直強調的:別盯負債端,要看資產端。如果AI被證明是泡沫,全球市場都會崩,屆時加息降息都無濟於事;如果AI能兌現生產力價值,市場的上漲才具備堅實基礎。AI的“修路”與“通車”——生產力到生產關係的傳導輝達閃崩後,市場一直在問:AI是不是泡沫?這個問題的本質,和2002、2003年謝國忠關於中國基建的爭論如出一轍。當年有人認為修高速公路是浪費、是債務;但事實證明,“要想富先修路”,基建拉動了城鎮化和經濟增長。現在的AI行業,正處在“路修完了,有沒有車跑”的關鍵節點。過去幾年,幾兆美元的AI上游基建已投下,算力、電力等“高速公路”基本成型,但真正的企業級AI應用——“車”——尚未大規模跑起來。目前的ChatGPT、圖生文、文生圖等只是表層應用,遠非能拉動生產力變革的核心應用。市場的疑慮和等待,本質上是在等一個答案:這些AI基建,究竟是能拉動經濟增長的資產,還是無法產生回報的債務?答案將決定全球資產的未來走向。從利率曲線結構,也能看到聯準會的“預防性操作”:輝達閃崩後,美國國債“三個月減十年期”利差迅速倒掛,每一次倒掛都對應波動率的下降。這背後是聯準會通過短端流動性調節,避免系統性風險擴散,為AI應用落地爭取時間。但這種操作也是雙刃劍:好處是延緩市場快速崩盤,壞處是讓估值變得更貴。到了今年年底、明年年初,這個問題已壓不住了。明年將是AI從生產力到生產關係傳導的證明或證偽之年。特斯拉就是這個證明過程的關鍵標的。就像2021、2022年的輝達需要證明自己是算力提供商而非顯示卡公司,特斯拉明年需要證明:它到底是一家汽車公司,還是一個企業級重AI應用平台?答案不同,估值天差地別。如果只是汽車公司,兆市值已透支;如果是AI應用平台,兆市值只是起點。當前美股(特別是AI類股)是全球“生產力”的核心,全球主要資產的波動率都與其高度繫結。如果AI最終被證實為泡沫,那不僅是美股,包括日本、歐洲在內的全球股市都會崩盤,“這是一根繩上的螞蚱”。目前加息或降息已不重要,核心在於資產端(AI)能否產生真實回報率,若資產端出問題,負債端的調整無濟於事。兩條路徑與時代機遇回到最初的問題:AI是不是泡沫?明年的利率曲線走勢,只有兩條路徑:第一條是證偽路徑:如果AI上游基建無法轉化為下游應用的生產力,過去幾年的投資都會變成債務,全球市場將崩盤,無一資產能獨善其身。第二條是證實路徑:如果AI完成從“修路”到“通車”的傳導,生產力真正拉動生產關係變革,我們將迎來第二波浪潮——不僅是生產力創造的財富,更是生產關係最佳化和制度秩序革新的系統性機會。每一輪長周期裡,都有三次大機遇:生產力提升、生產關係改變、制度秩序重構。人這一輩子,能趕上一個齒輪的周期,就已經很好了。輝達已證明自己是確定性的生產力標的,未來會成為成熟的成長股;而接下來的機會,就在生產關係的變革裡——也就是AI應用的落地和普及。 (華爾街見聞)
輝達 Rubin :計算密度的躍遷與資料中心架構的重構
Rubin 是多少張 GPU 互聯?比現在最強的資料中心性能強多少?——本報告的分析結論如下:互聯規模的代際跨越:Rubin 架構引入了 Vera Rubin NVL144 平台,在一個機架內實現了 144 個 GPU 計算核心(Die) 的全互聯 1。這不僅在物理數量上是前代 Blackwell NVL72(72 個 GPU)的兩倍,更重要的是,通過第六代 NVLink(NVLink 6)技術,這 144 個核心建構了一個單一的、記憶體一致的邏輯計算域。這意味著模型可以像在一個巨大的 GPU 上運行一樣,在 144 個核心之間無縫共用記憶體和資料,徹底消除了節點間通訊的延遲瓶頸。性能增益的多維躍遷:相比當前最強的資料中心基準——Blackwell GB200 NVL72,Rubin 展現了多維度的性能提升:AI 推理性能(FP4):提升幅度約為 3.3 倍,達到 3.6 Exaflops 1。海量上下文處理(CPX):針對百萬級 token 的長上下文任務,Rubin CPX 平台的性能是 Blackwell 的 7.5 倍2。記憶體頻寬:整機架聚合頻寬從 NVL72 的 576 TB/s 激增至 1.7 PB/s,約為 3 倍 的提升 2。本報告將深入探討驅動這些數字背後的技術邏輯,包括 3nm 工藝製程、HBM4 記憶體革命、銅纜互聯物理學以及 600kW 功率密度帶來的熱力學挑戰。2. 宏觀背景:計算通膨與推理時代的黎明要理解 Rubin 架構的設計初衷,必須首先審視當前 AI 產業面臨的根本性矛盾:計算通膨(Computation Inflation) 與 記憶牆(Memory Wall) 的雙重擠壓 4。隨著大語言模型(LLM)從單純的文字生成轉向具備多步邏輯推理能力的“Agentic AI”(代理智能),計算範式正在發生深刻的轉移。2.1 從訓練原生到推理原生在 Hopper(H100)時代,資料中心的主要任務是模型訓練,這要求極高的浮點運算能力。然而,隨著模型部署的普及,推理(Inference)——尤其是長上下文、高並行的推理——成為了算力消耗的主體。Blackwell 架構通過引入 FP4 精度初步應對了這一挑戰,但 Rubin 則是為**“推理原生”**時代徹底設計的 2。Rubin 的出現不僅僅是為了更快的訓練,更是為瞭解決“百萬 Token 級”上下文的即時處理問題。在這一場景下,瓶頸不再是計算核心的速度,而是資料搬運的速度。因此,Rubin 架構的核心哲學可以概括為:以頻寬換算力,以互聯換延遲。2.2 摩爾定律的終結與系統級擴展隨著電晶體微縮逼近物理極限,單晶片性能的提升日益艱難。輝達 CEO 黃仁勳明確指出,未來的性能提升將不再依賴單一晶片,而是依賴“資料中心即晶片”的系統級設計 4。Rubin 架構正是這一理念的極致體現:它不再試圖製造一個超強的 GPU,而是試圖製造一個超強的機架(Rack),並讓這個機架在軟體層面表現為一個單一的邏輯單元。3. 矽基架構:Vera Rubin 超級晶片的技術解構Rubin 平台的核心建構模組是 Vera Rubin Superchip。這一異構計算模組整合了定製化的 Vera CPU 和下一代 Rubin GPU,通過 NVLink-C2C 實現晶片級的高速互聯。3.1 Rubin GPU 微架構:3nm 與雙芯封裝Rubin GPU 將採用台積電(TSMC)的 3nm 工藝(預計為 N3P 或後續最佳化版本)製造 6。相比 Blackwell 使用的 4NP 工藝,3nm 節點提供了顯著的電晶體密度提升和能效最佳化,這是在有限的功耗預算下實現性能翻倍的物理基礎。3.1.1 封裝策略:Die 與 GPU 的定義重構在分析 Rubin 的規格時,必須澄清輝達術語體系的變化。在 Blackwell B200 中,一個封裝(Package)包含兩個計算裸片(Compute Die)。在 Rubin 這一代,這種設計得到了延續並擴展:標準 Rubin GPU:包含 2 個全光罩尺寸(Reticle-sized)的計算裸片7。Rubin Ultra(2027年):預計將包含 4 個計算裸片1。因此,當我們討論 NVL144 時,我們指的是 72 個物理封裝,每個封裝內含 2 個裸片,總計 144 個計算核心1。這種設計使得輝達能夠在不突破光刻機掩膜版尺寸限制(Reticle Limit)的前提下,持續擴大單晶片的有效面積。3.1.2 記憶體革命:HBM4 的引入Rubin 架構最關鍵的技術躍遷在於首發搭載 HBM4(High Bandwidth Memory 4) 記憶體 6。相比 Blackwell 使用的 HBM3e,HBM4 帶來了質的飛躍:位寬翻倍:HBM4 將記憶體介面位寬從 1024-bit 擴展至 2048-bit8。這使得在同等時脈頻率下,頻寬直接翻倍。堆疊工藝:HBM4 採用了邏輯裸片與記憶體裸片的混合鍵合(Hybrid Bonding)技術,甚至可能直接堆疊在 GPU 邏輯晶片之上(3D 堆疊),從而大幅降低訊號傳輸的功耗(pJ/bit)。容量與頻寬:每個 Rubin GPU 封裝配備了 288GB HBM4 記憶體,頻寬高達 13 TB/s7。作為對比,Blackwell B200 的頻寬僅為 8 TB/s。這額外增加的 5 TB/s 頻寬,是 Rubin 能夠在推理任務中大幅領先 Blackwell 的核心物理原因。3.2 Vera CPU:徹底的架構自主與 Grace CPU 採用 ARM 標準 Neoverse 核心不同,Vera CPU 採用了輝達完全自訂的 ARM 架構核心 9。核心規格:單顆 Vera CPU 擁有 88 個物理核心,支援 176 個線程(SMT)11。戰略意義:Vera 的出現標誌著輝達在計算全端上的進一步收束。通過自訂核心,輝達可以針對 AI 資料預處理、CUDA 核心調度以及網路協議棧進行指令集等級的最佳化,進一步降低 CPU-GPU 之間的通訊延遲。Vera 與 Rubin 之間通過 1.8 TB/s 的 NVLink-C2C 互聯 1,確保了 CPU 記憶體與 GPU 視訊記憶體處於統一的定址空間。3.3 Rubin CPX:為“百萬上下文”而生在標準版 Rubin 之外,輝達還規劃了 Rubin CPX 變體。這是一個專為處理極長上下文(Massive Context)設計的 SKU 2。技術痛點:在處理長文件或生成長視訊時,Transformer 模型的 KV-Cache(鍵值快取)會佔用海量視訊記憶體,且注意力機制(Attention Mechanism)的計算複雜度隨序列長度呈二次方增長。CPX 解決方案:Rubin CPX 並沒有單純堆砌 FP4 算力,而是整合了專用的硬體單元來加速注意力計算,並最佳化了視訊記憶體管理機制。據官方資料,CPX 在百萬 token 級任務上的表現是 Blackwell 系統的 7.5 倍3。這表明 CPX 可能採用了類似於“Ring Attention”的硬體加速技術,利用 NVLink 6 的高頻寬在多個 GPU 間高效流轉 KV 塊。4. 互聯拓撲:NVLink 6 與 144 芯互聯架構(回答“是多少張GPU互聯”)回答使用者“是多少張GPU互聯”的核心在於解析 NVLink 6 互聯技術與 NVL144 機架架構。這是 Rubin 區別於所有競爭對手的護城河。4.1 NVL144:單一機架內的超級電腦Rubin 架構的旗艦形態是 Vera Rubin NVL144。這是一個液冷機架系統,其互聯規模達到了前所未有的高度:互聯數量:144 個 GPU 計算核心(Die)1。物理形態:72 個 Rubin GPU 封裝(每個含 2 個 Die) + 36 個 Vera CPU 1。互聯性質:全互聯、無阻塞(Non-blocking)、記憶體一致性域。在 NVL144 中,任意一個 GPU 都可以通過 NVLink Switch 直接訪問機架內其他 143 個 GPU 的 HBM4 記憶體,且訪問速度高達 3.6 TB/s。這與傳統的乙太網路或 InfiniBand 互聯有著本質區別:在軟體看來,這 144 個 GPU 就是一個擁有 ~41 TB 統一視訊記憶體(288GB x 144)的巨型 GPU。4.2 NVLink 6:銅纜的物理極限支撐這一互聯規模的是第六代 NVLink 技術。頻寬翻倍:NVLink 6 的雙向頻寬提升至 3.6 TB/s,是 Blackwell 所用 NVLink 5(1.8 TB/s)的 2 倍8。機架總頻寬:NVL144 機架背板的交換容量高達 260 TB/s1。物理介質:為了在機架內實現如此高的密度和極低的延遲,輝達繼續採用了**銅纜背板(Copper Backplane)**設計 13。儘管業界對光學互聯(Silicon Photonics)呼聲甚高,但在機架內部(<2米距離),銅纜依然具有功耗低、無需光電轉換延遲的優勢。NVL144 的背板是一個工程奇蹟,它整合了超過 5000 根高速銅纜,構成了一個類似脊椎的通訊骨幹。4.3 與 Blackwell NVL72 的對比通過對比可見,Rubin 並非簡單的數量堆砌,而是通過互聯頻寬的翻倍來支撐節點數量的翻倍,從而保證了**網路直徑(Network Diameter)**不隨節點增加而惡化,維持了極低的通訊延遲。5. 性能基準:超越最強資料中心(回答“強多少”)使用者關注的第二個核心問題是:“比現在最強的資料中心性能強多少?” 目前的基準是 Blackwell GB200 NVL72。Rubin 的性能提升並非單一數值,而是根據工作負載的不同呈現出分層差異。5.1 AI 推理性能(Inference):3.3 倍的躍升在 FP4(4-bit 浮點)精度下,Vera Rubin NVL144 的理論峰值性能達到 3.6 Exaflops(每秒 360 億億次運算)1。對比基準:Blackwell NVL72 的 FP4 性能約為 1.44 Exaflops。提升幅度:約 2.5 倍至 3.3 倍1。技術歸因:這一提升不僅源於 GPU 數量的翻倍(從 72 到 144),更源於 Rubin 架構 Tensor Core 的效率提升以及 HBM4 提供的 13 TB/s 頻寬,使得計算單元能夠滿負荷運轉,避免了“記憶體牆”導致的閒置。5.2 複雜推理與長上下文(CPX):7.5 倍的質變對於生成式 AI 的未來——即涉及數百萬 Token 上下文、視訊生成或複雜程式碼分析的任務——Rubin CPX 展現了驚人的統治力。性能資料:輝達宣稱 Rubin CPX 系統在“海量上下文推理”任務中比 GB200 NVL72 強 7.5 倍2。技術歸因:這 7.5 倍的差異遠超算力本身的提升,主要歸功於 CPX 針對 Attention 算子的硬體最佳化和 NVLink 6 的極低延遲。在長文字推理中,資料在 GPU 間的搬運是最大瓶頸,Rubin 的超高頻寬讓跨 GPU 的 KV-Cache 訪問如同訪問本地視訊記憶體一樣快。5.3 訓練性能(FP8):穩健增長在傳統的模型訓練(FP8 精度)方面,Rubin 的提升相對溫和但依然顯著。性能資料:NVL144 提供 1.2 Exaflops 的 FP8 算力 1。對比基準:Blackwell NVL72 約為 720 Petaflops。提升幅度:約 1.6 倍。解讀:訓練任務對計算密度的依賴高於記憶體頻寬,因此提升幅度更接近於電晶體規模的線性增長。但考慮到 Rubin 支援更大的單節點模型,其實際訓練效率(收斂速度)可能高於理論算力的提升。5.4 性能資料彙總表以下表格總結了 Rubin NVL144 與 Blackwell NVL72 的關鍵性能對比:6. 熱力學與基礎設施:600kW 的工程挑戰Rubin 架構的性能飛躍並非沒有代價。為了在單一機架內壓縮 144 個高性能 GPU 和 36 個 CPU,其對資料中心的基礎設施提出了極其嚴苛的要求。6.1 功率密度的爆炸:邁向 600kW雖然標準的 NVL144 機架功耗預計在 120kW - 140kW 左右(與 NVL72 相似),但 Rubin 架構的終極形態——Rubin Ultra NVL576——預計將單機架功耗推向 600kW 的恐怖量級 10。對比:傳統企業級機架功耗僅為 10kW 左右;即使是當前的高密度 AI 機架通常也在 40-50kW。Rubin Ultra 的 600kW 相當於將一個小區的用電量壓縮到了一個衣櫃大小的空間內。6.2 800V 高壓直流供電(HVDC)為了應對如此巨大的電流,傳統的 48V 配電架構已徹底失效(電流過大會導致銅排熔化)。Rubin 平台推動了 800V 直流配電 標準的落地 17。原理:根據 $P=UI$,在功率 $P$ 極大的情況下,提高電壓 $U$ 是降低電流 $I$ 的唯一途徑。800V 架構允許使用更細的母線(Busbar),減少傳輸損耗,並提高電源轉換效率。6.3 液冷成為唯一選項對於 Rubin NVL144,風冷已在物理上不可行。該系統採用了 100% 全液冷設計14。Kyber 機架:輝達為 Rubin 重新設計了名為“Kyber”的機架架構(接替 Blackwell 的 Oberon 機架)。Kyber 專為高密度液冷最佳化,冷卻液直接流經 GPU、CPU 和 NVSwitch 晶片表面的冷板(Cold Plate),並通過機架內的 CDU(冷卻分配單元)進行熱交換。這意味著部署 Rubin 的資料中心必須具備完善的液體回路基礎設施。7. 軟體生態與經濟學模型硬體的堆砌只是基礎,Rubin 的真正威力在於其軟體棧和經濟效益。7.1 CUDA 與 NIM 的進化為了駕馭 144 晶片的互聯域,輝達的 CUDA 軟體棧將進一步演進。Rubin 將深度整合 NVIDIA NIM (NVIDIA Inference Microservices),這是一套預最佳化的微服務容器,能夠自動識別底層的 NVL144 拓撲,並將模型層(Layer)智能切分到不同的 GPU Die 上,以確保儲存和計算的負載平衡 4。7.2 代幣經濟學(Tokenomics)雖然 Rubin NVL144 機架的單價將極其昂貴(預計數百萬美元),但其 TCO(總體擁有成本) 在大規模推理場景下可能反而更優。推理成本降低:由於 Rubin CPX 在長上下文任務上擁有 7.5 倍的性能優勢,這意味著單位 Token 的生成能耗和時間成本大幅下降。對於像 OpenAI、Anthropic 這樣每天處理數十億 Token 的服務商而言,Rubin 是降低營運成本的必要工具。8. 結論與展望輝達的 Rubin 架構不僅僅是一次產品的迭代,它是對“摩爾定律已死”這一論斷的有力回擊。通過將 144 個 3nm GPU 封裝在一個通過 NVLink 6 互聯的單一機架中,輝達成功地將計算的邊界從微米級的晶片擴展到了米級的機架。回答使用者的核心疑問:互聯規模:Rubin 實現了 144 張 GPU(裸片) 的全互聯,建構了當前世界上密度最大的單一記憶體計算域。性能對比:相比當前最強的 Blackwell NVL72,Rubin 在 AI 推理上強 3.3 倍,在處理長上下文任務時強 7.5 倍,在記憶體頻寬上強 3 倍。Rubin 的出現標誌著 AI 基礎設施正式進入了“巨型機”時代。在這個時代,資料中心的衡量單位不再是伺服器的數量,而是機架(NVL144)的數量。對於追求極致算力的科研機構和科技巨頭而言,Rubin 不僅是下一代工具,更是通往通用人工智慧(AGI)的物理基石。 (成癮大腦神經重塑)
我們處在2000年泡沫崩掉的前夜嗎?
今天聽完了a16z播客的新一期對談:Benedict Evans(曾任a16z合夥人,長期研究平台變革)和主持人Erik Torenberg聊《AI eats the world》以及下一輪平台遷移的真實走向。整期內容不太像“追熱點”,更像是在給2025年的AI產業做一次冷靜校準:泡沫從那來、為什麼全行業FOMO、為什麼人人都知道但還沒用成習慣,以及最關鍵的——模型之外,到底還缺什麼產品形態和商業護城河。題圖來自:AI生成下面我把這期對談裡我認為最有價值、也最能幫助我們理解當下進度與下一步機會的點,整理成一篇資訊梳理,分享給大家。一、真實進度條:為什麼AI看起來“人盡皆知”,卻還沒變成“人人離不開”Benedict Evans用一個很刺耳的反問開場:ChatGPT有8億~9億周活,但如果你是那種每天用好幾個小時的人,不妨問自己——為什麼有五倍於你的人“看過、理解、有帳號、會用”,卻想不出這周或下周要用它做什麼?這句話把2025年AI的“真實進度條”釘在了一個矛盾上:熱度已是基礎設施等級,使用仍停留在“可選工具”。他提到的調查印象也指向同一件事:每天用的人大約10%~15%,更多人是“每周用一次或偶爾用一次”。這會直接影響一切——從商業模型、分發管道,到誰能建構真正可防禦的產品。二、“AI”和“AGI”正在變成一套話術,而不是一組定義Evans反覆強調:“AI”這個詞越來越像“技術”“自動化”——只在“新”的時候成立,一旦普及,它就不再被稱為AI。他舉了電梯的類比:1950年代奧的斯把自動電梯當成“電子禮儀”行銷;今天沒人會說“我在使用電子電梯”,它只是電梯。而“AGI”則更像“新的、可怕的東西”。他講了一個略帶神學意味的笑話:AGI似乎總處在一種尷尬的二選一——要麼它已經到了,只是“小型軟體”;要麼它在5年後,並且永遠都會在5年後。這也解釋了他對行業敘事的敏感:你會看到有人說“我們現在就有博士級研究員”,也會看到另一派立刻反駁“沒有,別鬧”。對Evans來說,問題不在於誰更會講話,而在於:當我們連“它到底是什麼”都在搖擺時,所有預測都會被敘事拉扯得四分五裂。三、這到底是一次平台變革,還是“比平台更大”的結構性變化?Evans的核心框架,是把生成式AI放進“平台變革史”裡對照:平台變革通常會帶來贏家和輸家,會製造泡沫,也會催生新的兆公司;但對科技行業之外,影響往往分化——網際網路對報紙行業是“改天換地”,對水泥行業可能只是“更好用的工具”。但這一次不同在於:過去的平台變革,你不知道明年會出現誰(Netscape出來時,很多未來巨頭還在上學;Amazon也還只是書店),但你大體知道物理極限:頻寬、硬體、電池、成本曲線都在可推演的邊界裡。生成式AI的麻煩是:我們不知道它的“物理極限”。因為我們既沒有對“它為何有效”的充分理論,也沒有對“人類智能是什麼”的充分理論,於是你只能聽到一堆“我覺得”。這會直接導致一種“精神分裂式敘事”:同一家公司可以一邊談“很快人類級/博士級研究員”,一邊又談“這是新的API堆疊,會像Windows一樣讓更多軟體成為可能”。Evans的吐槽很直接:這兩件事不可能同時為真——要麼你擁有一個博士級研究員(那它也該是博士級會計師),要麼你只是得到一種更強的軟體能力去做報稅、寫程式碼、做工作流。四、泡沫:不是“會不會”,而是“我們現在是97、98還是99”在泡沫問題上,Evans的態度既不高舉高打,也不裝作冷靜旁觀者。他的判斷是:“非常新、非常大、非常令人興奮、改變世界的東西,往往會導致泡沫。”所以,如果現在還不在泡沫裡,也大機率會走進泡沫。但他更看重的是泡沫的“結構性特徵”,而不是給泡沫貼標籤:泡沫期裡一切同時上漲,所有人都像天才,槓桿、交叉槓桿、循環收入到處都是;然後當它掉頭,會出現棘輪效應。他引用Marc Andreessen對90年代網際網路泡沫的記憶:1997不是泡沫,1998不是泡沫,1999是泡沫。問題是——我們現在到底是那一年?如果能精準回答,我們就生活在平行宇宙裡。五、FOMO的底層邏輯:不投資的下行風險,大過過度投資的下行風險比“泡沫”更能解釋2025年資本開支狂潮的,是Evans拋出的那句行業共識:從超大規模雲服務商那裡聽到的說法大意都是——不投資的下行風險,超過過度投資的下行風險。這裡的關鍵不在“他們是否理性”,而在“沒人能算明白”。Evans用90年代末預測頻寬需求做類比:你可以列出使用者數、網頁頻寬、視訊時長、位元率、觀看習慣,用電子表格算出10年後全球頻寬消耗,再反推路由器銷量——你會得到一個數字,但它一定不是那個數字,真實結果可能有百倍區間。同理,AI計算需求也很難代數化:模型效率每年可能下降很多倍(他強調“成本在掉”),但使用量在漲;於是你很難判斷到底是“缺供給”還是“缺需求”,也很難判斷今天的CapEx是在買未來,還是在買焦慮。他順手拆了一個“過度投資也能轉賣容量”的樂觀說法:如果你閒置算力,別人也會閒置;你以為能轉賣,市場上卻可能是“全行業一起庫存”。六、“缺失的產品”:ChatGPT像入口,但還不是“定義平台的那台iPhone/那張Excel”這期對談最有資訊密度的部分,其實不是模型能力,而是Evans對“產品形態”的判斷:很多人把ChatGPT當成“產品”,但它更像一個“偽裝成產品的聊天機器人”。原因並不玄學,而是UI與工作流的現實:專業軟體的螢幕上之所以只有7個按鈕,是因為背後有一群人把機構知識、行業流程、決策節點都壓縮成“在這一步該問什麼、該給什麼選項”。而當你面對一個空白提示框,你被迫從第一性原理想清楚:我到底要什麼、我該怎麼問、我該怎麼驗證、我該怎麼把它嵌進工作裡——它幾乎在“問你所有事情”。於是,“缺失的產品”就清晰了:不是缺一個更聰明的模型,而是缺一套能把AI嵌進具體崗位與具體流程的產品包裝。這也是他解釋為什麼企業會買Everlaw這種“法律文件發現解決方案”,而不會想自己去拼AWS API:人們購買解決方案,不購買技術。Evans給出的直覺很像一句“創業者友好”的判詞:過去十年企業軟體公司在拆解Oracle/Excel;今天AI軟體公司在拆解ChatGPT。誰能把“按鈕”做出來,誰就能把AI的能力變成可銷售的工作流。七、驗證與錯誤率:為什麼“無限實習生”有時反而讓你更累Evans最尖銳的現實主義,不在“它會不會更強”,而在“你能不能驗證”。他引用與Balaji的對話:矽谷的人經常對錯誤率揮手而過,但很多問題需要特定且正確的答案;如果無法機械驗證,靠人檢驗是否划算?在行銷裡,讓機器生成200張圖、人挑10張,效率巨大;但在資料錄入場景,如果機器從200個PDF抄200個數字、你得逐個核對,那你還不如自己做。他舉的OpenAI Deep Research的例子尤其扎心:它拿來當行銷展示的資料“數字全是錯的”,錯在轉錄、錯在來源選擇;你讓實習生做,也可能犯同樣的錯。這不是嘲諷模型,而是在強調:AI的落地不是“能生成”,而是“能交付”。交付意味著驗證鏈路、責任邊界、以及“錯一次的代價”。八、新行為會出現,但“類別長什麼樣”我們現在很可能問錯了問題當被問到“會不會出現AI版Uber/Tinder”時,Evans的回答依舊是歷史視角:每一次平台變革,早期都充滿誤判。1995年人們以為Web更像“共享系統”,後來才變成“發佈系統”;iPhone也用了兩年才真正跑通價格、功能與分發。他甚至把這種“問錯問題”的必然性當成規律:當年移動時代人人追問“3G的殺手級用例是什麼”,最後答案是“口袋裡隨處都有網際網路”——但當時沒人這麼問。因此他更願意把AI的落地分成三步:第一步,把它做成功能,做明顯的自動化;第二步,做新的東西;第三步,有人把行業從裡到外翻過來,重新定義問題。在他看來,我們仍大量停留在第一步,同時開始更認真地討論第二步、第三步:AI會帶來什麼新收入?會在那些地方重塑市場結構?九、競爭格局:模型趨同,真正的差異在分發、成本與“可防禦的粘性”關於“誰能贏”,Evans不太相信“基準分數”能給答案。他同意一種觀察:對偶爾使用的消費者來說,模型很可能被體驗成“商品”;真正拉開差距的,是分發、默認入口、以及成本基礎。他對OpenAI的描述尤其冷:8億~9億周活當然驚人,但這種優勢“很脆弱”,因為它更像品牌與默認,而不是網路效應、生態系統或功能鎖定;同時它沒有自有基礎設施,成本不受控,“每個月從Satya那裡收帳單”。因此OpenAI必須兩線作戰:一邊在模型之上拚命做產品形態(瀏覽器、社交視訊、應用平台……“滿牆都是線”那種),一邊補基礎設施,去和Nvidia、AMD、Oracle、甚至“石油美元”打交道。這句話把2025年“FOMO”從雲廠商擴展到了模型廠商:不僅要跑得快,還要補齊護城河。十、大廠站位:Google/Meta/Apple/Amazon/OpenAI分別在守什麼、搶什麼Evans對“大廠站位”的拆解,核心不在“誰模型更強”,而在五家公司各自的基本盤不同:有人在守入口,有人在守現金流,有人在守裝置生態,有人既賣鏟子也想重做決策鏈路。OpenAI:守默認入口,搶護城河與成本基礎OpenAI的強項是心智與默認入口,但弱點是缺少穩固的生態鎖定與基礎設施控制權。它必須同時補兩件事:把入口變成更強粘性的產品形態,以及把成本基礎從“外部帳單”變成可控的長期結構。Google:守搜尋廣告現金牛,搶下一代體驗的定義權Google可以用既有現金流承受巨額投入,把AI吸收進搜尋、廣告、工具鏈裡,先把“舊世界”做得更強。同時它也在爭一件事:下一代入口究竟長什麼樣——是Google定義,還是別人定義後Google複製並規模化。Meta:守內容分發與推薦系統,搶下一代社交體驗控制權AI對Meta更像“體驗範式變數”,會影響內容生產、分發、推薦與互動方式。它最在意的不是單點能力,而是分發機器的控制權是否旁落,因此更需要掌握自有模型與能力邊界。Amazon:守AWS的鏟子生意,搶購買決策與發現入口一方面,Amazon天然受益於把AI當雲能力售賣;另一方面,它更想搶的是“使用者如何決定買什麼”。如果購買從搜尋SKU遷移到對話式建議與發現,零售媒體、廣告轉化路徑、推薦系統都可能被重寫。Apple:守裝置與生態入口,搶“計算形態是否改寫”的落點Apple的關鍵不在有沒有聊天機器人,而在AI會不會改變“軟體是什麼、App是否還存在”。如果互動轉向代理化/對話化,裝置側仍可能是關鍵入口;但前提是體驗要足夠穩定可靠,而這恰恰是行業目前最難交付的部分。十一、站到行業外面:真正焦慮的不是“我能不能用AI”,而是“我的價值鏈會不會被改寫”Evans最後把鏡頭推向科技之外:如果你是出版、品牌、行銷、媒體公司,你可以列一堆問題,但你甚至不知道問題是什麼。當使用者問LLM要一個食譜,LLM直接給答案,食譜網站意味著什麼?當購買決策變成“我揮舞手機問一句‘我該買什麼’”,流量與轉化會被帶到那裡?Amazon能否借LLM真正把“推薦、發現、建議”做成規模化能力,而不只是賣SKU?他甚至把這種衝擊總結為一種殘酷的“自我識別”:報紙行業過去談策展、新聞,卻很少承認自己也是“輕製造+本地配送卡車公司”;直到網際網路來了,價值鏈裡真正可被拆解、可被替代的部分才暴露。換句話說,AI的第二階段、第三階段,可能不是把你效率提高20%,而是讓你意識到:你以為的護城河,可能只是“無聊、困難、耗時”的流程摩擦。當LLM移除摩擦,你靠摩擦賺錢的行業,會突然失重。十二、2025年的“真實進度”,是一場從模型熱到產品定型的遷徙如果把這場對談壓縮成一句話:2025年AI的關鍵不在“更強的模型”,而在“缺失的產品形態”與“可驗證的交付鏈路”——它們決定了AI會從少數人的高頻工具,變成多數人的默認工作方式。Evans最後也留了一個誠實的邊界:我們現在擁有的,還不是“實際人的替代品”,除非在非常狹窄、嚴格護欄的場景裡。它會不會成長到那一步?沒人能給可證偽的答案。但對產業而言,也許更重要的是:即便它永遠只是“更強的軟體”,也足以像網際網路與智慧型手機那樣,重排一批行業、重寫一批公司。而真正的戰場,會發生在“泡沫與FOMO”之下,那些把能力做成產品、把錯誤變成可控、把工作流變成按鈕的人手裡。 (虎嗅APP)
AI,突發重磅!川普,正式簽署!
川普,「力挺」AI產業!據最新消息,美國總統川普當地時間11日簽署一項關於人工智慧政策的行政命令,旨在統一AI監管規則,並通過訴訟和削減撥款的方式來限制各州監管人工智慧(AI)的權力。川普表示,從事人工智慧工作的人員或公司在美國設立業務不應遇到障礙。白宮則稱,此舉旨在「通過一個負擔最小的國家級AI政策框架,維持並提升美國在全球AI領域的主導地位」。川普的上述舉動,被認為是美國科技業的勝利。長期以來,美國科技企業一直在遊說美國政府,限制並減少他們認為過於繁瑣的監管法規。與此同時,摩根大通資產管理公司董事總經理凱利·克雷格(Kerry Craig)周四駁斥了最近對股市人工智慧泡沫的擔憂。川普簽署當地時間12月11日,美國總統川普簽署了一項行政命令,以保護美國人工智慧創新免受各州法律不一導致的合規體系混亂和高昂成本的影響。這項行政令指示美國司法部長成立人工智慧訴訟特別工作組,對那些出台「被認為會損害美國全球人工智慧領先地位」的州提起訴訟。不遵守規則的州可能面臨資金限制。該行政令規定,在簽署後90天內,美國商務部長必須明確各州有資格獲得寬帶公平接入和部署計劃剩餘資金的條件。該計畫是一項耗資425億美元,旨在擴大農村地區高速網路接入的工程。行政令要求美國商務部長識別現有的州法律中那些「要求AI模型改變其真實輸出」的條款,這與川普政府早前試圖防止其所謂「覺醒AI(woke AI)」的努力相呼應。被認定有這些及其他「繁重」要求的州,可能需要簽署協議,承諾不執行這些法規,才能獲得可自由支配的聯邦資金。行政命令指出:「為贏得競爭,美國AI公司必須能夠在不受繁瑣監管的情況下自由創新。但各州過度的監管阻礙了這一必要處理程序。」在大衛·薩克斯的協助下,川普政府一直尋求建立聯邦規則優先於各州人工智慧監管的路徑,此舉旨在防止加利福尼亞州和紐約州等民主黨主導的大州對日益增長的人工智慧施加控制。在簽章儀式上,川普稱,人工智慧已經帶來了醫學上的突破,而美國需要一個蓬勃發展的人工智慧產業才能維持競爭力,「在未來一段時間內,它可能佔我們經濟的50%到60%」。川普表示,從事人工智慧工作的人員或公司在美國設立業務不應遇到障礙。他說:「如果他們必須從50個不同的州獲得50個不同的批准,那就算了,因為這是不可能的。」川普表示,他曾就行政令與眾多科技業領袖磋商,並指出蘋果公司執行長庫克是其中之一。摩根大通策略師駁斥AI泡沫論12月11日,摩根大通資產管理公司董事總經理凱利·克雷格(Kerry Craig)在一次採訪中駁斥了最近對股市人工智慧泡沫的擔憂。克雷格稱:「你現在看到一些對資本支出水平的擔憂正在蔓延,我認為這絕不是泡沫。」他解釋說,這是因為就目前而言,大部分資金來自企業擁有的現金,而不是債務,而且與互聯網泡沫不同,實際需求和強勁的盈利前景證明了這一點。實際上,克雷格發表上述言論之際,人們普遍擔心美國存在人工智慧泡沫,因為投資者越來越擔心美國科技公司越來越多地利用債務為旨在擴大其AI相關基礎設施的大型項目提供資金。12月11日,甲骨文股價暴跌,此前其公佈的季度收入低於市場預期。今年9月,甲骨文透過發行債券籌集了約180億美元的資金,用於投資一個大型人工智慧資料中心。「你可以回顧一下互聯網和光纖的擴張。所有這些光纖都有巨大的投資,它花了數年時間才被吸收,但它被吸收了。」克雷格指出,人工智慧的採用率仍然「非常低」。克雷格預計明年美國股市的人工智慧上漲將持續下去,但幅度將小於今年。 (券商中國)
摩爾線程IPO背後:與商湯多年合作,印證AI產業“軟硬協同”趨勢
摩爾線程的火爆上市,是中國AI產業鏈協同突圍的里程碑。其背後,商湯科技以創新的“算力Mall”模式,正為國產晶片鋪就一條從“可用”到“好用”的關鍵路徑。12月5日,國產GPU企業摩爾線程成功上市,開盤大漲超過400%,市值突破2700億元。這無疑是中國AI晶片產業的一個高光時刻。而在資本市場的熱度之外,更應冷靜審視其背後的產業邏輯:國產GPU的真正瓶頸,已不是單純的算力比拚,而是生態的不完善。輝達的核心競爭力,在於其構築多年的CUDA軟體生態壁壘。如何破局?摩爾線程與商湯科技的長期合作提供了一個樣本:唯有深度生態協同,才能實現“軟硬一體”的國產化突圍。合作多年,商湯演算法+摩爾算力高效協同商湯官方在回覆投資者問題時表示,“公司與摩爾線程多年來保持業務合作關係,公司演算法已完成對其相關產品的適配,雙方的協同將有助於提升公司產品的市場適配性。”據悉,雙方在大模型訓練推理技術最佳化、軟體生態支撐、核心技術攻關等領域已經形成高效協同。一方面,摩爾線程的優勢在於全功能GPU,兼顧AI計算與圖形渲染,其豐富的演算法需求與日益提升的算力供應形成強有力的合作基礎。另一方面,商湯對算力的需求是多元的,大模型訓練需要極致的浮點運算能力,AIGC視訊生成等應用又需要強大的渲染能力。摩爾線程圖形渲染領域具備差異化能力,滿足商湯在大模型運算與不同場景的復合算力需求,並反哺商湯演算法落地效率提升。由此,雙方形成“需求-供給-最佳化”的閉環合作機制,市場競爭力也獲得同步提升。搭建國產算力極佳試驗場對摩爾線程而言,商湯領先的日日新大模型體系、商湯AI大裝置SenseCore及其廣泛的落地場景,構成了絕佳的規模化場景驗證平台,能為其提供關鍵的產品驗證和背書,有助於拓展行業客戶。目前,摩爾線程的MTT S系列GPU已經完成與商湯大裝置SenseCore的全面適配,實現了對商湯日日新多模態大模型體系的支援。這意味著,國產GPU首次在千億參數級的大模型訓練與推理任務中,接受了工業級標準的嚴苛考驗。在真實的業務壓力下,商湯不僅幫助摩爾線程驗證性能、打磨產品,完成產品從“可用”到“好用”的淬煉;同時商湯借助晶片企業的管道資源觸達更多潛在客戶,形成“生態擴容 - 客戶增長 - 業績提升”的良性循環,也強化了自身“生態主導者”的估值溢價。生態共建:“商湯算力Mall”推動中國AI算力自主可控在全球高端AI算力供應受限的大背景下,建立多元、穩定的國產算力供應鏈以及生態協同至關重要。“商湯大裝置算力Mall”聯動多家晶片企業打造國產AI算力生態聯盟,建構了全場景算力解決方案,降低企業獲取高性能算力門檻,快速擴大客戶覆蓋範圍,提升市場滲透率,助力AI技術快速滲透至各行業場景。以摩爾線程為例,其今年7月作為核心成員加入“商湯大裝置算力Mall”,平台下游的數字孿生、具身智能等企業,可以借助商湯的平台,使用經過適配驗證的摩爾線程晶片算力,商湯串聯產業鏈上下游,算力的提供方和適用方,都能夠借助商湯的生態影響力加快拓展市場。業內普遍認為,商湯與多家國產AI晶片企業深度合作,共同攻克“卡脖子”技術,實現算力自主可控,推動了中國AI算力的自主可控與產業發展,形成“技術互補、資源共享、場景互哺”的合作生態,也減少市場對供應鏈短缺的擔憂。 (21世紀經濟報導)