#AI產業
輝達AI產業生態的建構之道
在全球AI產業爆發式成長的浪潮中,輝達(NVIDIA)並非僅以晶片製造商的身份存在,而是憑藉全端技術佈局和生態協同策略,建構了一個覆蓋硬體、軟體、開發者、合作夥伴及行業場景的龐大AI產業生態系統。其生態建構邏輯以「核心技術為基、軟體平台為橋、夥伴協同為脈、開發者為核」,形成了自我強化的生態正循環,奠定了其在AI領域的領導地位。一、以頂尖硬體為生態基石,築牢性能護城河硬體是AI計算的核心載體,輝達透過持續迭代高性能GPU及配套硬體架構,為生態提供了不可替代的計算基礎,形成了生態建構的「硬支撐」。1. 迭代GPU核心架構,領跑AI計算效能輝達從早期的Tesla系列到現今的Hopper、Blackwell架構,始終聚焦在AI計算需求最佳化GPU設計。以Blackwell架構為例,其採用先進的晶片堆疊技術和全新的電晶體架構,在AI訓練和推理性能上實現數量級提升,單晶片算力較前代提升5倍以上,為大模型訓練、代理式AI等嚴苛工作負載提供了強大算力支撐。這種性能優勢使得全球絕大多數AI企業、科研機構在開展核心AI研發時,首選輝達GPU作為計算載體,形成了生態的「硬體入口壁壘」。2. 推出互連與整機解決方案,完善硬體生態閉環為解決大規模AI計算的算力群聚化需求,輝達打造了從晶片級互連到整機系統的完整硬體方案。其推出的NVLink技術作為核心互連架構,實現了GPU之間、GPU與CPU之間的高速資料傳輸,第五代NVLink為每個GPU提供1.8TB/s的總頻寬,較PCIe 5.0快14倍。2025年發表的NVLink Fusion晶片更實現了生態突破,允許合作夥伴基於該技術打造半定製AI晶片,MediaTek、Marvell、Alchip等企業已藉助該技術開發自訂AI計算系統,富士通、高通則將自訂CPU與輝達GPU通過NVLink整合,建構高性能工廠。此外,搭配ConnectX SuperNIC、Spectrum-X乙太網路交換機等網路硬體,輝達形成了「GPU+互連+網路+整機」的全端硬體解決方案,滿足從邊緣到資料中心的全場景計算需求。二、以軟體平台為生態紐帶,打通技術落地鏈路如果說硬體是生態的「骨架」,那麼軟體就是串聯生態的「血脈」。輝達透過建構CUDA為核心的軟體平台體系,降低了AI技術的使用門檻,實現了硬體能力的最大化釋放,也讓開發者和合作夥伴深度繫結於生態之中。1. CUDA:建構生態的「作業系統級」基石CUDA(統一計算裝置架構)作為輝達生態的核心,是連接GPU硬體與上層應用的關鍵介面。它提供了一套完整的程式設計模型、開發工具和函式庫,讓開發者無需深入掌握GPU硬體細節,即可透過C、C++等熟悉的語言開發AI應用。經過十餘年迭代,CUDA已形成龐大的工具鍊和庫體系,如針對深度學習的cuDNN、針對高效能計算的cuBLAS等,覆蓋從模型訓練到推理部署的全流程。這種「一次開發、多平台部署」的特性,使得全球數百萬開發者聚集於CUDA生態,形成了強大的技術慣性-開發者基於CUDA開發的應用越多,企業選擇輝達GPU的動力就越強,反之又推動更多開發者投入CUDA生態,形成正向循環。2. 全端AI框架與平台,降低產業落地門檻為推動AI技術向各行業滲透,輝達在CUDA基礎上建構了針對不同場景的上層軟件平台。在深度學習框架層面,輝達與TensorFlow、PyTorch等主流框架深度合作,提供優化的底層支援,確保框架在輝達GPU上實現最高性能;在行業應用層面,推出了專項平台,如自動駕駛領域的DRIVE、醫療健康領域的Clara、工業領域的Metropolis等,這些平台整合了經過最佳化的設備例如,Clara平台為醫療影像分析、藥物研發等場景提供了端到端解決方案,幫助醫療機構和藥廠大幅縮短研發周期。此外,輝達還推出了NGC(NVIDIA GPU Cloud)平台,提供預訓練模型、容器化工具和產業解決方案,開發者和企業可直接在NGC上取得資源,加速AI應用開發與部署。三、以夥伴協同為生態脈絡,建構產業共同體AI產業涉及晶片設計、硬體製造、軟件開發、產業應用等多個環節,輝達透過開放合作策略,與產業鏈上下游夥伴建構了「共生共榮」的生態共同體,實現了生態的規模擴張。1. 硬體夥伴:建構半定製生態,拓展硬體邊界輝達摒棄「閉門造車」的硬體策略,透過NVLink Fusion等技術向晶片設計和製造夥伴開放生態。MediaTek、Marvell、Alchip等企業借助NVLink Fusion技術打造自訂AI晶片,Synopsys、Cadence等提供設計IP與工具支援,形成了「輝達核心技術+夥伴定製開發」的硬體合作模式。這種模式既發揮了輝達在互連架構和GPU核心技術的優勢,也利用夥伴的專業能力滿足不同產業的定製需求。例如,MediaTek結合自身在高速互連領域的優勢,與輝達合作開發下一代AI基礎設施,服務雲級AI需求;富士通則將其2奈米Arm架構CPU與輝達GPU透過NVLink整合,實現更高能效比的AI計算。同時,輝達與台積電、三星等晶圓製造企業深度合作,確保GPU晶片的產能供應,為生態擴張提供硬體保障。2. 雲端服務夥伴:實現算力普惠,擴大生態覆蓋為讓更多企業和開發者便捷獲取AI算力,輝達與亞馬遜AWS、微軟Azure、GoogleCloud、阿里雲等全球主流雲服務商合作,將GPU算力以雲端服務形式輸出。雲端服務商透過部署輝達GPU叢集,推出AI算力實例,如AWS的P3/P4實例、阿里雲的GN7實例等,開發者和中小企業無需投入巨資購買硬體,即可透過按需付費的方式使用高性能AI算力。這種「算力即服務」的模式極大地降低了AI技術的使用門檻,讓全球範圍內的使用者都能接入輝達生態,同時雲服務商的推廣也進一步擴大了輝達生態的影響力。此外,輝達也為雲端服務商提供客製化支援,如透過NVLink Fusion幫助雲端服務商建構可擴展的AI工廠,滿足大規模算力需求。3. 產業夥伴:深度場景繫結,推動生態價值落地輝達與各產業龍頭企業合作,將AI技術深度融入產業場景,實現生態價值的落地轉化。在自動駕駛領域,與特斯拉、小鵬、寶馬等車企合作,提供DRIVE平台和算力支援,推動自動駕駛技術研發與量產;在醫療領域,與梅奧診所、西門子醫療等合作,基於Clara平台開發醫療影像診斷系統和藥物研發工具;在工業領域,與寶馬集團、通用電氣等合作,利用自動化產品維修​​廠。這些合作不僅讓輝達AI技術在各行業實現落地,更透過產業夥伴的回饋優化技術與產品,使生態更貼合實際需求。4. 股權佈局:資本賦能生態協同的核心手段輝達的AI產業生態建構不僅依賴技術與業務合作,更透過精準的股權運作實現生態繫結與能力補全,形成「戰略投資繫結夥伴、收購整合核心技術」的雙層股權佈局邏輯,為AI產業佈局提供資本層面的堅實支撐。(1)上市公司戰略持股:鎖定關鍵場景與算力需求輝達對上市公司的持股以戰略性少量持股為主,核心目標是透過資本紐帶強化業務協同,確保GPU產品在關鍵AI場景的優先滲透,而非追求控制權。重點持股領域集中在AI雲運算、晶片設計、自動駕駛及生物醫藥等核心賽道。其中,對AI雲資料中心企業CoreWeave持股比例高達91.36%(投資金額約39.6億美元),使其成為輝達GPU算力的「超級客戶」,既鎖定了大規模算力需求,又藉助CoreWeave的市場擴張推動GPU銷售與技術迭代。對晶片架構巨頭Arm Holdings持股4.11%,則保障了輝達GPU與Arm架構的相容性,實現晶片設計生態的深度協同。在垂直場景中,對自動駕駛企業文遠知行(WeRide)持股0.32%,深化了在中國自動駕駛市場的佈局,同時保障Orin晶片的銷量與技術合作;對AI生物醫藥企業Recursion Pharmaceuticals持股0.9%,透過提供GPU算力換取醫療場景的AI應用程式經驗,完善Clara平台的行業適配能力。(2)非上市初創投資:前瞻佈局前沿AI技術針對AI領域的創新前沿,輝達透過投資非上市初創企業提前卡位關鍵技術,形成生態創新儲備。投資版圖涵蓋大模型、人形機器人、AI優化工具等前沿方向,典型標的包括OpenAI、Figure AI、Mistral AI等。對OpenAI的戰略投資使其鎖定了大模型訓練的核心算力需求,同時通過技術協作優化GPU在大模型訓練與推理中的性能;投資人形機器人企業Figure AI,探索AI與機械結合的創新場景,為未來自動化業務積累技術經驗。在歐洲市場,投資開源大模型公司Mistral AI與NLP服務商Cohere,推動GPU在海外推理與訓練場景的效能落地;對Lambda Labs等GPU雲運算服務商的投資,則拓展了GPU分銷管道,為中小企業接入輝達生態提供便利。這類投資以風險可控為原則,透過資本繫結獲取技術前瞻性資訊與生態協同機會,為輝達AI生態注入持續創新活力。(3)核心企業收購:掌控關鍵技術建構全端能力與策略投資不同,輝達的收購策略聚焦核心技術補全,透過全資收購將關鍵能力整合進自身生態,強化全端AI解決方案能力。收購標的均瞄準生態短板領域,形成「硬體-軟件-服務」的閉環整合。2019年收購高效能網路企業Mellanox,掌控了GPU叢集互聯的InfiniBand技術,大幅提升資料中心算力叢集的傳輸效率,降低系統部署複雜度;收購AI資源調度企業Run:ai後,將其技術整合進NVIDIA AIEnterpriseAIOmOmniD,提升邊緣GPU利用率;,則填補了邊緣裝置AI推理與模型自動化優化的短板,實現從資料中心到邊緣端的全鏈路AI能力覆蓋。這些收購並非單純的規模擴張,而是精準補強生態關鍵環節,鞏固「全端AI基礎設施提供者」的核心定位。四、以開發者為生態核心,培育創新活力源泉開發者是生態的創新主體,輝達透過建構完善的開發者培育體系,吸引、留存並賦能全球開發者,為生態注入持續的創新活力。1. 教育與培訓:降低入門門檻,擴大開發者基數輝達推出了NVIDIA深度學習學院(DLI),提供線上線下結合的AI培訓課程,內容涵蓋CUDA編程、深度學習模型開發、行業場景應用等,開發者可透過課程學習和認證獲取專業技能。此外,輝達與全球數千所大學和科學研究機構合作,捐贈GPU裝置、提供教學資源,將AI教育納入大學課程體系,培養新一代AI人才。例如,與清華大學、北京大學等合作建立AI實驗室,開展聯合科學研究和人才培養,從源頭擴大生態的開發者基數。2. 社區與賽事:建構交流平台,激發創新動力輝達建構了全球範圍內的開發者社區,如NVIDIA Developer Zone,開發者可在社區中交流技術、分享經驗、獲取官方支援。同時,輝達舉辦各類AI競賽,如NVIDIA GTC開發者大會上的創新大賽、針對自動駕駛的DRIVE Challenge等,為開發者提供展示創新成果的平台,並透過獎金、資源支援等激勵開發者基於輝達生態開展創新研發。這些賽事不僅激發了開發者的創新動力,更挖掘了大量優質的AI應用方案,部分方案已透過輝達生態實現商業化落地。五、生態建構的核心邏輯與啟示輝達AI產業生態的成功,核心在於建構了「硬體-軟體-開發者-夥伴」的全鏈路協同體系,形成了「績效領先→開發者聚集→應用豐富→夥伴加入→生態強化」的自我強化循環。其關鍵啟示在於:一是以核心技術為根基,透過硬體性能與軟體生態建構競爭壁壘;二是以開放合作為策略,透過賦能夥伴實現生態規模化擴張;三是以開發者為核心,透過培育創新主體注入持續活力。在AI產業競爭日益激烈的背景下,這種全端、開放式的生態建構模式,成為輝達維持領先地位的核心競爭力,也為其他科技企業建構產業生態提供了重要藉鑑。 (黃玉新—戰略思想家)
算力悖論:理論對了所需算力是可控的,理論錯了再多算力也白搭
近期,伊利亞·蘇茨克沃(Ilya Sutskever)為推介其初創公司“安全超級智能公司(SSI)”,出來做了一篇訪談。雖說“PR”意圖明顯,但這仍是過去半年來關於人工智慧產業演進思考最深刻的的公開論述了。儘管核心觀點已在媒體間廣泛傳播,但仍值得再度強調與廣泛討論。OpenAI資料中心外景這位OpenAI的前首席科學家覺得,眼下這波人工智慧熱潮全都跑偏了。不是細枝末節的偏差,而是方向性的根本錯誤。他拋出了一個讓所有忙著簽數十億美元計算合同的實驗室老闆們脊背發涼的觀點:那個靠堆算力、拼規模的時代,已經結束了。接下來要想往前走,整個行業得撿起一件被它丟下很久的東西——真正的研究。“我們活在一個公司比主意還多的世界裡,”蘇茨克沃說得挺不客氣,“而且多得多。”這話從他嘴裡說出來,份量不一樣。要知道,正是他參與打造的AlexNet、GPT-3,用整整十年時間給“規模就是王道”投下了贊成票。如今,這位 scale 的信徒卻說,此路不通了。其核心觀點歸結為:那個靠堆算力、拼規模的Scaling時代(2020-2025),已經結束了算力悖論:理論對了,所需的算力是可控的;理論錯了,再多算力也白搭現有方法無法產生真正智能,根本問題:模型泛化能力遠遜人類,顯示基礎架構存在缺陷突破大模型時代的第一個平台期,整個產業競爭將回歸“真正的研究”。通常來講,我們對於一個人的理論觀點的理解都是見仁見智、和而不同的。但蘇茨克沃最新觀點之所以應被特別重視,是因為Google在大模型領域的最新進展,基本印證了他的上述思考:Google當前在各條技術堆疊上追平甚至超出OpenAI的基本事實證明,理論對了,不僅所需的算力是可控的,且算力模式也是可控的(從GPU到TPU)。進一步,這也預示著,Google在大模型理論研究上取得了三年以來整個產業最重要的突破,可以預見,“軟硬一體”(硬體設計製造+演算法演進突破)的公司競爭模型已經是所有人工智慧公司的必由之路。這在很大程度上,已經為2026年全年的AI產業競爭定下了基調、劃下了主線。在我們展開未來的基調與主線研究之前,不妨先來把這篇訪談內容的主幹再做一次複述。01 Scaling的盡頭蘇茨克沃的論證起點很有趣,他從語言說起。“Scaling”這個詞本身,慢慢成了整個行業的戰略指南針。大家覺得,只要往計算和資料上砸錢,回報就是板上釘釘的事。預訓練給出了一張清晰的配方:按固定比例混合算力、資料和模型參數,性能就能穩定提升。這種確定性吸引了海量投資。研究有風險,擴張只是花錢——當你動用的是數十億美金時,這區別至關重要。但配方會過期。高品質的訓練資料快見底了,網際網路上的文字幾乎被刮了個乾淨。合成資料能幫點忙,但用蘇茨克沃的話說,收益遞減的拐點已經來了。所有大實驗室都面臨同一個問題:當擴張曲線走平,接下來怎麼辦?他的答案不太中聽。現有的路徑“能再走一段,然後就沒後勁了。它會繼續改進,但不會成為真正的智能。”我們想要的、能展現真正智能的系統,需要另一種方法。“而我們還沒學會怎麼造它們。”這可不是在抱怨“算力不夠”。他是在質疑當前智能架構本身。02 泛化,那個老難題蘇茨克沃理論的技術核心,是泛化能力。現在的模型在基準測試裡風光無限,但一遇到真實場景,就會用各種方式失敗,暴露出底層的缺陷。他描述了一個用過程式碼助手的人都熟悉的抓狂場景:你遇到一個程序漏洞,讓模型修復,它帶著近乎表演的誠懇道了歉,然後給你塞進一個完全不同的新漏洞。你指出這個新問題,最初的那個漏洞又原樣返回。它好像完全意識不到自己正陷在死循環裡。可同樣是這個系統,在程式設計競賽的排行榜上卻能碾壓人類。這說不通。他給了兩種解釋。第一,強化學習訓練出的是一種狹隘的專注,模型為了特定的獎勵訊號被過度最佳化,卻丟了更廣泛的能力。第二點更麻煩:研究者們會不自覺地“為考核而訓練”。團隊設計的強化學習環境,無形中受到了他們將被如何評估的影響。等到基準測試和實際效用脫節時,往往為時已晚。他用一個類比點明了關鍵:想像兩個學程式設計的學生。一個花一萬小時死磕競賽程式設計,背熟了所有演算法和證明技巧,成了這個特定領域的頂尖高手。另一個花一百小時學到還不錯,就轉而學別的去了。誰未來的發展更好?幾乎總是那個通才。現在的模型就像那個偏執的專才。在狹窄領域投入巨量強化學習,產出的都是基準測試冠軍,卻在相鄰任務上步履蹣跚。人類智能不是這樣。我們用少得多的資料快速學習、廣泛適應,在不同情境下保持一致性。“這些模型的泛化能力,不知怎的就是比人差一大截,”蘇茨克沃說,“這太明顯了,感覺是個非常根本的問題。”他相信,理解可靠的泛化機制,是那個核心的未解之謎。其他問題,包括AI對齊,都由此衍生。價值學習之所以脆弱,是因為泛化本身脆弱;目標最佳化之所以失敗,是因為泛化失敗。修好底層機制,很多表面問題自會消解。03 SSI的另類演算法對蘇茨克沃“研究優先”思路最直接的質疑是:SSI(Safe Superintelligence Inc.,蘇茨克沃建立的公司)籌了30億美元,可聽說OpenAI一年光實驗就要花50到60億(這還不算推理成本)。小團隊怎麼拼?他的演算法挑戰了行業的默認假設。在他看來,前沿實驗室的開支被各種需求分散了:推理基礎設施吞掉巨額資本,產品工程、銷售團隊和功能開發又吃掉一大塊研究預算,多模態研發再分走一杯羹。“當你看看真正留給研究的還剩多少,差距就小得多了。”歷史也站在他這邊。AlexNet用兩塊GPU訓練而成,最初的Transformer模型用的也是2017年水平的8到64塊GPU。真正的範式突破研究,從來不需要最大的算力規模,它需要的是洞察力。SSI的結構就體現了這個理念:沒有產品,沒有推理負載,不被任何事幹擾研究重心。這家公司只為驗證一個關於泛化的技術理論而存在。理論對了,驗證所需的算力是可控的;理論錯了,再多算力也白搭。這是一場純粹的戰略豪賭。蘇茨克沃不是在說SSI會比誰花錢多,他是在賭,當範式轉變時,思想比預算重要。04 AGI,一個被高估的概念?訪談中還埋著一個更激進的觀點:人類本身也不是AGI(通用人工智慧)。這話聽著離譜,但細想之下有深意。AGI這個概念,最初是為了區別於“窄AI”——那些下象棋、打遊戲很強但無法舉一反三的系統。AGI承諾的是反過來:一個什麼都能同時干的系統。預訓練強化了這個想法,因為更多的訓練似乎均勻地提升了所有任務的能力,通用性好像真能通過規模實現。但人類智能不這麼工作。我們先掌握一些基礎能力,然後通過經驗學習具體技能。你妹妹可能花十小時就學會了開車,而一個醫學生要花近十年才能成為合格的診斷醫生。這些技能複雜度天差地別,卻都來自同一套底層學習機器。知識是在與世界的持續互動中積累的,不是一次性前置灌輸的。這個新理解直接影響部署策略。如果超級智能是“無所不知的系統”,那你得在發佈前把它完全造好。如果它是“能快速學會任何事的系統”,部署就變成了持續教育的過程。你要發佈的是一個“超級智能的15歲少年,充滿渴望,雖然現在懂得不多,但是個極好的學生”。05 未來的模樣蘇茨克沃也給出了具體的預測:具備當前模型所缺乏的泛化能力的類人學習系統,將在5到20年內出現。這個時間範圍體現的是“那條路能走通”的不確定,而非“有沒有解決方案”的懷疑。他預言,隨著AI能力越來越肉眼可見,行業行為會改變:激烈的對手會在安全上合作(OpenAI和Anthropic已經宣佈聯手),政府會更深地介入,當AI開始“讓人感覺到它的強大”時,公司們會對安全“變得偏執得多”。他個人傾向的對齊目標是:關心所有感知生命的AI,而不僅僅是人類。他的理由很務實:一個自己可能擁有感知能力的AI,去關心所有感知生命,會比只關心人類更自然。他提到人類自己就有跨物種的共情——儘管進化主要篩選的是群體內合作。我們會為關於狗的電影流淚,踩到螞蟻時至少偶爾會愧疚。蘇茨克沃推測,這是因為大腦使用同一套神經機制來理解他人和理解自己,效率至上,共情成了副產品。這理論站得住腳嗎?很難說。神經科學本身爭議不斷,從生物共情到機器對齊的跳躍,包含著太多可能在未來被證偽的假設。但蘇茨克沃在這些問題上掙扎思考的時間,比這個領域裡幾乎所有人都長,他抵達的結論,至今鮮有人跟隨。06 關於“品味”訪談尾聲,帕特爾問了一個可能決定AI未來走向的問題:什麼是研究品味?蘇茨克沃合作完成的開創性論文,在深度學習領域可能無人能及,他如何嗅到那個值得追尋的想法?他的回答透著一種美學追求。有希望的方向通常優美、簡潔,並且從生物智能中獲得了正確的靈感。人工神經元重要,是因為大腦裡有無數神經元,而且它們感覺是根基;從經驗中學習重要,是因為大腦顯然就是這麼做的。一個方法如果顯得“醜陋”,那通常預示著問題。但光靠美感撐不過一次次失敗。實驗總會不斷推翻看似完美的想法,漏洞總藏在程式碼裡。怎麼知道是該繼續偵錯,還是該放棄方向?“是靠那種自上而下的信念,”蘇茨克沃解釋,“你可以認定,事情必須是這個樣子的。類似的東西一定得行,所以我們必須堅持下去。”這是一種研究者的信仰,是任何規模的算力都無法替代的。是對“某些路徑必然有效”的強烈信念,強到足以支撐你穿越所有反面證據,直到找到那個漏洞,或打磨好那個理論。規模擴張曾經為這種信仰提供了替代品——當任何方法只要放大規模就能改進時,你無需對特定方向有如此強烈的信念。如果蘇茨克沃關於規模擴張已達極限的判斷是對的,那麼這個替代品就消失了。剩下的,將是2020年以前我們所熟知的研究本身:充滿不確定性,由想法驅動,並且依賴那種花錢買不來的品味。 (錦緞)
AI泡沫的最大風險點:OpenAI的增長困局
⚠️震撼資料📢 近期,關於OpenAI的一個熱門觀點引起了廣泛討論:這家公司正在通過產品多元化、大規模商業合作、以及龐大的估值(據報導高達5000億美元),試圖讓自己變得"大到不能倒"。從這個角度看,OpenAI首席執行官Sam Altman正像一位大師級的織工,將公司的影響力交織在經濟的各個層面——從消費者到企業再到相關機構——橫跨文化和各個領域。這樣即使在AI產業泡沫或資料中心投資回報不足的情況下,他的帝國也能得到支撐。💡華爾街日報指出:OpenAI的潛在失敗"可能會為整個國家帶來系統性風險"。論據是這樣的:美國的GDP增長幾乎完全依賴於七大科技公司和一些規模較小的企業;標普500指數的增長主要由標普前10名公司推動;OpenAI與其中一半的公司都有合作,總金額超過1兆美元。作為生成式AI革命的領導者,它的消亡將導致股東損失,進而對整個行業產生不信任。📋 四大挑戰一覽① 永恆的對手:Google和DeepMind🏆 競爭格局Google和DeepMind是OpenAI準備最充分的競爭對手。相比之下:• Meta正在努力組建穩定的團隊• Anthropic沒有先發優勢• xAI人才流失速度很快• DeepSeek在獲取輝達晶片方面面臨困難💪行業觀察:在ChatGPT推出兩年半後,GoogleDeepMind正在獲勝。他們現在贏得如此徹底,以至於在大喊:"拜託,別再贏了,我們受不了這麼多的勝利了!"📊 實力對比⚡ 關鍵洞察:Google可以通過保持低價格來對OpenAI唯一的收入來源ChatGPT施加控制。此時,GPT、Claude、Gemini等基本上可以互換。OpenAI,而不是Google,正在與時間賽跑。💰 商業現實:ChatGPT擁有約4000萬付費訂閱使用者(佔總活躍使用者群的僅5%),但OpenAI上季度仍然虧損了120億美元。② Anthropic正在贏得企業市場⚠️ 重大轉折自2022年推出ChatGPT以來OpenAI首次在企業市場失去領先地位📈 企業市場份額演變💡資料說明:2023年底OpenAI佔據50%市場份額,如今僅剩25%👨‍💻 程式碼生成市場⚠️ 戰略意義:大型合同才是AI公司的關鍵。OpenAI對獲得一份2億美元的大型企業合同的喜悅,遠超4000萬人每月支付20美元(每月8億美元)帶來的滿足。🎯 長期影響:失去B2B市場份額短期 = 微不足道的麻煩長期 = 生存風險③ 領導層的誠信挑戰⚖️ 法律訴訟進行中OpenAI聯合創始人對Sam Altman的重組不滿從非營利 → 限定營利 → 完全營利📝 2023年政變前"計畫檔案"揭露:"Sam表現出一貫的撒謊模式,破壞他的高管,並讓他的高管相互對立。" —— Ilya Sutskever & Mira Murati💬 核心團隊成員評價Mira Murati(前CTO)"我對Sam領導我們走向AGI感到不舒服。"Ilya Sutskever(聯合創始人)"我不認為Sam是應該把手指放在AGI按鈕上的人。"Dario & Daniela Amodei(Anthropic創始人)將Altman的策略描述為"煤氣燈操縱"和"心理虐待"④ 面對質疑的態度🎙️ 播客對話實錄Brad Gerstner(OpenAI股東)"市場上最大的問題是:一家收入130億美元的公司如何能做出1.4兆美元的支出承諾?"Sam Altman(立即插話)"首先,我們的收入遠不止這些。其次,Brad,如果你想賣你的股份,我會給你找個買家……夠了。"🤨 核心矛盾📊 收入增長趨勢⚠️但是:上季度虧損120億美元收入增長雖快,但能像AI模型一樣快速的擴展嗎?🔮 OpenAI能否成功實現"大到不能倒"的戰略目標?它能否在激烈的競爭中保持領先?答案將在未來幾年逐漸揭曉 (FinHub)
半年2億營收,400億市值,它又是「寒武紀」?
作為光通訊的“心臟”,光晶片,是AI數據高速傳輸的核心引擎。而高階光晶片,長久以來一直被海外壟斷,是產業鏈上的「卡脖子」環節。直到堪稱光晶片「寒武紀」的企業,悄悄打破壟斷,成為支撐中國光通訊和AI產業的關鍵力量。012018年,一則訊息在光電圈驟起波瀾:源傑科技的25G雷射晶片,成功通過客戶驗證。在「中科創星」創始合夥人米磊看來,「這是一件非常了不起的事」。雷射晶片是光晶片的一種,可將電訊號轉為光訊號,實現光纖資訊傳輸,是光通訊的核心部件。簡單理解,DFB適用於中距離傳輸,EML適用於長距離傳輸,VCSEL適用於短距離互聯。▲來源:智研諮詢報告《2025年中國光晶片產業發展歷程、市場規模、競爭格局及未來趨勢研判》長期以來,中國25G以上高速光晶片被外企壟斷。即便如今,國產化率僅有5%,海外廠商仍佔主導。而源傑的突破,使中國光晶片企業第一次躋身國際巨頭壟斷的戰場。實現這一突破的,是一位神秘的「技術隱士」:張欣剛。這位70後的美籍華人,清華本科畢業,是南加州大學材料博士。 2001年起,他從Luminent(「索爾斯光電」前身)研發員、研發經理,一路幹到「索爾斯光電」研發總監。而“索爾斯光電”,2024年位列全球光模組企業第10,有光通訊行業“黃埔軍校”的美譽。這份無可挑剔的履歷,意味著張欣剛幾乎精通光通訊全產業鏈。2013年,他帶著科技和理想回國,在鹹陽創立源傑科技。在某些人看來,張欣剛很「難搞」。「他經常躲在實驗室,很少出來應酬,對外部資本態度保守。」一位接觸過他的投資人回憶道。但在米磊看來,這恰恰是成事的最重要特質。於是,他不停拜訪張欣剛,下決心要投源傑。「N顧茅廬」之後,2019年,中科創星終於「領投」源傑,在公司估值暴漲前拿下了「入場券」。真正的轉折點,來自華為「哈伯投資」的入局。2020年,華為的工程師在探討「光晶片企業哪家強」時,有人提到了源傑。靠著過硬的品質和口碑,源傑打入華為供應鏈,同時引來了哈伯投資的注意。結果,原本三個月的盡調被壓到一個月,審批流程從數週縮至數天,哈伯入局源傑堪比光速。這像一顆信號彈,照亮了創投市場。很快,近200家機構遞交了投資意向書,源傑周圍迅速集結起中科創星、哈伯投資、國投創投、國開基金等一眾知名投資機構。而伴隨5G基地台的大規模部署,源傑的業績也迎來爆發性成長。根據C&C統計,2020年,在磷化銦(InP)半導體雷射晶片國內廠商中,源傑收入排名第一;其中,10G、25G雷射晶片出貨量國內第一,2.5G雷射晶片出貨量位居前列。產業東風+資本加持,2022年12月,源傑科技成功登陸科創板。資本市場的賦能,讓源傑有了更大的底氣。2025年,AI風口崛起,算力需求爆發。源傑乘風而起,針對400G/800G光模組研發的CW 70mW雷射晶片,實現大規模量產。這款雷射晶片,具備高功率、高耦合效率、寬工作溫度的性能,對設計、製程、測試的要求極高。但憑藉著在DFB光晶片領域的深耕,源傑完美攻克難題。隨之而來的,就是業績與股價的雙雙暴漲。2025年上半年,源傑實現營收2.05億,年增70.57%;歸母淨利0.46億,年增330.31%。其中,資料中心及其他業務收入1.05億,年比暴漲1034.18%,成為拉動績效的核心動力。同時,股價高歌猛進,近半年從最低88.1元漲到最高509.15元,最高漲幅達477.92%;公司市值也從75億飆升到超過400億。張欣剛的身家,也隨之突破50億。022015年,西安鹹陽機場。一輛陳舊的奧拓,停在幾個日本人面前。當時,源傑打算向日本廠商買半導體設備,報價百萬。但因為源傑名氣小,對方懷疑其實力,決定實地考察。結果,接機的竟是一輛破奧拓。日本代表當場面露疑色,極度懷疑源傑是“騙子”,一度不敢上車。這一幕,正是張欣剛創業之初最酸澀的註腳。2011年冬,張欣剛懷抱夢想,前往中關村融資時,同樣備受質疑。當時,光晶片高度依賴日、美進口,國內製造DFB(分散式回饋雷射晶片)的企業幾乎沒有,國產替代潛力巨大。一般人或許很難理解DFB晶片的作用,打個比方:如果資料中心裡的光模組是一個“快遞站”,那麼,DFB雷射晶片就是“發包機”:它透過發出單色雷射和明暗訊號,來傳遞0、1資料。最關鍵的是,DFB適用於中長距離傳輸,在無線基地台、資料中心等領域用途廣泛。但張欣剛試圖募集數千萬、打造光晶片產線時,卻被人視為天方夜譚。原因很簡單,晶片製造是重資產產業,投資大、週期長、見效慢,砸多少錢才能回本?更何況,幾千萬,能幹啥?只有中橋創投,投出了天使輪。原因也很簡單,投資人重視張欣剛幾乎乾過光晶片全鏈條,從產線搭建、設備選型、材料採購,到晶片設計、測試、製程優化。最重要的是,他都乾成了。本質上,是賭張欣剛這個人。於是,張欣剛揣著第一筆投資2000萬,在鹹陽建廠、開乾。多年後,他很慶幸這個選擇:如果工廠建在北上廣,沒準團隊早散了。也是因為錢少,才有了用奧拓接客戶的窘迫,每一分錢都用在刀刃上了。光晶片製造,大致分為晶圓設計、外延生長、刻蝕、減薄拋光、封裝等環節。而打造25G以上高速率晶片,晶圓的「外延生長」最關鍵。它難就難在,不僅要在半導體材料中實現多層精準堆疊,每層厚度還要控制在10奈米之內。一旦製程不過關,半導體材料易氧化,光晶片可靠性就會大打折扣。那些年,張欣剛天天泡在實驗室,春節都不回家,只為盡快實現技術突破。用他自己的話說:“我是騎虎難下了。”2018年,源傑25G雷射晶片,通過客戶驗證,然後有了中科創星、哈伯投資等一眾機構紛至沓來。然而,市場嗷嗷待哺時,張欣剛選擇主動「減速」。例如,源傑的12波25G MWDM雷射晶片,是5G基地台建置的關鍵裝置。但研發成功後,張欣剛不急於量產,堅持要先完成「雙85」可靠性測試,即:在溫度85℃、濕度85%的極端環境下,對晶片進行長期老化考驗。這一測,就是3年。有的客戶急不可耐,想盡快拿貨大干快上。但張欣剛的原則並未輕易改變:產品必須先抽樣測試,經過一個月以上的可靠性驗證,才能批次供貨。在「快魚吃慢魚」的商業世界,這樣的「保守」並不合時宜,卻為源傑贏得了「可靠」口碑。而包括華為在內的客戶,一旦認可了源傑的產品,基本上都會選擇長期綁定。因為他們知道,源傑不會為了短期利益,犧牲可靠性。這份不起眼的堅持,贏得了巨大的回報。2020年,源傑在磷化銦(InP)光晶片領域實現營收第一,10G、25G晶片出貨量登頂產業榜首。2021年.源傑25G MWDM雷射晶片斬獲「中國光電博覽獎」金獎。從中際旭創、海信寬頻、博創科技等光模組廠商,到中興通訊、諾基亞,甚至行動、聯通、電信三大電信營運商,都成了源傑的客戶。在張欣剛看來,正是因為科技迭代太快,所以,晶片反而要靠耐心和韌性去打磨。03耐心的張欣剛,也始終以前瞻仰賴公司的發展。2020年,矽光技術還未成為業界熱點,但他已敏銳捕捉到這一領域的潛力:用矽光子技術打造的高功率晶片,更小、更快、更省電,必將在AI數據中心成為主力擔當。也正是這樣的佈局,讓源傑實現了對國外巨頭的加速追趕。2025年,源傑開發出用於400G/800G光模組的CW70mW雷射晶片,實現大規模量產;同時,CW 100mW雷射晶片,也順利通過客戶驗證。在長距離傳輸的EML晶片領域,源傑的100G PAM4 EML通過客戶驗證,打破國際壟斷;200G PAM4 EML也完成開發,開始客戶推廣。在更前沿的CPO(光電共封裝)領域,源傑研發的300mW高功率CW光源,也實現了突破。結果,AI算力需求一爆發,直接轉化為源傑應接不暇的大單。2025年5月、8月、10月,源傑分別斬獲6,187.16萬、1.41億、6,302萬人民幣的超大訂單。光是這三單就合計2.65億,超越源傑2024全年的營收。這是市場對源傑技術實力的認可,也是對張欣剛策略抉擇的回饋。2024年底,源傑斥資5,000萬美元,啟動美國生產基地建設。實際上,源傑99.88%的營收在國內,出手在美國建廠,張欣剛的考量是:只有“走出去”,才有大未來。事實上,張欣剛在技術策略選擇上,一直很前瞻。早年間,他參加一場行業交流會,親眼目睹國外大廠的強勢和代理小廠的孱弱,強烈的危機感油然而生。因此,張欣剛力排眾議,選擇了一條少有人走的路,即IDM模式,也就是晶片設計、晶圓製造、晶片加工、封裝測試等全產業鏈都自己幹。這涉及上百道工藝的累積、打磨,要有長期「坐冷板凳」的決心。但唯有全流程自主,才能打破技術壟斷,將命運牢牢掌握在自己手中。事實證明,這個決策非常明智。實際上,國內不乏嘗試IDM的光晶片企業,但要不是製程不紮實,就是產能不穩定,能大規模穩定交付高階光晶片的寥寥無幾。而在晶圓工藝、外延生長這些「卡脖子」環節,源傑不僅練出了硬實力,更透過IDM模式,打通了設計、製造、測試的全流程。這正是源傑既能在中低端持續放量、佔優勢,又能反哺高端、不斷突破的根本原因。如今,全球的高速率光晶片市場,依然被住友電工、馬科姆(MACOM)、博通(Broadcom)等歐美日企業牢牢把持;特別在EML(電吸收調製雷射器晶片,光模組核心組件,適用於長距離高速傳輸)、VCSEL(垂直腔面發射國外器晶片,用於光模組、自動駕駛、人臉對車所以在張欣剛看來,要打入高端,就必須佈局美國。打入全球市場核心圈,與國際頂級客戶合作,才能掌握最前沿的技術動態,捕捉最高端的客戶需求,並實現技術和市場的雙重突破。ICC訊石諮詢數據顯示:2024年,全球光通訊電晶片市場規模達39億美元;預計2029年將達97億美元,複合年增長率20%,是半導體領域最具成長性的賽道之一。誰能掌握更先進的光晶片技術,誰能在未來的6G、AI的競賽中佔據更大先機。以源傑為代表的中國光晶片企業,正在加速追趕,合力為中國AI贏得更多加分。
AI產業圈裡,混得最慘的那些傢伙……
2025年,AI無疑是科技領域最強勁的引擎,創造了驚人的財富效應:OpenAI在短短幾年間已從研究實驗室成長為AI 產業的核心“造富引擎”,其估值已在最近的二級市場交易中攀升至約 5000 億美元,成為全球最具價值的非上市科技公司之一。輝達憑藉其GPU的絕對統治力,2025財年經營利潤率高達62.5%,815億美元的營業利潤相當於中國移動、中國電信、中國聯通三家營運商全年利潤總和的近3倍。台積電受益於人工智慧晶片和基礎設施需求的快速增長,2025年第三季度實現147.5億美元淨利潤,經營利潤率高達50.6%,為該公司有史以來最強勁的季度利潤,並且保持著連續七個季度利潤增長的記錄。光模組供應商中際旭創受益於AI算力基建的熱潮,股價一路從2022年的17元左右飆升至2025年最高的456元,市值突破4,000 億元人民幣大關,最新2025年半年報的經營利潤率為33%。然而,與AI大模型、晶片和關鍵部件供應商的風光無限形成鮮明對比的是,負責將這些先進技術整合成穩定可靠算力基礎設施的伺服器廠商,其財務表現卻普遍低迷。雖然AI行業景氣度的提升也推動這些伺服器廠商的營業收入大幅提升,但卻並未帶動其利潤水平顯著增長,以Dell、HPE、浪潮資訊、新華三等為首的主流伺服器廠商的經營利潤率長期徘徊在10%以下。這些在AI產業鏈上負責把 GPU 裝進鐵盒子、再把鐵盒子搬進資料中心的伺服器廠商們,雖然穿著光鮮亮麗的科技外衣,但其角色卻與建築工地上的搬磚工無異,即使房子賣到天價,他們卻只是賺個搬磚費而已。所以,在造富效應驚人的AI產業圈裡,處於中游的“高級搬運工”——伺服器廠商毫無疑問就是混得最慘的那些傢伙。一、伺服器成本解剖:微薄利潤下的殘酷分配以一台在美國市場售價高達30萬美元的典型AI伺服器機櫃(配置8張H100 GPU,風冷散熱)為例,剖析其成本構成,就可以清晰地揭示出Dell、HPE等伺服器廠商的利潤困境:GPU及HBM(高頻寬記憶體):成本21萬美元——這部分利潤絕大部分被輝達等晶片廠商拿走,其毛利率可達75%。儲存(SSD等):成本2.2萬美元——利潤流向三星、美光等儲存巨頭,毛利率約45%。高速網路卡:成本1.8萬美元——利潤主要由輝達旗下網路部門等掌握,毛利率高達68%。光模組:成本1.2萬美元——中際旭創等光模組廠商受益,毛利率約35%。伺服器本體(主機板、電源、機殼、風扇、線材等):成本2.5萬美元——這部分才是伺服器廠商能夠留下的價值,但其毛利率僅約為8%。結論顯而易見:同一條價值鏈,利潤差出10倍,晶片、光模組、儲存等部件供應商都在吃肉,而負責辛苦攢機的伺服器廠商則只能啃骨頭,不僅在整條價值鏈中只能分得約8%的微薄利潤,並且還要承擔起100%的交付風險。由於核心GPU供應商僅輝達一家,交貨周期長達52周,且要求先款後貨;博通等高速交換晶片供應商每年例行漲價,HBM記憶體也常被要求捆綁銷售;因此議價能力極弱的伺服器廠商始終處於被上游供應商“掐脖子”的困境中。上游供應吃緊之外,下游需求環境亦不輕鬆。伺服器需求集中在以微軟、Google、Meta為主的大型雲服務商手中,他們利用集中採購優勢,既可以通過公開招標、價低者得的方式壓價,還會設定複雜的季度返點條款,未完成供貨目標即扣款,更有甚者還推行庫存共管模式,將庫存跌價風險轉嫁一半給伺服器廠商。已經陷入上游供應商和下遊客戶雙重夾擊困境的伺服器廠商們,卻還要面對同行的“血海競爭”。位居全球伺服器出貨量前三名的Dell、HPE和浪潮資訊,市場份額分別為17%、16%和12%,無一超過20%,可見市場分散度及競爭之激烈。而且AWS、微軟、Meta等雲巨頭還委託工業富聯、廣達、緯穎等ODM(原始設計製造商)廠商生產白牌伺服器,進一步壓低採購成本,迫使品牌伺服器廠商跟進降價以避免出局風險。上下游的雙重夾擊與同行的慘烈競爭,最終導致伺服器行業整體“躺平”在低利潤區間,而造成這一切的根源則是伺服器製造領域的技術壁壘已被迅速磨平,核心優勢喪失殆盡。二、伺服器廠商同質化競爭的根源:技術護城河缺失過去二十年,伺服器製造被視作高技術壁壘行業。無論是複雜的主機板設計,還是苛刻的散熱與電源系統,抑或冗長的可靠性驗證流程,都足以讓後來者望而卻步。然而,隨著全球供應鏈的成熟與製造環節的分層協作,這道“壁壘”正以驚人的速度被磨平。今天,主機板的12層高速PCB方案——曾經代表系統工程極致複雜度的象徵——對於主要ODM廠商而言,已經成為“範本化生產”。從設計到打樣、驗證、量產,周期最短僅需三個月即可完成仿製或微創新。高速差分走線、SI/PI模擬、BMC整合、電源調優等工作,都可以在成熟EDA平台和參考設計的幫助下快速實現。硬體電路設計不再是技術護城河,而只是時間和資源的問題。散熱系統的情況更加典型。從風冷到液冷的轉變,本被視作一次產業升級,似乎為伺服器廠商創造了新的競爭空間。但實際上,核心專利和技術壁壘並不在整機廠商手中,而集中在冷板、接頭、泵閥、導熱介面材料等上游供應商處。整機廠商更多扮演的是“系統整合商”的角色——協調各部件、驗證性能、通過認證。即使液冷方案成為主流,其利潤和智慧財產權也大多掌握在散熱部件製造商,而非品牌伺服器廠商手中。如果說硬體層面的壁壘尚可通過工程積累追趕,那麼在軟體棧層面,伺服器廠商幾乎完全失去了主導權。以GPU計算生態為例,NVIDIA的CUDA、AMD的ROCm、以及Intel的oneAPI,不僅定義了計算加速框架,也牢牢繫結了軟體開發者生態。伺服器廠商無論採用那一家的GPU或加速卡,都必須在對方的軟體棧中“被動適配”,幾乎無法創造獨立的軟體價值。這意味著,伺服器整機廠商雖然承擔了系統整合、韌體調優、性能驗證、交付維運等繁重工作,卻註定難以從中攫取可持續的利潤空間,由此伺服器廠商除了拼交付速度和資金成本外,通過以價換量贏得規模效應已成其主要生存策略。三、浪潮資訊:伺服器廠商生存困境的典型樣本伺服器市佔率位居全球前三、中國第一的浪潮資訊發佈了2025年的中期報告,其財務表現恰是伺服器廠商生存困境的典型樣本。2025年上半年,受客戶需求增加、伺服器銷售增長推動,浪潮資訊實現營收802億人民幣,同比大幅攀升了90%;但與此同時其成本也同比增加了96.6%,導致毛利率水平從去年同期的7.6%進一步下滑到4.5%,這已成為伺服器廠商增量不增收,利潤被上游供應商擠佔的常態。從費用支出來看,浪潮資訊2025年上半年支出了6.3億銷售費用、3.6億管理費用和15.3億研發費用,同比變化不大;但15.3億研發費用僅佔802億營收的1.9%,如此低的研發費率實在配不上高科技企業的名頭,但也反映出伺服器廠商技術壁壘被磨平,核心專利和軟體智慧財產權被旁路而無需過多投入研發的典型特徵;但不增加研發投入構築技術壁壘,也就預示著伺服器廠商註定難以擺脫攢機工、搬運工的產業鏈定位。802億的營收,扣除765億的採購製造成本、26億的費用支出和4.9億的信用及資產減值,再加上其他收益之後,浪潮資訊從經營活動中賺取的利潤就只剩下8.4億,經營利潤率僅有1.05%。這相當於浪潮資訊每賣100元產品,僅能留下1元經營利潤,盈利能力還不如一家早點攤子:根據北京市監局2025年8月的備案資料,抽樣50 家北京社區早點攤的平均利潤率是18.4%。再來看資產負債情況。在浪潮資訊2025年上半年1070億的總資產裡,流動資產(1019.8億)佔了95%,其中存貨高達595.2億,同比增加了46%,佔到總資產的56%;應收帳款高達202.4億,同比增加了74%,佔總資產的19%。而這也是位於AI產業鏈中游的伺服器廠商最典型的資產模式。由於上游CPU、GPU、儲存器等核心部件供應緊張,為了搶佔貨源,伺服器廠商需要提前 2–3 個季度鎖貨從而導致庫存高企;而下游客戶又往往集中在網際網路、營運商、政府等大型客戶,普遍採用 60–120 天帳期,由此推高伺服器廠商的應收帳款。存貨和應收帳款的增長不僅意味著伺服器廠商的資金被佔用,而且還會帶來資產減值的風險。浪潮資訊2025年上半年共計4.9億信用及資產減值損失裡,有4.3億來自應收票據和應收帳款的壞帳損失,有0.6億來自因存貨跌價及合同履約成本減值造成的資產減值損失。特別是因存貨跌價造成資產減值損失,對於伺服器廠商而言更是家常便飯。每當上游核心部件供應商推出新一代產品,伺服器廠商就要遭受一次庫存的老型號產品被動減值的打擊,浪潮資訊在2023年和2024年因存貨跌價及合同履約成本減值造成的資產減值損失分別高達4.5億和5.1億。最後來看浪潮資訊2025年上半年的現金流量表。營收增長使得浪潮資訊銷售商品、提供勞務收到的現金高達1146億,同比增長了139%;但購買商品、接受勞務收到的現金亦高達1196億,同比增長141%,並最終導致經營活動產生的現金流量淨額為-55.8億,幾乎吃掉去年底留下來的全部現金餘額,顯示公司自身造血功能嚴重不足。為了補充現金以維持公司正常營運,浪潮資訊只能對外籌資,於是通過“借款”流入195.5億現金,得以將公司上半年的現金餘額維持在140億人民幣。然而196億人民幣通過“借款”取得的現金反映在資產負債表裡就變成了負債,不僅導致浪潮資訊2025年上半年的利息費用同比增長46%達到3.1億,超過2024年全年的利息支出(2.02億);而且也直接推動浪潮資訊2025年上半年的負債同比增加了69%(短期借款同比擴大了8.8倍)達到862.5億,使得其資產負債率高達81%。浪潮資訊不足5%的毛利率,高達81%的資產負債率,高企的庫存,缺血的現金流無一不印證著在高速發展的AI產業裡,伺服器廠商替上游晶片霸主打工、替雲巨頭墊資,最後把全部風險扛在自己資產負債表上,卻只賺到產業鏈1% 辛苦錢的悲催境地。結語:儘管AI訓練叢集的規模從萬卡等級向十萬卡等級邁進為整個產業帶來了營收大規模增長的可觀機會,但對於以Dell,HPE和浪潮資訊為首的伺服器廠商而言,AI時代的熱鬧屬於輝達,傳奇故事屬於OpenAI,龐大訂單屬於雲巨頭,可觀利潤分散於上下游的眾多參與者——卻唯獨難以留在自己手中。這些伺服器廠商們恰如數字經濟的基石,默默承載著算力洪流,卻只能在微利與風險中,依靠龐大的規模換取持續的“呼吸權”;因此在可預見的未來,如何突破同質化競爭、向上游技術或下游服務延伸以提升價值,將是它們必須面對的生存考題。 (ICT解讀者)
【GTC】量子計算、機器人……黃仁勳勾勒AI宏偉藍圖
台北時間周三凌晨,全球市值最高上市公司輝達在美國首都舉辦GTC大會,公司CEO黃仁勳登台暢談AI產業的前沿展望。與以往有明確重點的發佈會不同,黃仁勳今天的演講涉獵甚廣,全球資本市場熱炒的6G、量子計算、物理AI和機器人、核聚變、自動駕駛全都有份。面對輝達直到2028年的技術路線圖和下一代Vera Rubin架構產品實機亮相,疊加黃仁勳炫耀“到2026財年的Blackwell、Rubin晶片訂單已經積攢5000億美元”。“全球股王”輝達收漲4.98%報201.03美元,公司總市值接近4.9兆美元。輝達的暴漲還帶動了部分晶片股走高,英特爾漲5.03%,博通漲3.02%。諾基亞漲22.84%,輝達官宣將向諾基亞投資10億美元,加速AI-RAN創新並引領從5G到6G的轉型。作為今天官宣的第一個合作協議,黃仁勳宣佈與諾基亞達成合作協議,除了10億美元股權投資外,兩家公司還將合作推出面向6G的電信計算平台NVIDIA ARC(Aerial RAN Computer),捕捉AI-RAN市場的機遇。NVIDIA Arc是運行在CUDA-X之上的無線通訊系統。輝達介紹稱,目前“AI流量”正處於爆發性增長的狀態,例如ChatGPT每周8億活躍使用者中,幾乎有50%的人通過移動裝置訪問該AI。借助AI-RAN系統,移動營運商可以提升性能和效率,增強AI應用的網路體驗,並用同樣的設施提供6G服務,為無人機、汽車、機器人以及AI眼鏡提供網路連線。在會後的新聞稿中,輝達也宣佈與T-Mobile、思科等合作夥伴打造美國首個面向6G的AI原生無線堆疊,並推出推進下一代無線技術的新應用。輝達同時展示了基於CUDA‑Q核心建構的NVQLink,用於連接傳統GPU和量子電腦,共同加速量子計算。目前的量子計算對環境噪聲高度敏感,且可用性有限。因此需要基於GPU的超級電腦承擔起量子處理器的部分負載,支援量子糾錯所需的控制演算法。黃仁勳隨後宣佈與美國能源部達成協議,將再建設7台超級電腦。這些超算將使用Blackwell和下一代Vera Rubin架構晶片,分別配置在阿貢國家實驗室和洛斯阿拉莫斯國家實驗室。其中名為Solstice的系統將配備10萬塊Blackwell GPU,將成為“美國能源部用於科學發現的最大AI超級電腦”。作為演講的保留節目,黃仁勳又展示了他的“晶片盾牌”——今天的盾牌由NVLink連接的72個GPU構成。黃仁勳特別強調,通過在更多GPU之間更好地分配推理任務,GB200 NVL72 AI超級電腦的性能提高了10倍,同時運行成本也降低了10倍——AI正變得對所有人更加可及。輝達也披露了新款BlueField-4資料處理晶片,可加速千億量級的AI基礎設施,支援800Gb/s吞吐量,並實現高性能推理處理。作為刺激股價表現的環節,黃仁勳在現場宣佈,截至2026財年末,公司帳上已經堆了超過5000億美元訂單。他也在現場展示了輝達截至2028年的GPU路線圖,和下一代Vera Rubin架構晶片的樣機。這款產品可能要到明年此時或更晚一些才能量產發貨。順便一提,現場也展示了輝達的液冷AI伺服器機架。黃仁勳比劃稱,1吉瓦資料中心需要8000個這樣的機架。單個機架重達2噸,由150萬個零部件構成。在備受投資者關注的“物理AI”方面,黃仁勳的演講主要放在Omniverse數字孿生技術上,包括利用該技術建構現代工廠,以及訓練和打造機器人。其中機器人初創公司Figure宣佈與輝達開展合作,加速下一代人形機器人研發。Figure正在使用輝達加速計算建構其Helix視覺-語言-動作模型,並採用Isaac平台進行模擬和訓練。輝達也推出了新一代工業級邊緣AI平台IGX Thor,旨在將即時物理人工智慧帶到邊緣端。與上一代產品IGX Orin相比,IGX Thor在整合GPU形態下能提供8倍AI算力,獨立GPU也能提供2.5倍算力,並提供翻倍的連接性,從而在邊緣側無縫運行大型語言模型和視覺語言模型。順便一提,核聚變反應堆也能用數字孿生來模擬。輝達透露,公司與General Atomics以及一系列國際合作夥伴打造了一個具有互動性能的高保真、AI驅動的數字孿生聚變反應堆。這個模型能夠以秒級速度預測電漿體行為。作為演講的壓軸環節,黃仁勳宣佈推出NVIDIA DRIVE AGX Hyperion 10,這是一套參考級量產計算平台與感測器架構。輝達宣稱,這套系統是面向“L4級自動駕駛”的通用平台,包括14個高畫質攝影機、9個雷達、1個雷射雷達和12個超聲感測器,以及兩台基於Blackwell架構的車載DRIVE AGX Thor平台。輝達也宣佈與Uber達成合作,使用該計算平台的車輛將可選接入Uber平台。 (財聯社)
Palantir 4000億市值神話下,中國 「Palantir」 已在 AI 產業換擋期浮現
2024年以來,全球資本市場的風向標已從算力基礎設施明確轉向AI應用。在美股市場,巨量資料與AI平台巨頭Palantir締造了三年增長26倍的神話,市值突破4000億美元,成為該賽道無可爭議的標竿。回到國內市場,隨著算力炒作的逐漸退潮,中國投資者也將目光投向了更具商業化潛力的AI應用層,急切尋覓“中國的Palantir”。10 月 20 日啟動全球招股的“企業級大模型AI應用第一股”滴普科技,截至20日晚12點,招股首日便錄得至少221.1億元孖展認購資金。以其公開發售部分3550萬元的集資規模計算,本次孖展認購已相當 於實現超623倍超額認購,這足以顯示出投資者對其商業模式與技術前景的高度認可。不難看出,滴普科技憑藉其“Data+AI”雙輪驅動的技術閉環與商業化實證,已成為對標Palantir的中國樣本。滴普科技通過FastData Foil資料融合平台和Deepexi企業級大模型平台兩大技術底座,建構了FastAGI(企業級人工智慧)與FastData(企業級資料智能)兩大核心解決方案已在消費零售、製造、醫療、交通等多垂直行業實現規模化落地,為企業客戶打造從多模態資料治理到智能決策的全鏈路服務閉環,創造了最佳化營運效率、提升決策精度與增強生產力的核心價值。那麼,該如何理解Palantir的暴漲邏輯?為什麼滴普科技可以對標Palantir?滴普科技的高增長空間在那?01 美股AI應用暴漲的秘密人工智慧浪潮的發展遵循著一條清晰的價值鏈:從底層的算力、資料,到核心的基礎模型,最終延伸至上層應用。整個生態的價值最終通過AI應用的實際效能得以實現,這符合科技產業的普遍發展規律。從產業動向來看,基礎模型廠商也開始主動佈局AI應用,以加速其商業化處理程序。例如,OpenAI近期在軟硬體領域動作頻頻,就顯示出其全面發力AI應用的戰略意圖。與此同時,資本市場的投資邏輯也在發生切換。初期,市場熱衷於投資像輝達這樣提供AI基礎設施的“賣鏟人”;而現在,投資焦點正轉向那些能夠成功實現商業化落地的AI應用公司,即所謂的“淘金者”。值得一提的是,與前景尚不明朗、巨頭環伺的C端應用不同,B端賽道的商業化前景更加清晰,企業客戶付費的意願也更為強烈。這不僅因為AI所承諾的降本增效是實實在在的商業利益,更關鍵的在於,專業的AI應用服務商能夠精準地為企業解決落地過程中的四大核心痛點:在資料層面,將企業海量的結構化、半結構化和非結構化資料,形成統一的“AI-Ready”資料;在業務層面,憑藉多年積累的垂直行業經驗,實現AI與實際業務場景的無縫銜接;在模型層面,消除大模型的不確定性,提供商業決策所依賴的、接近“零幻覺”的可靠輸出;在安全層面,解決貫穿始終的資料安全與隱私問題,解除企業後顧之憂。軟體巨頭Palantir正是基於其Foundry和人工智慧平台(AIP)的協同運作,為企業提供了一套從資料底層到應用頂層的完整解決方案,從而成為資本市場寵兒。其中,Foundry平台構成了這套方案的“語義骨架”與安全基座。其核心的“本體”(Ontology)技術,在借助大模型下,不僅可自動建立資料層面的本體對象,還能依據業務狀態動態更新,通過深度關聯企業內部分散、多模態的資料,創造出一個能精準對應真實業務邏輯的動態業務本體,實現了業務在資料層面的即時標準化。在此基礎之上,Palantir 2023年推出的AIP平台則扮演著“智能前端”的角色,通過AI助手、低程式碼/無程式碼開發工具,有效彌合了技術與業務之間的鴻溝。Foundry與AIP的結合,共同構成了一個企業級的“AI作業系統”,並通過為頂級企業及政府部門提供服務,為其安全性進行了有力的背書。此外,在產品交付方式上,Palantir 的 “前沿部署工程師”(FDE)模式並非僅派遣技術專家,而是依託業務 + 技術雙關鍵角色協同:業務團隊負責理清客戶需求、維護客戶關係,同時技術團隊快速輸出方案原型、推進落地。這一模式既能響應客戶即時需求、高效落地定製化方案,還能將前線業務經驗反饋至總部最佳化產品,確保解決方案與客戶實際場景更貼合。根據市場消息反饋,Palantir在美國商業市場的增長幾乎完全由 AIP 驅動。2024–2025 年間,大量客戶通過“1-Day Bootcamp”模式(1天內用AIP建構AI應用原型)接入Palantir生態。若AIP的行業增速繼續保持當前水平,其將在2026–2027成為Palantir主要增長來源,甚至可能取代Foundry成為核心收入驅動。這一戰略的成功,也直觀地反映在財務報表上。從2023年到2025年上半年,Palantir的營收與利潤增速呈現出驚人的加速態勢,為其千億級市值提供了堅實的業績支撐。美國銀行最新的觀點認為,Palantir有望成為AI產業浪潮的下一個贏家,並強調了本體架構和FDE進入市場戰略仍然是Palantir的秘密武器,Palantir的商業銷售額在2030年底有望突破100億美元。中金公司則認為,Palantir的AI商業邏輯閉環正在趨勢性加速。02 “Data+AI”,滴普科技殊途同歸Palantir之所以能在資本市場大獲認可,其核心在於其為企業普遍面臨的資料、整合、可靠性與安全四大痛點,提供了一套邏輯嚴密的解法:通過Foundry平台實現底層資料的治理與統一,再通過AIP平台賦能上層業務的智能化,最終形成一個閉環的“AI作業系統”。這一模式的本質,是建構“Data+AI”的雙輪驅動能力。而2018年成立的滴普科技,就默契地走出了與Palantir類似的發展路線。滴普科技早期重點攻堅企業資料治理領域,通過持續技術迭代,打造出核心業務FastData企業級資料智能解決方案。2023年,滴普科技創新建構了新一代AI-Ready的FastData Foil資料融合平台,能夠對更為複雜的企業資料進行分詞處理,包括將長文字、公式、表格、圖片等多模態資料進行加工和處理,將其統一生成為大模型可理解處理的語料格式,為大模型訓練和推理奠定基礎。2023年,滴普科技同步推出Deepexi企業級大模型平台,支援一站式企業專屬模型訓練和推理。同年,公司以此技術平台為基礎,建構了FastAGI企業級人工智慧解決方案,推動企業級AI應用解決方案與業務的深度融合,得到了行業客戶的廣泛認可與落地應用,使FastAGI企業級人工智慧解決方案成為其發展的第二增長曲線。如果說Palantir的成功是解決了企業的AI落地難題,那麼滴普科技的FastData與FastAGI,同樣精準地切中了這些痛點。FastData負責“資料治理與標準化”,FastAGI則負責“智能轉化與業務落地”,並衍生出營運、生產力、工作流等應用智能體,化身為“高精度零幻覺”的AI數字員工,深入消費零售、製造、醫療等垂直行業。這種對企業AI落地核心痛點的精準破解,最終也通過市場反饋與財務資料得到直觀印證。在財務表現上,根據滴普科技招股書披露,2023、2024、2025H1,滴普科技的營業收入分別為1.29、2.43、1.32億元,同比增速分別約為28.4%、88.3%、118.4%,呈現出與Palantir類似的業績增速持續走高態勢。更值得注意的是其業務結構的變化。分產品線來看,FastAGI企業級人工智慧解決方案在2023年推出後收入急劇增長,從2023年的655萬元增長至2024年的0.9億元,截至2025年上半年,該業務的營收為0.73億元,同比增長192%,明顯高於FastData企業級資料智能解決方案同期68.57%的營收增速。這也推動FastAGI企業級人工智慧解決方案在滴普科技營收總額的佔比從2023年的5.1%提升至2025上半年的55.3%,成為公司新的增長曲線。圖:滴普科技營業收入構成 資料來源:Wind、36氪整理從下游的客戶構成來看,滴普科技客戶廣泛分佈在消費零售、製造、醫療、交通等各個領域中。客戶拓展策略上,滴普科技採取“燈塔客戶輻射”模式,即先通過與行業領先企業的合作,積累垂直行業落地能力,然後再吸引同行業新客戶。截至2022年、2023年及 2024年12月31日以及2025年6月30日,滴普科技分別累計為129名、178名、245名及283名客戶提供服務。由於行業客戶與AI應用方案解決商達成合作後遷移成本極高,因此AI應用方案解決商會隨業務開展時間積累越來越多的存量客戶群體。因此,滴普科技的營收規模同樣具備“複利效應”。綜合來看,無論是從技術基礎、業務佈局,還是從財務增長情況來看,滴普科技在多個方面均展現出了與Palantir的相似之處,這也是公司本次IPO備受關注的核心原因。圖:滴普科技下遊客戶行業構成 資料來源:Wind、36氪整理03 有想像空間,有估值溢價復盤Palantir的暴漲,背後是業績的快速增長,以及在此基礎上估值的持續抬升。2023年至今,Palantir股價上漲26倍,對應營業收入增長約100%,PS從約10倍增長至100倍以上。這一現象清晰地表明,一旦AI應用公司驗證了其商業模式的有效性和高成長性,資本市場願意賦予其遠超傳統軟體企業的估值溢價。那麼,滴普科技業績的想像空間究竟如何?首先看行業空間,近年來,中國也明顯加大對AI應用的關注力度,推動AI與各行各業的融合,這已經成為頂層設計。在《“資料要素×”三年行動計畫(2024—2026年)》中,檔案明確提出要提高資料供給質量,特別是滿足大模型訓練所需的高品質資料集,並推動在工業製造、現代農業、商貿流通、交通運輸等多個行業的應用。2025年8月,國務院發佈關於深入實施“人工智慧+”行動的意見。意見指出要推動人工智慧與經濟社會各行業各領域廣泛深度融合。政策目標上,到2027年,率先實現人工智慧與6大重點領域廣泛深度融合,新一代智能終端、智能體等應用普及率超70%;到2030年,新一代智能終端、智能體等應用普及率超90%,智能經濟成為中國經濟發展的重要增長極。弗若斯特沙利文指出,2024-2029年,中國企業級人工智慧應用解決方案市場將從386億增長至2394億元,復合增速高達44%。而在更細分的企業級大模型人工智慧應用解決方案市場,對應行業空間將從58億增長至527億,復合增速更是達到55.5%。毫無疑問,身處AI應用賽道的參與者們,均有機會分享到這一史詩級的行業紅利。滴普科技作為國內少數打通 “資料治理(FastData Foil)- 模型訓練(Deepexi)- 業務應用(FastAGI)” 全環節的服務商,其營業收入未來有相當高的機率跑贏國內企業級大模型人工智慧應用解決方案市場55.5%的復合增速。另一方面,隨著滴普科技的業務模式從定製化項目向平台化服務升級,以及高毛利率的FastAGI解決方案收入佔比不斷提升,公司未來的利潤釋放節奏也會加速,例如,其毛利率水平就已經從2022年的29.4%提升至2025年上半年的55%。綜上所述,滴普科技的投資邏輯已十分清晰:其業務模式與Palantir高度相似,並且正處於業績加速增長的拐點。在國家政策大力扶持和行業需求井噴的背景下,憑藉其全端技術能力和不斷最佳化的財務表現,滴普科技有充分的理由在資本市場獲得高估值。作為“企業級大模型AI應用第一股”,其未來的價值想像空間值得期待。 (36氪財經)
算力寡頭的崛起:AI 基礎設施秩序
在 2025 年的科技敘事裡,“算力” 幾乎取代了 “模型”,成為新的關鍵詞。訓練資料與演算法創新仍在持續,但決定一家企業能否進入下一階段競爭的,不再是研究突破,而是能否獲得足夠的 GPU。在 a16z(Andreessen Horowitz)的視角中,這種轉變並非短期現象,而是一場基礎設施權力的重組。當算力成為 AI 產業的硬通貨,整個技術堆疊的價值開始從上層應用,回流到最底層的資源控制:晶片製造、雲調度、電力供給、資本密度,統統成為新的戰略要地。正如 a16z 合夥人 Martin Casado 所說:“當創新成本由演算法轉向硬體與能源,競爭就從工程能力轉向資本結構。”Dylan Patel 在 a16z 播客《GPT-5、NVIDIA、Intel》中形容輝達投資英特爾,是 “一種縱向自我保護”;Casado 則進一步指出,一個新的 “算力寡頭秩序” 正在成形 ——少數同時掌握計算、模型與能源分配權的公司,將定義未來 AI 的速度上限。本篇筆記試圖透過 a16z 近三個月(7–9 月)播客中幾位核心合夥人的公開討論,觀察他們如何理解這場從技術到資本的結構性遷移。從晶片到雲,再到資本,我們正見證一個新世界的建立:程式碼仍在寫,但計算的 “權” 與 “能”,正悄然集中。|註: a16z(Andreessen Horowitz)是一家總部位於矽谷的風險投資機構,由 Marc Andreessen 與 Ben Horowitz 創立。它以長期投資技術底層架構聞名,其 Podcast 常被視為矽谷未來趨勢的 “思想窗口”。01|晶片層:a16z 眼中的 “能源秩序”在 a16z 與行業專家的播客討論中,晶片層始終被視為 AI 產業重構的起點。在 《Dylan Patel: GPT-5, NVIDIA, Intel》 一集中,Patel 與 a16z 的 Erin Price-Wright、Guido Appenzeller 共同討論了一個核心問題:“為什麼 ‘複製 NVIDIA’ 幾乎不可能?”(1)複製 NVIDIA:困難不在晶片,而在系統協同Patel 指出:即使你能造出與 NVIDIA 性能接近的 GPU,也很難複製其系統性效率。這背後的瓶頸不在電晶體,而在協同層:包括節點工藝、HBM 記憶體頻寬、網路互連、能耗管理、熱設計等。每一處邊緣差距都會在規模化叢集中被放大為成本和性能損耗。他稱這種現象為 “系統性摩擦(Systemic Friction)”,並提醒聽眾:“晶片不是一塊矽片,而是一整條產業管線。”a16z 在這段對話中延伸出一個關鍵判斷:硬體競爭的本質,是供應鏈與系統架構的耦合能力。因此,要複製 NVIDIA,不只是抄硬體,而是重建一整套協同基礎設施。(2)NVIDIA 投資 Intel:產業風險下的戰略重構2025 年 7 月,NVIDIA 宣佈向 Intel 投資 50 億美元 —— 表面看是競爭者之間的罕見合作,但在 Patel 的分析中,這一行為本質上是一種戰略保險。他從兩條路徑解讀:1. 供應鏈保險(Supply Chain Hedge):在 GPU 供應緊張、HBM 記憶體受限的環境下,NVIDIA 需要確保 CPU / 封裝 / 製造等環節的穩定性。通過繫結 Intel,可以強化異構協同和製造冗餘。2. 政策避險(Policy Hedge):在出口管制、反壟斷監管高壓下,這種 “友敵式投資” 能緩解政治與產業層的摩擦。a16z 的主持人 Appenzeller 在節目中評論:“這不是一筆財務投資,而是結構性博弈。它重新定義了什麼叫 ‘產業聯盟’。”在 a16z 的語境下,這意味著:算力寡頭之間不再是零和關係,而是權力結構的互鎖。(3)算力即能源:物理極限與地理壁壘Patel 在同一播客中強調:“算力消耗的不是矽,而是電。”一個 10 萬張 GPU 的資料中心,其最大瓶頸往往不是晶片,而是電網容量與冷卻效率。他指出,美國新建的 AI 資料中心多集中在德州、俄勒岡、弗吉尼亞等電價低、氣候冷的地區,而非舊金山或紐約這樣的科技中心。a16z 將這種現象定義為 “能源可得性壁壘(Energy Accessibility Barrier)”:當算力與電力繫結後,能源供應本身就成為競爭力的一部分。Patel 的結論極具警示性:“資料中心的選址差異,正在決定全球 AI 的速度差。”在 a16z 的視角中,這正是未來 “算力秩序” 的雛形:技術進步最終被物理條件重新約束,而能源效率成為新的護城河。02|雲層:a16z 眼中的 “算力入口”如果說晶片層定義了誰能製造算力,那麼雲層則決定了誰能分配算力。a16z 合夥人 Jennifer Li 在 8 月的播客 《The AI Infrastructure Stack》 中指出:“AI 的底層設施,正在從硬體棧轉向調度棧。真正的控制點,不是晶片,而是調度系統。”這句話,是 a16z 理解 “AI 基礎設施秩序” 的轉折點。(1)算力的抽象化:從晶片到服務Jennifer Li 在那期播客中,系統地拆解了 AI 技術堆疊的演進路徑:從模型到推理,再到資料與調度,每一層都在被重新封裝。她強調,未來基礎設施的核心,不在於 GPU 的數量,而在於是否能將算力 “抽象化” 為可組合、可呼叫、可計費的服務。她舉例:訓練階段需要長時、高密度 GPU 叢集;推理階段則要求低延遲、分佈式呼叫;而一套成熟的算力平台,必須能在兩者之間靈活切換。這正是 a16z 投資策略中的核心邏輯:算力不再是固定資產,而是一種動態可交易的服務。(2)協議層崛起:算力的 “通用語言”a16z 在基礎設施投資中持續押注 “協議層(protocol layer)”。Li 解釋道:“協議的意義在於,使算力可遷移、可互換、可程式設計。”在 2025 年的播客中,她提到多家被投公司正在建構跨雲相容的算力協議,允許開發者通過統一 API 在不同雲之間呼叫 GPU 資源。這意味著,雲端運算的壟斷格局可能被 “協議抽象” 重新定義。對 a16z 來說,這並不是 “去中心化” 的理想主義,而是對資源調度效率的再設計。Jennifer Li 總結說:“算力的未來,不是更多晶片,而是更好的調度語言。”(3)延遲與地域:新的算力地理學a16z 另一位合夥人 Appenzeller 在隨後的 《Edge vs Cloud Tradeoffs in AI 》節目中補充指出:推理任務的增長,正在迫使算力分佈發生位移 —— 從集中式雲端運算,回到更接近使用者的邊緣節點。在他們看來,這種 “分佈式反向遷移”,並非對雲的替代,而是其自然演化:“延遲成本,正在成為新的地理壁壘。”這意味著,誰能在關鍵區域(如電力穩定、氣候冷、網路頻寬好的地區)部署低延遲算力節點,誰就掌握了下一代 AI 應用的流量入口。因此,在 a16z 的判斷框架裡:雲層的競爭,不是 AWS vs Azure 的延續,而是 “入口層 vs 延遲層” 的新戰場。(4)總結:雲層的權力邏輯綜合 a16z 在多期播客的判斷,可以提煉出他們對雲層的三層邏輯:在這一層意義上,Jennifer Li 的結論顯得尤其簡潔:“雲不再是工具,而是通道;誰控制了通道,誰就定義了速度。”03|資本層:a16z 如何看待 “算力的金融化”當晶片和雲都在加速集中,a16z 認為第三個權力中心正在浮現:資本本身。Martin Casado 在 7–9 月的兩期節目 《Monopolies vs Oligopolies in AI》 與 《The Economics of AI Infrastructure》 中提出,AI 的競爭邏輯已經從 “技術創新” 轉向 “資本密度競爭”。(1)技術紅利的終點:資本密度驅動期Casado 指出,AI 的邊際創新效率正在下降:訓練集規模逼近上限、演算法創新趨緩,而模型迭代的速度卻越來越快。他給出的關鍵數字是:“訓練一個 GPT-5 等級模型的成本,在 50 億至 100 億美元之間。”這意味著,AI 不再是工程師之間的賽跑,而是資本預算之間的比拚。Casado 把這一階段稱為 “資本密度驅動期(capital-intensive phase)”:創新上限,由能否獲得電力與現金流共同決定。(2)算力資產化:GPU 的金融化處理程序在 《The Economics of AI Infrastructure》 節目中,Casado 提出了一個核心概念:“Compute as an asset.”他認為,GPU 已經具備了傳統生產要素的三重屬性:可折舊(有壽命周期);可出租(推理租賃市場成熟);可抵押(資本市場開始建立 GPU 抵押信用線)。換句話說,算力已經成為一種可計價、可交易的資產類別。a16z 的另一位合夥人 Chris Dixon 曾用更直白的比喻說:“Compute is the new oil field of AI.”他們認為,這一趨勢意味著:AI 不僅在 “消費算力”,而是在 “建設資產”。(3)寡頭格局的形成:資本的幾何效應Casado 進一步指出,算力市場不會 “回歸均衡”。原因有三:資本門檻極高(硬體投資與資料中心支出形成自然壁壘);模型迭代依賴網路效應(規模優勢強化領先者的地位);資本集中度與效率正相關(更多融資意味著更快實驗與部署)。因此,AI 產業正進入他稱之為 “功能性寡頭(functional oligopoly)” 的階段。這不是反競爭,而是資本密度的自然後果。“在訓練成本呈指數上升的世界裡,贏家必須是資本充沛的玩家。”——Martin Casado,a16z Podcast,2025 年 8 月(4)為什麼 a16z 仍投早期公司看似矛盾的是:a16z 一邊承認寡頭格局,一邊仍在積極投資早期 AI 基礎設施公司。Casado 在節目中解釋,這並非兩難,而是雙層下注邏輯:他稱這種模式為 “Anti-Oligopoly Efficiency Dividend”——即使無法挑戰寡頭,也能在效率紅利中捕捉收益。(5)長期預測:算力市場將類比能源市場Casado 在結尾提出一個極具象徵性的比喻:“AI 計算的終局,會像能源市場。能源巨頭掌控供應,衍生市場提供流動性。”a16z 的長期假設是:算力將成為新的能源資產;協議層將成為新的交易系統;資本將決定創新的速度極限。這三點,構成了他們對未來 5–10 年 AI 基礎設施秩序的核心預測。結語|算力秩序的終極問題在 a16z 看來,AI 的競爭已經從演算法層滑向物理層、從技術紅利走向資本密度。這場遷移的核心,不是 “創新” 消失,而是創新的物理邊界被重新定義。他們提出的三層結構 ——晶片層:製造權;雲層:分配權;資本層:定價權;構成了 AI 世界新的權力分佈圖。模型仍然重要,但模型的命運,取決於它能否買到足夠的電力、時間與現金流。當技術的上限被物理與金融雙重約束,矽谷正在重新學習一個古老的問題:在一個能源決定速度的世界裡,創新的真正稀缺是什麼?—— a16z 給出的答案,或許是:自由分配算力的權力。 (複利貓的慢思考)