輝達的創始人兼CEO老黃,雖然60多歲了,但看著他最近一系列的密集運作,體力真是令我欽佩。前不久,輝達50億美金投資了Intel,佔股大概有個4%,實現了這對世紀冤家的“歡喜大結盟”。而就在昨天,輝達宣佈“霸凌式投資”OpenAI 1000億美金:現階段一分不給。等到OpenAI用輝達的卡每建成1GW的資料中心後,才打款十分之一,也就是100億,而為了這1GW的資料中心,OpenAI要花500-600億,其中300-350億要給輝達。而OpenAI此前還和甲骨文簽了5年3000億美金的雲服務合同,為了提供這個服務,甲骨文還得去買輝達的卡。而甲骨文自己手頭根本沒有那麼多錢,甲骨文客戶給它的錢都屬於還沒付的應收帳款,它自己必須去融資或者發債,才能”賣腎買卡”。最後,今天阿里宣佈了和輝達的一系列合作,Physical AI之類的概念一大堆,其實開發者由此可以在阿里雲上使用輝達的軟體棧,但在我看來,其關鍵在於,市場似乎認為輝達找到了在無法直接賣卡給中國公司的困局下,依然和中國公司保持緊密合作的妥協方案,這對它的“護城河”尤為關鍵。今天這篇文章,是Ben Thompson最近連續幾篇關於輝達文章的合集,我把不相關的內容去掉了,最後是Sam Altman今天凌晨發表的一篇小部落格的譯文,他解釋了下為何OpenAI最近會瘋狂買算力(也就是為什麼老黃最近會春風得意),我給合成一篇發表了(有些敏感詞我用同義詞替代了)。【正文開始】今年二季度,輝達的當季營業額達到了467億美元,基本符合分析師預期。但是,關鍵的資料中心部門data-center segment(就是賣晶片的部門)的營收,增長了56%,但仍然略低於分析師預期的413億美元。輝達預測,第三財季營收為540億美元,略高於華爾街分析師的一致預期。但是,在連續多個業績大增的季度之後,這一營收增速被認為不過如此,並引發了人們對於AI晶片需求增長可能已趨於瓶頸期的擔憂。當時在財報發佈後,輝達股價三連跌。但是,我認為,分析輝達財報最重要的是看“供需平衡”。一年半前,我就指出過這一點,現在仍然如此:只要市場上對輝達GPU的需求超過供應,輝達的銷售額就取決於他們能生產出多少 GPU。供應當然在增加,這也正是輝達銷售額能持續攀升的原因,但是,假設供應只是線性增長,那麼到頭來,隨著基數變得越來越大,因為輝達此前的營收本身已實現指數級增長,輝達的增長率這個數字就勢必會變小了。從一個有趣的角度來看待輝達和中國,以及黃仁勳極力想向該國出售產品的原因,就是輝達“護城河moat”的本質。黃仁勳在回答一個關於 ASIC 的提問時說道:“我們先談談 ASIC,很多項目都起步了,許多初創公司湧現,但真正能打造產品的少之又少。原因很簡單,這事兒太難了。加速計算accelerated computing,不同於通用計算general-purpose computing,你不能只是寫個軟體,然後編譯成可在處理器上運行的程式碼。加速計算,涉及全端的協同設計full-stack co-design。而過去幾年裡,AI 工廠變得愈發複雜,因為問題規模激增。這真的是當今世界上最終極、最極端的電腦科學問題,所以全端都很複雜。模型在飛速演進,從基於自回歸的生成模型,到基於擴散的生成模型,再到混合模型和多模態模型。湧現出的不同模型,實在太多,要麼是 Transformer 的衍生模型,要麼是 Transformer 的衍化模型,數量之龐大令人望而生畏。”“而輝達的一個優勢,就是輝達無處不在。所有雲,都有我們的存在,每家電腦公司,都在用我們。從雲端、到本地、再到邊緣乃至機器人領域,我們都採用同一個程式設計模型。因此全球每種框架都支援輝達。當你建構新的模型架構時,在輝達上發佈是最明智的選擇。我們的平台具有多樣性,既能適應任何架構演進,又遍佈各處,並且我們加速了整個流程,從資料處理、預訓練、到帶有強化學習的後訓練,一直到推理。所以,當你用輝達平台建構資料中心時,其效用是最好的,裝置壽命也長得多。”上述回答,其實已經體現了護城河的兩個層面。第一,就是 CUDA本身,輝達控制了GPU的軟體棧,這是默認選項,然後是CUDA 的普及度,由於CUDA 無處不在,這意味著你可以前往任何雲廠商,也可以找到熟悉 CUDA 的開發者。黃仁勳還說:“再補充一點,除了剛才說的這些,這本質上已經成了一個極其複雜的系統級問題。大家總是談論晶片本身,許多人談論的 ASIC 就只有一個,也就是 GPU。但為了打造 Blackwell 平台和 Rubin 平台,我們還得打造 CPU 來連接高速記憶體,為 Agentic AI 提供所需的大容量、超高能效快取,以此連接到 GPU,再連接到超級 NIC,再連接到縱向擴展交換機,也即NVLink,如今已發展到第五代,然後再連接到橫向擴展交換機,無論是 Quantum 還是 Spectrum-X 乙太網路,再進一步橫跨交換機擴展,以便我們為那些擁有數吉瓦計算能力、互聯成網的 AI 超級工廠做好準備。我們稱之為 Spectrum-XGS。所以,我們所做的一切複雜得難以置信,而且,現在這一切都是在極其龐大的規模下完成的。”這就是護城河的第二部分:網路networking。我一直在討論輝達的GPU,但實際上,GPU是在系統層面協同工作的,尤其在訓練方面。而輝達將多顆 GPU,聯結為單一協調系統的能力,無人能及。這也成了一個重大的收入驅動力:本季度,2025年Q2,輝達的網路業務收入達到73億美元,已經超過了其2019年收購 Mellanox 時支付的價錢,而Mellanox 正是其網路產品的基礎。這筆收購,堪稱史上最成功的收購之一。“最後再說一點:我們之所以能進入所有雲平台是有原因的,我們是最節能的,我們的每瓦性能performance per watt,是任何計算平台中最好的。而在電力受限的資料中心,每瓦性能,直接驅動營收。各位也聽我說過,在很多情況下,你買得越多,增長越快the more you buy, the more you grow。再加上我們的每美元性能performance per dollar,也就是性價比實在驚人,因此我們的利潤率也極高。所以,採用輝達 架構所帶來的增長機會和毛利空間絕對是最優的。所以每家雲服務商、每家初創公司、每家電腦公司都選擇輝達 ,我們真正提供的是 AI 工廠的一體化全端解決方案。”上述最後一點,也即第三點,我認為或許是輝達在西方世界(注意是在西方)長期護城河中最關鍵的組成部分。如果,AI公司最終受到功耗限制,那麼他們就必須最大化每瓦性能,只要輝達還在這一指標上保持領先,他們高昂的價格,就物有所值。(關於AI大模型的性能雖然越來越強,但消耗的tokens卻越來越多,可見這篇:Token的成本下降10倍,但大模型公司卻離盈利越來越遠AI 公司們如今陷入了一種囚徒困境:他們都必須提高模型性能,以領先競爭對手,但他們提高性能的方式,實際上摧毀了自身的盈利能力,與此同時,輝達則扮演著那個收稅人的角色:AI 公司虧得越多,輝達賺得就越多。)然而,在中國,功耗很可能不會是限制因素,因此,輝達的護城河將更多地依賴CUDA,而這一切的前提,是中國公司的大模型,的確使用輝達的晶片來進行訓練和推理。讓中國公司使用輝達的晶片,其實確保了美國對主流 AI 軟體棧的主導地位,但是反過來,如果中國公司不用輝達晶片,其實不僅削弱了美國的控制力,而且對輝達而言,將長期威脅其在世界各地的銷售。原因事關整體競爭格局,一旦由中國推出了開源CUDA 的替代方案,且形成規模,不僅中國市場,全球市場上的輝達晶片,都將面臨競爭。黃仁勳其實以一直依賴都在擔憂,中國肯定是未來 AI 晶片最重要的市場之一,然而,即便不受到限制,可以自由銷售,輝達在該市場也沒有可持續存在的差異化優勢。關於不久前,輝達投資英特爾50億的案子,Ben Thomson認為這筆交易的最大輸家,並非台積電,而是AMD:“一直以來,AMD區別於Intel之處,在於它不僅在x86 CPU領域展開競爭,還在GPU領域有所佈局,這得益於其2006年收購了當時輝達最大的競爭對手:ATI。但不幸的是,AMD的軟體實力向來不足,它既沒有建立起像輝達那樣的AI軟體棧,也不具備輝達的網路能力。這意味著,同時擁有CPU和GPU業務,並未給AMD帶來原本可能擁有的優勢。如今,對於那些想要輝達GPU又需要x86 CPU的公司來說,Intel將成為顯而易見的首選,而且這些Intel CPU還將擁有AMD所沒有的另一項專有技術:比如Thunderbolt。不過,需要指出的是,這種損失對AMD而言,更多隻是錯失良機。AMD在只看重性能和總體擁有成本(Total Cost of Ownership)的領域,依然表現強勁,而且這一勢頭應會持續下去。實際上,你也可以說這筆交易在相當程度上延長了x86架構的生命力,而這歸根結底對AMD也是有利的。”附:Sam Altman最新Blog《豐裕的智能Abundant Intelligence》AI 服務的使用增長,令人驚嘆,但我們預期未來會更加令人驚嘆。隨著 AI 變得更聰明,獲取 AI 將成為經濟體髮簪的基本驅動力,甚至最終會成為一項基本人權,幾乎所有人都會希望有更多的 AI 為自己工作。為了能夠提供世界所需,既提供運行這些模型的推理算力,也提供讓它們持續變得更好的訓練算力,我們正在發力鋪設基建,以便顯著擴大我們建設 AI 的雄心。如果,AI 按照我們認為的軌跡進步,那麼許多驚人的事情將成為可能。也許,在 10 吉瓦的算力下,AI 能夠找到治癒癌症的方法;也許,在 10 吉瓦的算力下,AI 能夠為地球上的每一位學生提供個性化輔導。如果,受到算力限制,我們就不得不在兩者之間取捨......沒有人願意做這種選擇,所以讓我們盡快開始吧。我們的願景很簡單,我們想打造一座工廠,每周都能產出 1 吉瓦的 AI 基礎設施。要把這件事執行出來,極其困難。達到這一里程碑,需要我們用上數年時間,並且要求在整個技術堆疊的每一層——從晶片、供電、建築、機器人——都進行創新。但我們一直在為此努力,並且相信這是可行的。在我們看來,這將是有史以來最酷、也最重要的基礎設施項目。我們對在美國大規模建設這些設施,格外興奮。眼下,其他國家在建設晶片晶圓廠以及新的能源產能方面的速度,遠快於我們,而我們希望扭轉這一趨勢。在接下來的幾個月裡,我們將談一談部分規劃,以及我們正在與之合作、把這一願景變為現實的夥伴。今年晚些時候,我們會介紹我們的融資方式,鑑於如何提升算力是提升收入的關鍵所在how increasing compute isthe literal key to increasing revenue,我們有一些有趣的新想法。 (一個胖子的世界)