#AI基建
【GTC】黃仁勳稱將大舉投資AI基建確保美國領先,輝達市值逼近5萬億美元 | 巴倫科技
在GTC華盛頓大會主題演講中,黃仁勳官宣了輝達對諾基亞10億美元的投資,發佈了NVIDIA Arc、NVQLink、下一代Vera Rubin超級晶片等新技術、產品,並始終強調通過AI基礎設施等投資保證美國的領先地位。人工智慧的熱度越來越高,以至於“AI春晚”一年要辦兩場。美東時間10月27日至29日,人工智慧盛會輝達GTC大會首次在華盛頓特區舉辦“加場”。有別於更聚焦技術、產品的3月聖何塞春季旗艦大會,10月的華盛頓大會更像是“政策專場”,不少討論都聚焦於AI領域的產業政策、政府角色等。此前輝達官方也曾預告,大會重頭戲——公司CEO黃仁勳的主題演講除了會公佈產品相關資訊外,還將為觀眾釐清AI如何重塑行業、基礎設施及公共部門的路線圖。Wccftech的會前報導也曾指出,考慮地緣問題對輝達變得愈發重要,在華盛頓舉辦的大會或將更加關注“如何確保美國在人工智慧競賽中保持領先地位”。更引人矚目的是,美國總統川普在大會召開之際稱“希望向黃仁勳表示祝賀”,還表示二人隨後就將會面。美東時間10月28日中午12時許,黃仁勳如期登台發表演講。再次回顧公司發展歷程後,他集中介紹了公司在6G、量子計算、AI基礎設施建設等領域的最新進展和雄心。而在這背後,有關如何保持美國在AI領域的競爭優勢的考慮無處不在。在6G領域,黃仁勳詳細解釋了公司剛剛宣佈的向諾基亞投資10億美元的計畫。表示雙方將合作開發6G人工智慧平台,諾基亞未來的基站將全面採用主題演講中發佈的全新產品線NVIDIA Arc架構。“這將推動美國重返電信領導地位”,輝達在與黃仁勳主題演講同步發出的新聞稿中寫道。黃仁勳還在演講中推出了NVQLink,這是一種旨在將量子處理器與GPU計算系統連接起來的系統架構。他表示,未來每台使用輝達GPU的超級電腦都將是混合的,與量子處理器緊密耦合,以擴展計算的可能性。“這是計算的未來”,雖然沒有公佈具體技術進展,但黃仁勳稱已有17家量子計算公司承諾支援NVQLink。另外,主題演講中也明確提到,NVQLink允許量子處理器與美國九個國家實驗室的超級計算系統連接,保持美國在高性能計算領域的領先地位。與此同時,黃仁勳還宣佈輝達將與美國能源部合作建造7台新的AI超級電腦以推動美國科學發展,這也將成為美國能源部最大的AI超級電腦。在近2個小時的演講中,黃仁勳還談到了機器人、物理AI、美國的製造業回流等眾多熱點問題,並展示了下一代Vera Rubin超級晶片,還發佈了輝達資料中心/AI GPU路線圖。值得一提的是,就像呼應後者在遠方的祝賀一樣,黃仁勳還感謝了川普,主要是因為他在推動為資料中心加強能源供給方面的舉措。延續著此前說法,黃仁勳認為人類正處於人工智慧工業革命的黎明,而這項技術將定義每個行業和國家的未來。“美國必須引領這場邁向未來的競賽,這是我們這一代人的阿波羅時刻。下一輪的發明、發現和進步將取決於國家擴展人工智慧基礎設施的能力。我們正在與我們的合作夥伴一起建設有史以來最先進的人工智慧基礎設施,確保美國擁有繁榮未來的基礎,並確保世界人工智慧以美國的創新、開放和協作為基礎造福所有人。”他表示。在中美AI競賽趨於白熱化,兩國貿易關係持續波動的時刻,黃仁勳和他的輝達也承受著來自雙方的壓力。此前川普政府曾禁止輝達向中國出口高端晶片。但禁令解除後,輝達又在中國接連遭遇反壟斷調查、安全後門等問題。根據公司季度財報和黃仁勳的“親口承認”,輝達在中國的市佔率已從95%直接歸零,從今年二季度開始就無法向中國市場正常銷售晶片。而中國則在加速AI製造國產化替代處理程序,以寒武紀為代表的國產晶片公司備受矚目,被寄予“產生像DeepSeek一樣的衝擊波”的期待。截至10月28日,寒武紀股價已再次超越貴州茅台,成為A股第一高價股。不過,輝達是全球市值最高的公司。值得一提的是,在黃仁勳發表主題演講的同時,輝達股價繼續走高,盤中突破203美元,總市值逼近5萬億美元,再次創下歷史新高。以下為黃仁勳主題演講的中文翻譯版,經AI輔助和人工編輯:歡迎來到GTC。今天我們有太多內容要和大家分享。GTC是我們探討工業、科學、計算、現在與未來的地方。所以今天我要涵蓋的內容非常多。但在我開始之前,我想感謝我們所有的合作夥伴。他們幫助贊助了這次活動。你們會在展會周圍看到他們。他們來這裡與大家會面,這真的很棒。沒有我們整個生態系統的合作夥伴,我們無法完成我們所做的一切。大家都說,這是AI領域的“超級碗”。那麼,每一屆“超級碗”都應該有一個精彩的開場秀。你們覺得剛才的開場秀(指開場播放的回顧美國及全球科技產業發展的短片)和我們的“全大寫全明星”陣容(指大螢幕上展示的贊助商名單)怎麼樣?全是全明星運動員和全明星陣容。看看這些傢伙。在接下來的三個半小時裡,AI生態系統的各個行業將齊聚一堂,共同探討一些事情。那麼,我們開始吧。如大家在視訊中所見,輝達在60年來首次發明了一種新的計算模型。一種新的計算模型很少出現。這需要大量的時間和一系列我們觀察到的條件。我們發明這種計算模型,是因為我們想解決通用電腦、普通電腦無法解決的問題。我們還觀察到,總有一天,電晶體會繼續增加,但電晶體的性能和功耗提升將會放緩。這就意味著,摩爾定律將無法持續,它會受到物理定律的限制。那個時刻現在已經到來,我們的縮放已經停止了。這被稱為“德納德縮放”。德納德縮放大約在十年前就幾乎停止了。事實上,電晶體性能及其功耗的提升已經大幅放緩。然而,電晶體數量仍在繼續增長。我們在很久以前就注意到了這一點,並且在過去的30年裡,我們一直在推進這種我們稱之為“加速計算”的計算形式。我們發明了GPU。我們發明了名為CUDA的程式設計模型。我們觀察到,如果我們能增加一個處理器,利用越來越多的電晶體,應用平行計算,將其與順序處理的CPU相結合,我們就能將計算能力擴展到遠超以往的程度。而這個時刻確實已經到來了。我們已經看到了這個拐點:加速計算,它的時代現在已經來臨。然而,加速計算是一種本質上就不同的程式設計模型。你不能只是把手工編寫的、順序執行的CPU軟體放到GPU上,並指望它能正常運行。事實上,如果你只是那樣做,它實際上會運行得更慢。所以你必須重新發明新演算法,你必須建立新的庫,事實上,你必須重寫應用程式,這就是為什麼它花了這麼長時間。我們花了將近30年才走到這裡,但我們是一步一個腳印走來的。這也是我們公司的瑰寶。大多數人談論GPU的重要性,但如果沒有一個建構在其之上的程式設計模型,並且沒有對這個程式設計模型進行代際相容的dedication(我們現在是CUDA 13,即將推出14),如果沒有數百萬個GPU在每台電腦上完美相容地運行。那麼開發者就不會以這個計算平台為目標。如果我們沒有建立這些庫,那麼開發者就不知道如何使用演算法,並充分發揮架構的潛力。我的意思是,這真的是我們公司的瑰寶。(對應現場螢幕的展示依次解釋)我們花了將近七年的時間才讓cuLitho達到現在的水平。現在台積電在使用它,三星在使用它,ASML也在使用它。這是一個用於計算光刻的不可思議的庫,這是製造晶片的第一步。cuOpt,在數值最佳化方面打破了幾乎每一項紀錄……cuDF,一個資料幀方法,基本上是加速SQL、資料幀、專業資料幀資料庫。這個庫是共同啟動AI的庫,cuDNN,以及建構在它之上的名為Megatron Core的庫,使我們能夠模擬和訓練極其龐大的語言模型。這樣的例子還有很多。MONAI,非常重要,世界排名第一的醫學影像AI框架。順便說一下,我們今天不會過多討論醫療保健,但請務必觀看Kimberly的主題演講。她會詳細討論我們在醫療保健領域的工作。這樣的例子還有很多,基因組學處理、航空影像… 請大家注意,今天我們在這裡要做一些非常重要的事情。那就是cuQuantum,量子計算。螢幕展示的這只是我們公司350個不同庫的代表。這裡的每一個庫都重新設計了加速計算所需的演算法。每一個庫都使得我們所有的生態系統合作夥伴能夠利用加速計算,並且每一個庫都為我們開闢了新的市場。讓我們看看CUDA-X能做什麼。準備好了嗎?開始。(現場展示了數段遊戲、動畫CG片段)是不是很神奇?你們看到的一切都是模擬。沒有藝術,沒有動畫。這就是數學之美。這是深度的電腦科學,深度的數學,它的美令人難以置信。涵蓋了每一個行業,從醫療保健和生命科學,到製造業、機器人技術、自動駕駛汽車、電腦圖形學…甚至電子遊戲。你們看到的第一個鏡頭是輝達運行過的第一個應用程式。那是我們1993年開始的地方。我們一直堅信我們正在努力做的事情。很難想像,你能看到那個最初的虛擬戰鬥機場景活生生地呈現出來。而同一家公司相信我們今天會站在這裡。這真是一段不可思議的旅程。我想感謝所有輝達員工,請大家為他們鼓掌,感謝你們所做的一切。這真的太不可思議了。今天,我們涵蓋了很多行業。我的演講也將涵蓋AI、6G、量子模型、企業計算、機器人和工廠。讓我們開始吧。我們要涵蓋很多內容,有很多重大發佈,有很多新合作夥伴,這些可能會讓你們非常驚訝。電信是我們經濟、我們工業、我們國家安全的支柱和生命線。自從無線技術誕生以來,我們定義技術,我們定義全球標準,我們將美國技術出口到世界各地,以便世界可以基於美國的技術和標準進行建設。然而,距離那時已經過去很久了。當今世界部署的無線技術很大程度上都基於外國技術。我們基本的通訊架建構立在外國技術之上。這種情況必須停止。而我們有機會做到這一點,尤其是在這個根本性的平台轉型期。如你們所知,電腦技術實際上是每個行業的基礎。它是科學最重要的工具。它是工業最重要的工具。我剛剛說過我們正在經歷一個平台轉型。這個平台轉型應該是我們千載難逢的機會,讓我們重新回到遊戲中,開始基於美國技術進行創新。今天,我們宣佈我們將這樣做。我們與諾基亞建立了重大合作夥伴關係。諾基亞是世界第二大電信裝置製造商。這是一個3萬億美元的產業。包含數千億美元的基礎設施,全球有數百萬個基站。如果雙反進行合作,我們可以基於這個令人難以置信的、根本上基於加速計算和AI的新技術進行建設。並且讓美國成為6G下一次革命的中心。所以今天,我們宣佈輝達有一個新的產品線。它叫做輝達Aerial RAN Computer Arc。Arc由三項基本新技術建構而成:出色的CPU——Blackwell GPU,以及我們用於此應用的ConnectX網路。所有這些使我們能夠運行這個庫。我前面提到的這個CUDA-X庫叫做Aerial,本質上是一個運行在CUDA之上的無線通訊系統。我們將首次建立一個軟體定義的、可程式設計的電腦,它能夠無線通訊,同時進行AI處理。這完全是革命性的。我們稱之為輝達Arc。而諾基亞將與我們合作,整合我們的技術,重寫他們的軟體棧。這是一家擁有7000項5G基本專利的公司。很難想像,還有比這更偉大的電信領導者了。所以我們將與諾基亞合作。他們未來的基站將全面採用輝達Arc。而輝達Arc也與諾基亞當前的AirScale基站相容。這意味著,我們將採用這項新技術,並能夠用6G和AI升級全球數百萬個基站。現在,6G和AI確實很重要,我們也將首次能夠使用AI技術——“AI for ran”——通過使用人工智慧、強化學習,根據環境、流量、移動性、天氣等即時調整波束成形,來提高無線通訊的頻譜效率。所有這些都可以被考慮進去,這樣我們就能提高頻譜效率。基站消耗了全球約1.5%到2%的電力。所以提高頻譜效率意味著我們可以在不增加必要能源的情況下,通過無線網路傳輸更多資料。我們能做的另一件事是“AI on ran”。這是一個全新的機會。請記住,網際網路實現了通訊,但令人驚奇的是,像AWS這樣的聰明公司在網際網路之上建構了雲端運算系統。我們現在將在無線電信網路之上做同樣的事情。這個新的雲將是一個邊緣工業機器人云。這就是說,“AI for ran”來提高無線電頻譜效率。“AI on ran”本質上則是無線電信的雲端運算。雲端運算將能夠直接延伸到邊緣,那裡沒有資料中心,因為我們在世界各地都有基站。這個發佈非常令人興奮。Justin Hodar,諾基亞他們的CEO,我想他就在會場某處,感謝您與我們合作,感謝您幫助將電信技術帶回美國。這真是一次了不起的合作。非常感謝。(現場響起諾基亞經典鈴聲)這是慶祝諾基亞的最佳方式。接下來,讓我們談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼設想了一種新型電腦,可以直接模擬自然。他稱之為量子電腦。四十年後,這個行業取得了根本性的突破。就在去年,實現了一個根本性的突破。現在可以製造出一個邏輯量子位元。一個相干的、穩定的、並且經過糾錯的邏輯量子位元。這一個邏輯量子位元由有時是幾十個,有時是幾百個物理量子位元共同工作組成。如您所知,量子位元這些粒子極其脆弱。它們可能非常不穩定。任何觀察、任何採樣、任何環境條件都可能導致它退相干。因此,它需要極其受控的環境,現在還需要許多不同的物理量子位元讓它們協同工作,讓我們能夠對它們進行糾錯,這些被稱為輔助量子位元或綜合徵量子位元。讓我們能夠糾正錯誤,並推斷出那個邏輯量子位元的狀態。有各種不同類型的量子電腦,超導、光子、囚禁離子、穩定原子,各種不同的製造量子電腦的方法。我們現在意識到,將量子電腦直接連接到GPU超級電腦是至關重要的,這樣我們才能進行糾錯,才能進行量子電腦的人工智慧校準和控制,才能進行協同模擬,共同工作,讓正確的演算法運行在GPU上,正確的演算法運行在QPU(量子處理單元)上,並讓這兩個處理器、兩台電腦並肩工作。這是量子計算的未來。讓我們看看。(現場播放了一段量子計算相關的視訊,其中稱量子糾錯是答案,NVQ Link則是一種新的互連架構,直接將量子處理器與輝達GPU連接起來,他們還將能夠協調量子裝置和AI超級電腦來運行量子GPU應用程式。)所以今天,我們正式發佈NVQ、NVQ Link。這得益於兩件事,當然,這個互連實現了量子電腦控制和校準、量子糾錯,以及連接兩台電腦(QPU和我們的GPU超級電腦)的混合模擬。它也是完全可擴展的。它不僅僅針對今天少量量子位元進行糾錯。它也為未來進行糾錯,屆時我們將把這些量子電腦從今天的幾百個量子位元擴展到數萬個量子位元,未來甚至到數十萬個量子位元。所以我們現在有一個架構,可以進行控制、協同模擬、量子糾錯,並面向未來進行擴展。行業的支援一直令人難以置信。在CUDA-Q的發明期間,記住,CUDA是為GPU-CPU加速計算設計的,基本上是用合適的工具做合適的工作。現在CUDA-Q已經擴展到CUDA之外,這樣我們就可以支援QPU,並讓兩個處理器(QPU和GPU)協同工作,計算在幾微秒內來回移動,這是與量子電腦協作所需的關鍵延遲。所以現在CUDA-Q是一個如此不可思議的突破,被眾多不同的開發者採納。今天我們宣佈有17家不同的量子電腦行業公司支援NVQ Link架構。我對此感到非常興奮。還有8個不同的美國能源部下屬實驗室:伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺… 幾乎每個美國能源部實驗室都與我們合作,與我們的量子電腦公司和這些量子控製器生態系統合作,以便我們將量子計算整合到未來的科學中。我們還有一個額外的重要發佈。今天,我們宣佈美國能源部正與輝達合作,建造7台新的AI超級電腦,以推動我們國家的科學發展。我必須向克里斯·賴特部長(美國能源部部長)部長致敬。他給能源部帶來了如此多的活力,能量的激增、激情的激增,以確保美國再次引領科學。正如我提到的,計算是科學的基本工具,我們正在經歷幾個大的平台轉型期。一方面,我們轉向加速計算。這就是為什麼未來的每台超級電腦都將是基於GPU的超級電腦。而且,我們轉向AI,這樣AI和基於原理的求解器、基於物理的模擬都不會消失,但它可以得到增強,從而通過使用代理模型、AI模型協同工作來擴展規模。我們也知道,基於原理的求解器、經典計算可以通過使用量子計算來增強,以理解自然狀態。我們也知道,未來,我們有如此多的訊號,如此多的資料需要從世界中採樣。遙感比以往任何時候都更重要。而這些實驗室,除非它們是機器人工廠、機器人實驗室,否則我們無法以我們需要的規模和速度進行實驗。所以所有這些不同的技術正在同時進入科學領域。賴特部長理解我們,他希望美國能源部抓住這個機會,為自己注入超強動力,並確保美國保持在科學的前沿。我想為此感謝你們所有人。謝謝。接下來,讓我們談談AI。什麼是AI?大多數人會說AI是一個聊天機器人,這確實是正確的。毫無疑問,ChatGPT是人們認為的AI前沿。然而,正如你現在看到的,這些科學超級電腦不是用來運行聊天機器人的。它們將進行基礎科學AI。AI的世界遠不止聊天機器人,當然。聊天機器人極其重要,而AGI從根本上來說至關重要。深度電腦科學、不可思議的計算能力、偉大的突破對於AGI仍然至關重要。但除此之外,AI還有更多內涵。事實上,我將用幾種不同的方式來描述AI。第一種方式,你首先會想到的是,AI已經完全重塑了計算棧。我們過去編寫軟體的方式是手工編碼的軟體運行在CPU上。今天AI是機器學習、訓練、資料密集型程式設計,如果你願意這麼說的話,通過AI進行訓練和學習,而AI運行在GPU上。為了實現這一點,整個計算棧已經改變。注意,你在這裡看不到Windows。你看不到CPU。你看到的是一個完全不同的、根本不同的棧。我們還可以從對能源的需求開始說起,這是另一個領域,我們的政府、川普總統值得巨大讚譽,他支援能源發展的倡議,他認識到這個行業需要能源來增長,需要能源來進步,我們需要能源來獲勝。他認識到這一點,並將國家的力量置於支援能源增長之後,完全改變了遊戲規則。如果沒有發生這種情況,我們可能會陷入糟糕的境地。我為此感謝川普總統。在能源之上是這些GPU。這些GPU被連接起來,建構成我稍後會展示的基礎設施。在這個基礎設施之上,包括巨型資料中心,輕鬆有這個房間大小的好多倍,消耗巨大的能量,然後通過這些稱為GPU超級電腦的新機器轉化能量,以生成數字。這些數字被稱為Token,可以說是人工智慧的語言、計算單元、詞彙表。你幾乎可以將任何東西標記化。你當然可以將英文單詞標記化。這就是為什麼你能夠識別圖像或生成圖像。將視訊標記化,將3D結構標記化,你可以標記化學物質、蛋白質和基因,你可以標記我們自己,或者幾乎任何有結構的東西,任何有資訊內容的東西。一旦你能將其標記化,AI就能學習那種語言及其含義。一旦它理解了那種語言的含義,它就能翻譯、能響應,就像你與ChatGPT互動一樣。它也能生成,就像ChatGPT能生成一樣。所以,你看到ChatGPT做的所有基本事情,你只需要想像,如果它是蛋白質會怎樣?如果它是化學物質呢?如果它是一個像工廠一樣的3D結構呢?如果它是一個機器人,而標記是理解行為,並將動作和運動標記化呢?所有這些概念基本上都是一樣的,這就是為什麼AI正在取得如此非凡的進展。在這些模型之上是應用程式。Transformer不是一個通用模型。它是一個非常有效的模型,但不存在一個通用的模型。只是AI具有普遍的影響力而已。我們有太多不同類型的模型了。在過去的幾年裡,我們享受了多模態的發明並經歷了創新突破。有太多不同類型的模型。有CNN模型,有狀態空間模型,有圖神經網路模型。在這些模型架構之上是應用程式,即過去的軟體。這是對人工智慧的一個深刻理解,一個深刻的觀察。過去的軟體行業是關於建立工具的。Excel是一個工具,Word是一個工具,網頁瀏覽器也是一個工具。我們之所以知道這些是工具,是因為大家在使用它們。工具,就像螺絲刀和錘子一樣,行業只有這麼大,這些IT工具大約價值1萬億美元左右。但AI不是一個工具,AI是工作者,這就是深刻的區別。AI實際上是能夠使用工具的工人。我真正感到興奮的事情之一是由Irvin在Perplexity所做的工作,他們使用網頁瀏覽器來預訂假期或購物。基本上是一個使用工具的AI。Cursor是一個AI和代理式AI系統,我們在輝達使用它。輝達的每一位軟體工程師都在使用Cursor。這極大地提高了我們的生產力。它基本上是我們每一位軟體工程師生成程式碼的合作夥伴。它也使用名叫VS Code的工具。所以Cursor是一個AI,一個代理式AI系統,而VS Code是它使用的工具。所有這些不同的行業,無論是聊天機器人,還是數字生物學(在那裡我們有AI助理研究員),或者機器人計程車。說到這,在機器人計程車內部,雖然看不見的,但顯然有一個AI司機。那個司機在工作,而它用來工作的工具就是汽車。所以,我們至今創造的一切,整個世界,我們至今創造的一切都是供我們使用的工具。有史以來第一次,技術現在能夠自己工作並幫助我們提高生產力。這樣的機會列表還在繼續,這就是為什麼AI所涉及的經濟領域是它從未觸及過的。它是在工具之下的幾萬億美元、甚至百萬億美元全球經濟。現在,AI將首次涉足這百萬億美元的經濟,使其更具生產力,增長更快,規模更大。我們面臨嚴重的勞動力短缺,擁有增強勞動力的AI將幫助我們增長。從技術產業的角度來看,有趣的是,在AI是開創經濟新領域的新技術這一事實之外,AI本身也是一個新產業。正如我早先解釋的,這些Token,這些數字,在你將所有不同的模態和資訊標記化之後,需要一個工廠來生產這些數字,這與過去不同。過去的電腦行業和晶片行業,請注意,如果你看過去的晶片行業的話,過去的晶片行業約佔IT行業的5%到10%,也許更少。原因是,使用Excel不需要那麼多計算,使用瀏覽器不需要那麼多計算,使用Word不需要那麼多計算。但是在這個新世界裡,需要有一台電腦始終理解上下文。它無法預先計算,因為每次你使用AI電腦,每次你要求AI做某事時,上下文都是不同的。所以它必須處理所有這些資訊環境。例如,在自動駕駛汽車的情況下,它必須處理汽車的上下文。你提出的指令是什麼?要求AI去做?然後它必須逐步分解問題,進行推理,制定計畫並執行。每一步都需要生成大量的Token,這就是為什麼我們需要一種新型系統,我稱之為AI工廠。它當然是一個AI工廠。它不同於過去的資料中心,它是一個AI工廠。因為,這個工廠只生產一樣東西,不像過去的資料中心什麼都做,為我們所有人儲存檔案,運行各種不同的應用程式。你可以像使用電腦一樣使用那個資料中心來處理所有應用程式。你可以一天用它來玩遊戲,你可以用它來瀏覽網頁,你也可以用它來做會計。所以那是過去的電腦,一個通用的、多用途的電腦。我在這裡談論的電腦是一個工廠。它基本上只運行一樣東西:它運行AI。其目的是設計用來生產儘可能有價值的Token,意思是它們必須聰明,並且你希望以驚人的速度生產這些Token。因為當你向AI提問時,你希望它快速響應。並且注意到在高峰時段,這些AI的響應越來越慢,因為它要為很多人做很多工作。所以你希望以驚人的速度生產有價值的Token,並且你希望以高效的方式生產它。我使用的每一個詞都與AI工廠、汽車工廠或任何工廠的概念一致。它絕對是一個工廠。而這些工廠以前從未存在過。在這些工廠內部是堆積如山的晶片,這引出了今天的話題。過去幾年發生了什麼。事實上,去年發生了一些相當深刻的事情。實際上,如果你看今年年初,每個人對AI都有某種態度。這種態度通常是:這將會很大,這將是未來。幾個月前,它進入了渦輪增壓模式。原因有幾個。首先,在過去的幾年裡,我們已經找到了如何讓AI更聰明的方法。這不僅僅是預訓練。預訓練基本上是說,讓我們把人類創造的所有資訊都給AI學習。這本質上是記憶和泛化。這不像我們小時候上學。學習的第一階段,預訓練從來不是,就像學前班從來不是教育的終點一樣。預訓練僅僅是教你智能的基本技能,以便你能夠理解如何學習其他一切。接下來是後訓練。預訓練之後是教你解決問題的技能,分解問題,進行推理。關於如何解決數學問題,如何編碼,如何逐步思考這些問題,使用第一性原理推理。然後在那之後,才是計算真正開始發揮作用的時候。如你們所知,我們上了學,那對我來說是幾十年前的事了。但自那以後,我學到了更多,思考了更多。原因是我們在不斷地用新知識夯實自己。我們不斷地進行研究,我們不斷地思考,這確實是智能的全部意義所在。所以現在我們擁有三個基本的技術技能。我們有這三個技術:預訓練,這仍然需要巨大的計算量。我們現在有後訓練,它使用甚至更多的計算。而現在,“思考”給基礎設施帶來了難以置信的計算負荷,因為它是在為我們每一個人思考。所以AI進行推理、“思考”所需的計算量確實非常巨大。我以前聽人說推理很容易,輝達應該做訓練,輝達需要做。但是,思考怎麼可能容易?思考是困難的,這就是為什麼這三個擴展法則給計算量帶來了如此大的壓力。現在另一件事發生了,從這三個擴展法則中,我們得到了更聰明的模型,這些更聰明的模型需要更多的計算。而模型越聰明,就有越多的人使用它,這就需要越多的計算。而且,現在它們值得付費了。輝達為每一份Cursor許可證付費,我們很樂意這樣做,因為Cursor正在幫助價值數十萬美元的員工——軟體工程師或AI研究員——提高數倍的生產力。所以,我們當然非常樂意這樣做。這些AI模型已經好到值得付費了。Cursor、11 Labs、Cynthia、Abridge、OpenEvidence,這樣的例子還有很多。當然還有OpenAI、Claude。這些模型現在如此之好,以至於人們願意為之付費。因為人們付費並更多地使用它,而每次他們更多地使用它,你就需要更多的計算。我們現在有兩個指數級增長。這兩個指數,一個是三個擴展法則帶來的指數級計算需求。第二個指數是,模型越智能,就有越多的人使用它,使用者增長和模型能力提升相互促進,都導致計算需求指數級增長。兩個指數現在同時對世界的計算資源施加壓力,正好在我剛才告訴你摩爾定律已基本結束的時候。所以問題是,我們該怎麼做?如果我們有這兩個指數級增長的需求,而我們找不到方法來驅動成本下降,那麼這個正反饋系統就會崩潰。良性循環對幾乎任何行業都至關重要,對任何平台行業都至關重要。它對輝達也至關重要。我們現在已經達到了CUDA的良性循環。建立的應用越多,人們創造的應用越多,CUDA就越有價值,CUDA就越有價值。購買的CUDA電腦越多,購買的電腦越多,開發者就越想為該平台建立應用。輝達的這個良性循環在經過30年後現在已經實現了。15年後,我們也將為AI實現了這個良性循環。AI現在已經達到了一個良性循環。所以,你越多地使用它,因為AI很智能並且我們願意付費,就能產生越多的利潤。產生的利潤越多,投入到電網中的計算資源就越多,投入到AI工廠中的計算就越多,AI就能變得越智能,越多的人使用它,越多的應用使用它,我們能解決的問題就越多。這個良性循環現在開始運轉了。我們需要做的是大幅降低成本,以便第一讓使用者體驗更好,當你提示AI時,它響應你的速度要快得多;第二,這樣我們就能通過驅動成本下降來保持這個良性循環繼續,這樣它就能變得更聰明,這樣就有更多人使用它,如此循環下去,這個良性循環現在正在加速。但是當摩爾定律真的達到極限時,我們該怎麼做呢?答案叫做協同設計。你不能只設計晶片,然後指望運行在上面的東西會更快。在設計晶片方面,你能做的最好就是每隔幾年增加可能50%的電晶體。如果你增加了更多電晶體,或者只是不斷增加更多電晶體,但那都是百分比增長,不是指數增長。我們需要復合指數增長來保持這個良性循環繼續,我們稱之為極端協同設計。輝達是當今世界上唯一一家真正從一張白紙開始,能夠同時思考新的基礎架構、電腦架構、新晶片、新系統、新軟體、新模型架構和新應用的公司。在座的許多人之所以在這裡,是因為你們是這個堆疊不同層面的一部分。通過與輝達合作,我們從根本上重新設計了從底層到頂層的一切。然後,因為AI是一個如此龐大的問題,我們將其規模化。我們首次建立了一台電腦,這台電腦已經擴展成整個機架。那是一台電腦,一個GPU,然後我們通過發明一種新的AI乙太網路技術(我們稱之為Spectrum-X Ethernet)將其橫向擴展。每個人都會說乙太網路就是乙太網路。而Spectrum-X乙太網路是為AI性能而設計的,這就是它如此成功的原因。即使那樣也還不夠大。我們會用AI超級電腦和GPU填滿整個房間。那仍然不夠大,因為AI的應用數量和使用者數量持續呈指數級增長,我們將多個這樣的資料中心連接在一起,我們稱之為跨規模擴展,使用Spectrum-X GS,千兆規模X,Spectrum-X Gigascale XGS。通過這樣做,我們在如此巨大的層面上進行協同設計,如此極端的層面,以至於性能提升是驚人的。不是每一代提升50%,不是每一代提升25%,而是多得多。這是我們製造過的最極端的協同設計電腦,坦白說,自IBM System 360以來,在現代時期,我認為從未有過像這樣從頭開始、徹底重新發明的電腦。建立這個系統極其困難。我稍後會向你們展示其好處。但本質上我們所做的,我們創造了NVLink 72,如果我們要建立一個巨大的晶片,一個巨大的GPU,它看起來會是這樣。這是我們必須要做的晶圓級處理的水平,是不可思議的。所有這些,所有這些晶片現在都被放入一個巨大的機架,這個巨大的機架使所有這些晶片作為一個整體協同工作。這看上去完全不可思議。(現場演示環節)不管怎樣,我們基本上,過去我們創造的是這個。這是NVLinks,NVLink 8。現在這些模型如此巨大,我們解決的方法是把這個模型,這個巨大的模型,變成一大堆專家,有點像團隊。所以這些專家擅長某些類型的問題,我們把一大堆專家聚集在一起。所以這個巨大的數萬億美元AI模型有所有這些不同的專家,我們把所有這些不同的專家放在GPU上。現在是NVLink 72。我們可以把所有的晶片放入一個巨大的交換網路中,每個專家都可以相互交談。所以主專家、主要專家可以與所有下屬專家交談,以及所有必要的上下文、提示和我們必鬚髮送給所有專家的大量資料。專家們,無論哪個專家被選中來解答問題,我們會更多地嘗試響應,然後它會一層接一層地去做,有時八層,有時十六層。有時這些專家,有時六十四個,有時兩百五十六個。但關鍵是專家越來越多。那麼,這裡,NVLink 72,我們有72個GPU。正因為如此,我們可以在一個GPU裡放四個專家。你需要為每個GPU做的最重要的事情是生成Token,這取決於你的HBM記憶體的頻寬量。我們有一個H100 GPU為四個專家生成“思考”。而在這裡,因為每台電腦只能放八個GPU,我們必須把三十二個專家放進一個GPU。所以這個GPU要為一個專家進行三十二次“思考”。對比這個系統,每個GPU只為一個專家進行四次“思考”。正因為如此,速度差異是驚人的。這個剛剛出來,是由SemiAnalysis進行的基準測試。他們做了非常徹底的工作,他們對所有可進行基準測試的GPU進行了基準測試。結果發現並沒有那麼多。如果你看看GPU列表,實際上可以基準測試的GPU大概90%是輝達。好吧。但是,所以我們是在和自己比較,但世界上第二好的GPU是H200,運行所有工作負載。Grace Blackwell每個GPU的性能是H200的10倍。當你只增加了兩倍的電晶體時,如何獲得10倍的性能?答案是極端協同設計。通過理解未來AI模型的性質,並且我們在整個堆疊上進行思考,我們可以為未來建立架構。這是件大事。這意味著我們現在可以更快地響應。但接下來是更大的事。這張圖片顯示世界上成本最低的Token是由Grace Blackwell NVLink 72生成的,這是最昂貴的電腦。一方面,GB200是最昂貴的電腦。另一方面,它的Token生成能力如此強大,以至於它以最低的成本生產Token。因為每秒Token數除以Grace Blackwell的總擁有成本是如此之好,以至於它是生成Token成本最低的方式。通過這樣做,提供驚人的性能,10倍的性能提升,並提供10倍的低成本,以此讓良性循環可以繼續。不管怎樣,有兩個平台轉型正在同時發生。一個平台轉型是從通用計算轉向加速計算。記住,加速計算,正如我之前向你們提到的,它進行資料處理、圖像處理、電腦圖形學,它進行各種計算。它運行SQL,運行Spark,不管你需要什麼,我相當確定我們有一個很棒的庫能夠給你。你可能是一個試圖製造掩範本來生產半導體的資料中心。我們有一個很棒的庫給你。所以,在底層, irrespective of AI,世界正在從通用計算轉向加速計算,這與AI無關。事實上,許多CSP在AI出現之前早就有了服務。記住,它們誕生於機器學習時代,經典的機器學習演算法,如XGBoost,用於推薦系統、協同過濾、內容過濾的演算法,像資料幀這樣的演算法,所有這些技術都是在通用計算的時代建立的。即使是那些演算法,即使是那些架構,現在通過加速計算也變得更好。所以,即使沒有AI,世界的CSP也將投資於加速。而我們的GPU是唯一能完成所有這些事情的GPU。而ASIC可能能做AI,但它不能做任何其他事情。輝達能完成所有那些。這就解釋了為什麼僅僅依賴輝達的架構是如此安全。我們現在已經達到了我們的良性循環,達到了我們的拐點。這相當不尋常。我有很多合作夥伴在座,你們所有人都是我們供應鏈的一部分,我知道你們工作得多麼努力。我想感謝你們所有人,感謝你們如此努力地工作。非常感謝。現在我要向你們展示原因。這是我們公司業務正在發生的情況。我們看到Grace Blackwell的增長非常驚人,原因正如我剛才提到的。它是由兩個指數驅動的。我們現在能見度很高,我想我們可能是歷史上第一家能看到截至2026年累計5000億美元Blackwell訂單和早期Ruben(下一代平台)訂單的技術公司。如您所知,2025年還沒結束,2026年還沒開始。這是已經預訂的業務量,價值5000億美元。到目前為止,我們已經出貨了600萬個Blackwell GPU…在最初幾個季度,我想,是頭四個生產季度或三個半生產季度。2025年我們還有一個季度要完成。然後我們還有四個季度。所以接下來五個季度,要完成5000億美元,那是五倍的增長速度。這某種程度上告訴了你一些事情。這是上一代的Hopper的整個生命週期的數額。還不包括中國和亞洲市場。所以Hopper在其整個生命週期中是400萬個GPU。每個Blackwell模組裡面有2個GPU,是一個大封裝。Blackwell在早期階段就有2000萬個GPU,增長非常驚人。所以我想感謝我們所有的供應鏈合作夥伴,各位。我知道你們工作得多麼努力。我製作了一個視訊來慶祝你們的工作。讓我們播放它。(播放一段關於美國製造業的視訊)我們再次在美國進行製造,這太不可思議了。川普總統之前講的第一件事就是讓製造業回歸,因為這對國家安全是必要的。讓製造業回歸,因為我們想要那些工作崗位。我們想要那部分經濟。九個月後,我們現在在亞利桑那州全面生產Blackwell。Extreme Blackwell,GB200 NV Grace,Blackwell NVLink 72。極端協同設計給我們帶來了10倍的代際提升。這完全不可思議。現在,真正不可思議的部分是,這是我們製造的第一台AI超級電腦。這是在2016年,我把它交付給舊金山的一家初創公司,這家公司後來被證明是OpenAI。這就是那台電腦。而為了製造那台電腦,我們設計了一款新晶片以便我們進行協同設計。現在我們必須設計的所有晶片。這就是目前所需要的。你不可能拿一個晶片就讓電腦快10倍。那不會發生。讓電腦快10倍的方法,讓我們能夠持續指數級提升性能、持續指數級驅動成本下降的方法,就是極端協同設計,同時研發所有這些不同的晶片。我們現在已經有了下一代的Ruben晶片。這是我們的第三代NVLink 72機架規模電腦。GB200是第一代。我們在世界各地的所有合作夥伴,我知道我聽說你們工作有多努力。第一代做得非常艱難,第二代順暢多了。而這一代,看這個(現場展示),對我們來說真的不算什麼了。這些現在都在實驗室裡了。這是下一代Ruby。在我們發貨的同時,我們正在準備投入生產,你知道,大概明年這個時候,甚至可能稍早一點。所以每一年,我們都會推出最極端的協同設計系統,這樣我們就能持續提升性能,持續降低Token生成成本。看看這個,這非常漂亮。所以這太神奇了。(接下來是現場展示和介紹,包括Vera Rubic計算托盤、BlueField、NVLink交換機等)現在,如你所注意到的,輝達最初從設計晶片開始,然後我們開始設計系統,我們設計AI超級電腦。現在我們正在設計整個AI工廠。每次我們向外擴展並整合更多需要解決的問題,我們就能提出更好的解決方案。我們現在建造整個AI工廠。這個AI工廠是我們為Vera Ruben建造的,我們建立了一種技術,使我們所有的合作夥伴能夠數位化地整合到這個工廠中。讓我展示給你們看。(現場播放一段相關視訊)完全數位化。遠在Vera Ruben作為實體存在之前,遠在這些AI工廠存在之前。我們就最佳化它,並將它作為數字孿生來營運。所以所有與我們合作的合作夥伴,很高興你們所有人都支援我們。我們一起建造AI工廠。再來,讓我們談談模型,開源模型。在過去的幾年裡,發生了幾件事。一個是開源模型,由於推理能力相當強大,例如Stability AI,這些不同的能力使得開源模型首次對開發者來說非常有用,它們現在是初創公司的命脈。每個行業都有其自己的用例,不同行業的初創公司需要讓那個領域專業知識能夠嵌入到一個模型中。開源使之成為可能。研究人員需要開源,開發者需要開源。世界各地的公司,我們需要開源模型,這非常重要。美國也必須在開源方面領先。我們有驚人的專有模型,但我們還需要驚人的開源模型。我們的國家依賴於此,我們的初創公司依賴於此,所以輝達正致力於去做這件事。我們現在是開源貢獻的最大領導者。我們有23個模型在排行榜上。我們有所有這些不同的領域,從語言模型到物理AI模型再到生物學模型。每個模型都有龐大的團隊。這就是我們為自己建構超級電腦的原因之一,以促成所有這些模型的建立。我們有排名第一的語音模型,排名第一的推理模型,排名第一的物理AI模型。下載量非常可觀。我們致力於此。原因是科學需要它,研究人員需要它,初創公司需要它。我很高興AI初創公司基於輝達建構。他們這樣做有幾個原因。當然,我們的系統豐富。我們的工具運行良好。我們所有的工具都在我們所有的GPU上運行。我們的GPU無處不在,在每一個雲上都可用,你可以下載我們的軟體棧,然後它就能工作。我們擁有豐富的開發者生態系統的優勢,他們正在使這個生態系統更加豐富。所以我真的很高興與所有我們合作的初創公司建立關係。謝謝你們。同樣的情況是,許多這些初創公司現在開始創造更多的方式來利用我們的GPU,僱傭人員並擴展規模。Nibias、Lama、love、Lambda, 所有這些公司都很棒。所有我談到的CUDA-X庫。我告訴過你們關於如何開源AI,將我談到的所有模型貨幣化,我們整合到AWS中,我們整合到Google Cloud中……我們還將真實的庫整合到世界SaaS中,這樣每一個SaaS最終都將成為一個代理式SaaS。總有一天,我很想僱傭一個AI代理基本設計師,與我們的ACS合作,本質上是Synopsys的Cursor,如果你願意這麼說的話。我們與Anirudh Devgan、Cadence合作。今天早些時候,他是開場秀的一部分,Cadence在做不可思議的工作,加速他們的堆疊以建立AI代理,這樣我們就能擁有Cadence AI、AC設計師和系統設計師工作。今天,我們宣佈一個新的合作。AI將極大提高生產力。AI將改變幾乎每一個行業。但AI也將極大地加劇大型網路安全挑戰,那些壞AI。所以,我們需要一個不可思議的防禦者。我無法想像有比CrowdStrike更好的防禦者了。George Voltage在這裡。他剛才在這裡。是的,我早些時候看到他了。我們正在與CrowdStrike合作,使網路安全達到光速。建立一個在雲中擁有網路安全AI代理的系統,同時也在本地或邊緣擁有真正優秀的AI代理。這樣,無論何時出現威脅,你都能在瞬間檢測到它。我們需要速度,我們需要快速的代理式AI,超級智能的代理。然後,還有一個發佈要宣佈。這是世界上增長速度最快、最有價值的企業,可能是當今世界上最重要的企業堆疊——Palantir。他們獲取資訊,獲取資料,獲取人類判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir所做的一切,這樣我們就能以更大的規模和更快的速度進行資料處理。無論是過去的結構化資料,還是非結構化資料。然後,我們會為我們的政府處理這些資料,為了國家安全,也為世界各地的企業。以光速處理這些資料,並從中發現洞察。這就是未來的樣子。Palantir將整合輝達技術,以便我們能夠以光速處理資料。接下來,讓我們談談物理AI吧。物理AI需要三台電腦,就像訓練一個語言模型需要兩台電腦一樣:一台訓練它,一台評估和推理。好吧,所以那就是你看到的大型GB200。為了給物理AI做這件事,你需要三台電腦。你需要電腦來訓練它。這是GB,Grace Blackwell NVLink 72,是進行所有我早先向你們展示的模擬的電腦,使用Omniverse DSX。那基本上是一個大窗口,讓機器人學習如何成為一個好機器人,讓工廠本質上成為一個數字工具。(現場展示)這台電腦必須非常擅長生成式AI,並且必須擅長電腦圖形學、感測器模擬、光線追蹤、訊號處理。這台電腦,它叫做Omniverse電腦。一旦我們訓練了模型,在數字孿生中模擬那個AI,那個數字孿生可以是一個工廠的數字孿生,也可以是一大堆機器人的數字孿生,然後你需要操作那個機器人。而這是機器人電腦。這個進入自動駕駛汽車。它的一半可以進入一個機器人。好吧?或者你實際上可以有,你知道,相當敏捷和快速操作的機器人。它可能需要兩個這樣的電腦。這三台電腦都運行CUDA。這使得我們能夠推進物理AI,讓AI理解物理世界,理解物理定律、因果關係、持久性。我們有令人難以置信的合作夥伴與我們一起建立工廠的物理AI。我們自己也在使用它在德克薩斯州建立我們的工廠。現在一旦我們建立了機器人工廠,裡面有一堆機器人,而這些機器人也需要物理AI,應用物理AI並在可視化孿生中工作。讓我們看看美國的再工業化。在德克薩斯州的休斯頓,富士康正在建設一個最先進的機器人設施,用於製造輝達AI基礎設施系統。面對勞動力短缺和技能差距,數位化、機器人技術和物理AI比以往任何時候都更加重要。工廠在Omniverse中以數字方式誕生。富士康工程師在基於Omniverse技術的西門子數字孿生解決方案中組裝他們的虛擬工廠。每個系統,機械、電氣、管道,都在施工前經過驗證。西門子Plant Simulation運行設計空間探索最佳化,以確定理想的佈局。當出現瓶頸時,工程師使用由西門子TeamCenter管理的更改來更新佈局。在Isaac Sim中,相同的數字孿生用於訓練和模擬機器人AI。在裝配區,發那科機械手建構GB300托盤模組。由FII的靈巧機械手和熟練的AI將母線排安裝到托盤中。AMR(自主移動機器人)將托盤運送到測試艙。富士康使用Omniverse進行大規模感測器模擬,機器人AI在其中學習作為車隊協同工作。在Omniverse中,基於輝達Metropolis和Cosmos建構的視覺AI智能體從上方監視機器人車隊和工人以監控操作,並在出現異常、安全違規甚至人與機器人協同工作。這就是製造業的未來,工廠的未來。我想感謝我們的合作夥伴富士康,他們的CEO就在這裡。所有這些生態系統合作夥伴使得我們建立機器人工廠成為可能。你知道,完成這項工作所需的軟體量如此巨大,除非你能在數字孿生中完成,在這個星球上設計它,在數字孿生中操作它,否則讓這個正常工作的希望很渺茫。我也非常高興地看到,Caterpillar,我的朋友Joe Creed和他有百年歷史的公司也正在將數字孿生融入他們製造這些工廠的方式中。我們將擁有未來的機器人系統。而最先進的系統之一是Figure。Brett Abcock今天在這裡,他剛在三年前創立了一家公司。他們今天價值近400億美元。我們正在一起合作訓練AI,、訓練機器人、模擬機器人,當然,還有進入Figure的機器人電腦。真的很驚人。我有幸看到了它。它真的非常了不起。還有我的朋友馬斯克也在研究人形機器人,這很可能將成為最大的新型消費電子市場之一,並且肯定也是最大的工業裝置市場之一。Peggy Johnson,Agility的同事們正在與我們合作,是關於倉庫自動化機器人的。Johnson & Johnson的同事們再次與我們合作,訓練機器人,在數字孿生中模擬以及操作機器人。這些Johnson & Johnson的手術機器人甚至將執行完全現代的非侵入性手術,其精度將是世界前所未見的。當然,還有最可愛的機器人,迪士尼機器人。這個真的非常貼近我們的心。我們正與迪士尼研究部門合作,基於一項革命性的技術,開發一個全新的框架和模擬平台,使得機器人能夠在一個物理上準確、基於物理的環境裡學習如何成為一個好機器人。讓我們看看它。(現場播放了一段機器人相關視訊)現在,記住,你剛剛看到的一切…那不是動畫,不是電影,是模擬。那個模擬是在Omniverse中實現的,是數字孿生。所以這些工廠的數字孿生、倉庫的數字孿生、手術室的數字孿生,他們學習如何操作和導航、與世界互動的數字孿生,而且全部都是即時完成的。這將成為世界上最大的消費電子產品線,這是人形機器人的未來,當然,現在人形機器人仍在開發中。但與此同時,有一種機器人顯然正處於拐點,並且基本上已經到來,那就是輪式機器人。機器人計程車本質上是一個AI司機。現在我們今天要做的一件事是,發佈輝達Drive Hyperion。這是件大事!我們建立了這個架構,以便世界上每家汽車公司都能製造汽車。車輛可以是商用的,可以是乘用的,可以專用於機器人計程車。製造作為機器人計程車的車輛。本質上,3個環繞攝影機和雷達、雷射雷達使我們能夠實現最高水平的環繞繭式感測器感知和冗餘,這是最高安全等級所必需的。Drive Hyperion現在已被梅賽德斯-奔馳等採用了,未來還有許多其他汽車企業會採用。(現場播放了一段機器人自動駕駛相關視訊)好吧,所以這就是我們今天討論的內容。我們討論了大量的事情,核心是兩個平台轉型,從通用計算轉向加速計算,以及輝達CUDA。而那套名為CUDA-X的庫使我們能夠涉足幾乎每個行業,並且我們正處在拐點上。它現在正在增長,正如良性循環所預示的那樣,第二個拐點現在正降臨到我們身上。第二個平台轉型,AI,從經典的手寫軟體轉向人工智慧。兩個平台轉型同時發生,這就是為什麼我們感受到了如此驚人的增長。我們談到了量子計算、開源模型。在企業方面,我們與CrowdStrike和Palantir合作,加速他們的平台。我們談到了機器人技術,它即將成為最大的消費電子和工業製造領域之一。當然,我們還談到了6G,輝達為6G提供了新平台。我們稱之為Arc。我們為機器人汽車提供了新平台,我們稱之為Hyperion。我們甚至為工廠提供了新平台,兩種類型的工廠:AI工廠,我們稱之為DSX。然後是應用AI的工廠,我們稱之為Mega。所以現在我們也在美國進行製造。女士們先生們,感謝你們今天蒞臨,感謝你們允許我將GTC帶到華盛頓特區。我們希望每年都能在這裡舉辦。感謝你們所有人,讓美國再次偉大。謝謝! (Barrons巴倫)
OpenAI公佈超級智能路線圖:模型明年有望重大飛躍,2028年實現全自動AI研究員,基建投資承諾1.4兆
OpenAI設定兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年AI研究員可自主完成大型研究項目。Altman指出,到2028年科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。截至目前OpenAI已承諾建設總計超過30GW基礎設施,對應未來數年內總計約1.4兆美元投資。Altman強調,1.4兆美元只是起點,正討論更宏大願景。預計未來六個月內模型能力將有巨大飛躍。美東時間28日周二,OpenAI宣佈公司重組完成後,CEO Sam Altman和首席科學家Jakub Pachocki通過一小時直播首次公開了實現超級智能的具體時間表。公司已承諾在資料中心基礎設施上投入約1.4兆美元,對應約30吉瓦的算力容量,並計畫建立每周新增1吉瓦算力的"基礎設施工廠"。Jakub Pachocki在直播中表示,深度學習可能在不到十年內將人類帶入超級智能時代。OpenAI設定了兩個關鍵節點:2026年9月實現AI研究實習生,能夠通過消耗大量計算資源有效加速內部研究;2028年3月實現全自動AI研究員,可自主完成大型研究項目。Sam Altman強調,為支撐這一時間表,OpenAI正從AI助手轉型為平台服務商,目標是讓外部開發者在其平台上創造的價值超過OpenAI自身創造的價值。他表示,公司最終需要達到數千億美元年收入以支撐基建投資,企業服務和消費者業務都將是重要收入來源,IPO是最可能的融資路徑。OpenAI 的內部模型目前尚未遠超已發佈的版本,但對在2026年9月前實現重大飛躍非常樂觀。預計到2026年9月,極有可能見證模型質量的巨大飛躍。此外,預計未來數月乃至數年內還會有重大進展。OpenAI並未給出發佈GPT-6的具體時間表,但表示產品發佈的節奏將不再與研究計畫嚴格繫結。例如 GPT-5 首次將推理模型作為旗艦產品推出,這本身就是一個重大的整合性工作。但可以確定,未來六個月內、甚至更早,模型能力將有巨大飛躍。此次直播圍繞研究、產品和基礎設施三大支柱展開,披露了OpenAI對AGI發展路徑、安全框架和商業模式的最新思考。公司同時公佈了新的組織架構,由非營利性質的OpenAI基金會控制公共利益公司OpenAI集團,前者初期持有後者約26%股權。超級智能時間表:從研究實習生到全自動研究員Jakub Pachocki詳細闡述了OpenAI的研究路線圖,核心聚焦於深度學習的規模化訓練。他指出,AGI這個詞可能低估了技術進步的潛在規模,OpenAI內部相信距離實現超級智能——在眾多關鍵維度上超越所有人類的系統——可能已不足十年。OpenAI使用"任務時間跨度"來衡量模型能力進展,即模型完成任務所需時間與人類專家的對比。當前一代模型的水平約為5小時,可從其在國際數學或資訊學奧林匹克競賽中與頂尖選手相媲美的表現看出。Jakub表示,這個時間跨度將繼續快速延伸,不僅源於演算法創新,也來自"上下文計算"或"測試時計算"等新維度的規模化。基於這些預期,OpenAI設定了明確的內部目標。2026年9月前,開發出能力足夠強的AI研究實習生,能夠通過消耗大量計算資源有意義地加速內部研究人員工作。更長遠的目標是在2028年3月前,開發出能夠自主完成大型研究項目的全自動AI研究員。Jakub強調,整個研究計畫圍繞一個核心展開:加速科學發現和新技術發展,這將從根本上改變人類技術進步的速度。Sam Altman在問答環節中補充,AGI的到來將是一個持續數年的過渡過程,而非單一時間點。他特別指出2028年這個節點,屆時科學研究將完全由AI自動化,AI系統將能夠推動科學前沿發展。關於內部模型進展,他表示並未雪藏某個極其強大的模型,但有許多已開發的技術元件,當這些元件組合在一起時將帶來巨大能力飛躍,預計未來六個月內模型能力將有顯著提升。五層安全框架:從價值對齊到系統性保障隨著系統能力向超級智能邁進,Jakub Pachocki提出了一個將安全問題結構化的五層框架,從模型最核心的內部因素延伸到最外部的系統保障。最核心的是價值對齊,關乎AI最根本"關心"的是什麼。Jakub解釋,當系統變得極其聰明、思考時間極長、處理的問題超越人類能力極限時,給出完全無懈可擊的指令會變得異常困難,因此必須依賴更深層次的對齊。第二層是目標對齊,關注AI如何與人互動以及遵循指令的表現。第三層是可靠性,即AI能否精準校準預測、在簡單任務上保持可靠並在困難任務上表達不確定性。第四層是對抗性魯棒性,側重於AI能否抵禦來自人類或其他AI對手的蓄意攻擊。最外層是系統性安全,包括系統安全性、AI可訪問的資料範圍、可使用的裝置等外部限制。Jakub特別介紹了一項名為"思維鏈忠實度"的研究方向。這項可解釋性技術的核心思想是,在訓練過程中刻意讓模型內部推理的某些部分不受監督,從而讓這部分推理過程能夠更忠實地反映模型真實所思所想。他表示,經驗性結果非常理想,OpenAI內部大量使用該技術來理解模型訓練過程中的演變,並與外部合作者成功用它研究模型的欺騙傾向。這項技術具有可擴展性,但也很脆弱,要求在演算法和產品設計中劃定清晰界限。例如,ChatGPT中對思維鏈進行總結的功能,就是為了避免將完整思維鏈直接暴露給使用者。Jakub解釋,如果思維鏈完全可見,它就會成為使用者體驗的一部分,久而久之就很難再對其保持無監督狀態。基建擴張計畫:向兆美元級算力投資邁進Altman以前所未有的透明度公開了OpenAI的基礎設施建設計畫。Altman周二表示,截至目前OpenAI已承諾建設總計超過30吉瓦(GW)的基礎設施,對應未來數年內總計約1.4兆美元投資。這些承諾基於OpenAI目前對收入增長和融資能力的評估。這一投資涉及眾多合作夥伴,包括AMD、博通、Google、微軟、輝達、甲骨文、軟銀等晶片、資料中心、能源和製造領域的公司。Altman強調,1.4兆美元只是起點,OpenAI正在積極討論更宏大的願景。Altman表示,OpenAI的願景是建立一個基礎設施工廠,能夠以每周1GW的速度創造算力,同時將成本大幅降低,目標是在裝置的5年生命周期內,將每GW成本降至約200億美元。他承認,實現這一願景需要海量創新、更深入的合作、巨大的收入增長,甚至需要重新調整OpenAI在機器人領域的思路,讓機器人幫助建設資料中心。Altman在問答環節中指出,要支撐1.4兆美元的投資,公司年收入最終需要達到數千億美元,"我們正處在通往這一目標的陡峭增長曲線上"。他預計企業服務將是重要收入驅動力,但也看到了從消費者獲取收入的方式,不僅限於月度付費訂閱,還包括新產品和裝置等。關於IPO計畫,Altman表示,考慮到公司巨大的資本需求和規模,IPO是最可能的路徑,但目前沒有具體計畫或時間表。"考慮到我們的資本需求以及公司規模,可以說這對我們而言是最可能的路徑,"他說。平台化轉型:從超級助手到AI雲生態Sam Altman闡述了OpenAI在產品層面的戰略演進。他表示,過去OpenAI的產品形態主要是以ChatGPT為代表的AI超級助手,現在正朝著更宏大的目標演進——成為一個平台,一個其他人可以在其上建構應用和服務的"AI雲"。Altman引用比爾·蓋茲的觀點定義平台成功:當其他人基於平台創造的價值超過平台建構者自身創造的價值時,平台就成功了。這正是OpenAI明年的目標。他表示,憑藉現有的技術、使用者基礎和框架,OpenAI能夠推動全世界在其平台上建立出驚人的新公司、服務和應用。為實現平台化轉型,Altman強調了兩個基礎原則。首先是使用者自由,如果OpenAI要成為供全世界不同人群使用的平台,就必須承認人們有截然不同的需求。雖然會有一些寬泛的邊界,但OpenAI希望使用者在使用AI時擁有大量控制權和定製化能力。他多次重申"像對待成年人一樣對待成年使用者"的原則,承諾隨著年齡驗證等機制完善,將給予成年使用者更大的自由度,尤其在創作等領域會大幅放寬限制。其次是隱私保護。Altman指出,隨著AI成為基礎平台,人們與AI的互動方式非常私密,會像對醫生、律師或配偶一樣與之交談,分享生活中最隱秘的細節,因此需要以不同於以往技術的方式思考隱私問題。在產品規劃上,OpenAI描繪了一個層級架構:底層是晶片、機架、資料中心和能源等硬體基礎;中間層在硬體之上訓練模型並建構帳戶體系;應用層推出了名為Atlas的瀏覽器,並計畫未來幾年推出硬體裝置;最令人興奮的是頂層的生態系統,人們將利用OpenAI的API、ChatGPT內的應用、企業平台和帳戶建構服務。新公司架構與基金會使命為支援上述計畫並確保服務於核心使命,OpenAI對公司架構進行了重大調整。新架構由兩部分組成:頂端是非營利性質的OpenAI基金會,擁有對公司的最終控制權,董事會隸屬於基金會;基金會之下是公共利益公司OpenAI集團。基金會將掌控OpenAI集團,初期持有其約26%股權,如果公司表現出色這一比例未來還可能增加。Altman表示,基金會的目標是成為有史以來最大的非營利組織,利用其資源追求AI帶來的最大化社會福祉。OpenAI集團將更像普通公司一樣運作,以便吸引研究所需的龐大資源,但依然受到與基金會相同的使命約束,尤其在安全問題上必須以使命為唯一準則。基金會公佈了兩個初步重點方向。首先是投入250億美元利用AI幫助治癒疾病,資金將用於生成資料、提供計算資源、資助科學家等。其次是AI韌性,這是一個比傳統AI安全更廣泛的概念。聯合創始人Wojciech Zaremba解釋,先進AI的到來必然伴隨風險和顛覆,AI韌性的目標是建立一個由眾多組織構成的生態系統共同解決這些問題。他用網路安全行業發展類比:網際網路早期人們不敢線上輸入信用卡號,而現在龐大的網路安全產業保護著關鍵基礎設施,使人們願意將最私密資料放線上上。同樣,AI領域也需要一個"AI韌性層",OpenAI基金會將幫助催生這樣一個生態系統。以生物風險為例,韌性不僅包括在模型層面阻止病毒學相關查詢,還包括建立快速響應機制,以便在問題發生時有效應對。 (invest wallstreet)
400億收購! BlackRock就這樣震驚整個金融圈......
又一筆400億美元併購落錘!交易規模不基礎,主角團更是不基礎由貝萊德、輝達、xAI、微軟四位頂流組成的跨界投資財團這不是「強強」聯手而是「強強強強」聯手一個字形容👇01. 世紀大聯盟怒砸400億,掀翻交易規模天花板一周前,全球資管巨頭BlackRock攜手科技頂流輝達、微軟、xAI共同成立的投資財團AIP宣佈以400億美元收購麥格理資產管理旗下的資料中心巨頭Aligned Data Centers。cr.CNBC這是以貝萊德牽頭的AI聯盟的首次出手,並且一舉創下了有史以來規模最大的資料中心交易紀錄。這世紀併購的主角,到底是誰?AIP,全名為Artificial Intelligence Infrastructure Partnership-人工智慧基礎設施投資聯盟,由貝萊德於2024年發起,聯合了科技巨頭微軟、晶片巨頭輝達、馬斯克的AI創業公司xAI、阿布達比MGX,出資方成員還有科威特主權基金(科威特投資局KIA)和新加坡淡馬錫等。cr.BlackRock而AIP組織的投資目標是擴展AI基礎設施的容量,並推動建構以AI為核心的未來經濟成長模式。這筆交易遠非單純的資產買賣,背後隱藏著一個「神仙陣容」的戰略合作。投資手法:BlackRock貝萊德去年收購了全球基礎設施合作夥伴公司(GIP),而此次收購買方正是由GIP主導。作為全球最大的資產管理公司,貝萊德親自參與,釋放的訊號再明確不過:AI基礎設施已成為與能源、交通同等重要的核心資產類別。BlackRock CEO兼AIP董事長Larry Fink表示:資料中心是基礎設施的重要支柱,這次投資不僅為AI未來發展提供了必要的基礎設施,還能讓客戶共享AI帶來的發展紅利。技術大腦:輝達作為AI晶片絕對王者般的存在,輝達參與收購資料中心營運商的動機在於確保AI算力基礎設施的發展速度不拖其晶片銷售的後腿。雲端架構師:微軟微軟不僅是投資者,更是最大的使用者。作為雲端服務領域的領導者,微軟對算力的需求就如同汽車離不開汽油。微軟的Azure雲服務將Aligned資料中心納入其全球網路,擴展了雲端運算的能力。投資Aligned,等同於提前掌握未來AI發展的“能源基地”,為自家AI服務(如Copilot)提供持續不斷的動力支援。創新技術總監:xAI馬斯克旗下的xAI雖然規模最小,加入聯盟的時間也稍晚於上面幾家,但論AI,沒有人比它更專業。作為一家專注於人工智慧研發的公司,其對高效能運算和資料中心的需求直接推動了這項投資。可以說也是此次收購的AI技術代表。我們再把目光切換到賣方,如此頂尖的投資聯盟,為什麼非得花400億美元收購一個資料中心?先來看看所謂的Data Center資料中心營運商到底是幹什麼的。資料中心就是用來放伺服器的地方,像我們用的雲服務(例如阿里雲、AWS)都需要用這些設施來儲存資料、運作程式。這類公司的特點是:靈活擴展:當客戶需要更多伺服器時,他們可以快速增加容量。節能環保:用高科技(如冷卻技術)減少電力消耗,保護環境。服務客戶:主要客戶是雲端運算公司(像AWS、Azure)和需要大量運算能力的大公司(如金融、AI公司)。資料中心,恰恰是AI運轉的根基。在所有人追逐演算法時,BlackRock選擇了電力,這也是貝萊德作為投資巨頭的敏銳意識:真正可預測的回報,來自世界最慢的一部分。麥格理資產管理公司旗下的Aligned 就是一家專門建造和管理資料中心的代表型企業。cr.Aligned掌握著AI時代最為稀缺的“硬通貨”,在美洲擁有50個園區和78個資料中心,總電力容量超過5吉瓦。 5吉瓦是什麼概念?相當於約500萬戶家庭的用電量。在AI算力高度依賴電力的今天,能夠提供充足電力和空間的企業,才真正擁有話語權。AI伺服器功率強大,散熱需求極高,傳統冷卻方式已無法滿足。Aligned的專利液冷技術DeltaFlow™,能夠有效率地解決高密度計算的散熱問題。這項技術就像為高速運轉的AI大腦貼上了“冰敷貼”,確保其全天候穩定高效運行。Aligned的客戶裡有微軟、亞馬遜這些超大規模的雲端服務商。跟著這些大客戶長期合作,不僅能帶來穩定的現金流,還能建立起很高的產業壁壘。投資Aligned,其實就是直接押注AI領域最頂尖的需求方。02. AI基建,早就被BlackRock盯上了BlackRock堪稱業內探索AI的先鋒,2018年就成立了BlackRock AI Lab,專注於透過AI技術改善財務狀況,並將統計學、ML、最佳化、隨機控制和決策理論的專業知識,應用於解決包括retirement、trading、另類投資和ETF等領域問題。cr.BlackRock今年6月,貝萊德推出一款名為「Asimov」的AI研究平台,並已在股票基本面部門投入使。COO Rob Goldstein表示Asimov就像一個“虛擬投資分析師”,並且可以不間斷工作。cr.investing它能夠審查研究報告、公司檔案和電子郵件等大量資訊,從而產生有助於投資組合建構的洞察,並有望在兩年後的投資者日,實現全公司內部的全面推廣使用。和其他金融公司提出的「AI取代分析師」論調不同,Goldstein表示,這次全面推廣AI工具的目標是擴大團隊,增強招募力度,而人工智慧平台將增強BlackRock人力工作的能力,而不是取代他們。而在BlackRock 9月底發表的最新一季資產配置展望報告中,也間接預告了此次對於AI基建領域的投資。報告中明確提出在當前的全球環境中,長期的宏觀錨點已經不存在了,但以AI為代表的超級趨勢(Mega forces)正在成為全球經濟成長的新錨點,仍有能力帶來持久的超額迴。這背後的關鍵支撐正是企業在AI相關基礎設施上的強勁投資。cr.BlackRock Global Outlook 2025Q4貝萊德每季都會公佈資產配置展望報告,其中不僅提供了全球市場的全面分析,還展示了專業投行如何透過資料、情境分析和資產配置策略應對複雜的市場環境。對於還在準備投行面試的同學來說是絕佳的培養market sense、理解Macro market知識、積累面試素材的機會。像上面提到的數據中心、AI基礎設施領域,看起來離大家很遠很“硬核”,但其實它的背後就是新崗位的誕生。如果說傳統技術崗位需要的技能是以實現功能為導向,例如熟練的汽車裝配工,按圖紙組裝零件即可。那麼AI 技術崗位對於能力的要求則更進一步,以解決複雜問題為導向,比如汽車智能係統整合師,既要懂機械原理,又要懂自動駕駛演算法如何與剎車系統聯動,甚至需要預判未來可能接入的車路協同數據介面。例如在AI基建這一領域下的幾種AI技術類新崗位👇演算法工程師Algorithm Engineer難度:★★負責開發與優化機器學習、深度學習模型資料清洗、標註模型訓練優化開發能同時處理文字、圖像、語音的融合型AI 系統建構預測模型,輔助企業決策通過數據分析挖掘業務價值資料工程師Data Engineer難度:★為AI 模型提供高品質的資料支援設計和實施數據採集、清洗、轉換和加載流程建構和維護資料倉庫、資料湖和資料平台開發ETL(提取、轉換、載入)流程和工具確保資料的品質、一致性和安全性優化資料處理流程,提升資料處理效率AI系統工程師AI Systems Engineer難度:★★設計、建構和維護AI 系統設計與實施AI 系統架構開發和優化AI 模型的部署和推理流程建構和維護AI 開發和生產環境實現模型的高效能計算和分佈式訓練優化AI 系統的效能、可擴充性和可靠性解決AI 系統運行中的技術問題AI硬體工程師AI Hardware Engineer難度:★★★設計與優化AI 專用硬體設計和開發AI 加速晶片和硬體架構優化AI 模型在特定硬體上的效能開發硬體加速庫和工具鏈研究及應用新興硬體技術,如量子計算、光子計算與軟體團隊協作,確保軟硬體協同優化參與AI 硬體產品的測試和驗證03. AI全面入侵高薪行業,留學生如何破局上岸?AI發展所帶來的新機會不可否認,但除了其帶來的正面影響,我們聽到了更多焦慮的聲音。無論是投入、諮詢或科技業,AI衝擊下,連續幾年的人員高速擴張的公司不少進入了業務瓶頸期,而冗餘的員工就成了巨大的成本包袱,再加上業務重組與組織架構調整,近段時間各個高薪行業的裁員消息屢見不鮮。華爾街、MBB、矽谷......各行各業在AI衝擊下求職門檻有何變化、留學生該如何突圍上岸?在WST的視頻號裡,或許能找到答案,WST創始人團隊以及各行各業不少資深行業導師詳細解讀了這個問題👇.....AI浪潮下,各行各業都在面臨轉型、變革,對於求職的留學生群體來說,想要在動蕩的環境中站穩腳跟,核心關鍵就是——做好長線規劃、提升個人競爭力。無論是那個行業,在硬實力上強勁的中國留學生想要突破競爭拿下Offer,就更需要關注相對薄弱的環節:軟實力。渣打銀行CEO Winters在訪談中被問到會給年輕人甚麼學習建議時,他坦言:本科時期學到的「如何思考」的能力,才是我之後40年職業生涯中最重要的財富。儘管這種能力在過去幾十年裡被逐漸削弱,但隨著AI的興起,它正在重新回歸職場核心。cr. Business InsiderWinters認為,在人工智慧迅速發展的時代,技術技能正逐漸被機器或全球其他地區的低成本高效技術人才或AI所取代。而真正有價值的,是作為人類獨有的軟技能,例如好奇心和同理心。你需要真正理解你的客戶和受眾,事先預判他們的需求,這種能力會比單純的技術更重要。他也提到,學習如何思考、如何有效溝通,才是未來職場不可或缺的核心技能。同樣,祖克柏Bloomberg的一次訪談中也提到,他認為最重要的技能是「學習如何批判性思考和學習價值觀」。這些聲音無一不是在告訴那些曾經認為學好硬技能就能高枕無憂的人:技術已經不是唯一核心競爭力,軟技能才是真正制勝的關鍵。中國留學生的硬技能從來不是短板,但許多中國留學生或家長,往往都一定程度上忽略了軟技能的重要性。為什麼很多中國學生在校成績很好、實習經驗也多、技術性的問題都會答,但就是總拿不到offer?很有可能就是在面試中,TA的溝通技能或是談吐表現不佳,讓面試官對你的個人發展力(包括但不限於溝通能力、領導力等等)持否定態度。因此在準備面試時,behavioral上也不能鬆懈,一方面要多去參加面試,另一方面要結合個人經歷和常見的面試題去做mock。 (WallStreet Tequila)
從「虛擬礦工」到AI基建主力:比特幣礦商的算力革命與資本博弈
一、資本估值邏輯的悄悄轉向2025年,全球資本市場見證了一場結構性裂變:比特幣價格與礦企股價之間長期以來的連動關係被徹底打破。比特幣年內上漲約14%,一度突破17萬美元創下歷史新高,然而,追蹤上市礦商的彭博指數卻飆漲超過150%。這現象絕非偶然,而是市場對礦企價值重估的明確訊號。以CleanSpark為例,其在宣佈進軍AI領域後,股價單日漲幅超過13%,年內累計漲幅達140%;Cipher Mining Inc.與IREN Ltd.的股價更是分別上漲約300%及500%。這種「股價脫鉤比特幣」的趨勢,標誌著礦企的估值邏輯已從「比特幣價格依賴」轉向「AI算力潛力驅動」。摩根大通分析師指出:“礦企正透過加大對AI基礎設施的投入,獲取更穩定且利潤更高的收入來源。市場開始將其視為AI算力供應商,而非單純的加密資產生產者。”二、從電力消耗者到算力提供者比特幣礦企轉向AI並非一時興起,而是多重因素共同作用的策略必然。獲利空間受擠壓。2024年的比特幣減半事件,將區塊獎勵從6.25 BTC削減至3.125 BTC,直接導致挖礦收入腰斬。同時,全網雜湊率攀升至1.129 ZH/s,挖礦難度高達146.72 T,競爭加劇推高營運成本。許多礦企先前依賴激進的債務發行維持擴張,財務壓力進一步放大。AI算力需求的爆發。在全球AI模型訓練與推理需求呈指數級增長的背景下,高效能運算(HPC)資源成為稀缺資產。據估計,全球AI算力缺口在未來三年內可能達到目前供給的兩倍以上。比特幣礦企憑藉其在電力、土地、冷卻系統和資料中心運作方面的積累,成為填補這一缺口的天然候選者。獲利模式的根本轉變。比特幣礦企獲利模式已向AI等多個方向悄悄轉變。三、礦企的四大核心優勢比特幣礦企在AI賽道上並非從零開始,其多年累積的底層能力構成轉型的堅實底座。電力資源與能源管理能力。礦企通常位於電力資源豐富、電價低廉的地區,並已獲得大量電力配額。在AI運算成為新一代「能源黑洞」的今天,這項優勢成為其最核心的競爭障礙。大規模計算營運經驗。從分散式運算叢集的部署,到7×24小時不間斷營運,礦商在硬體維護、故障排查、能源效率最佳化等方面累積了深厚經驗。 CleanSpark等公司建立的垂直整合模型,可直接遷移至AI資料中心管理。全球分散式基礎設施。礦商的設施多分佈於氣候涼爽、能源供應穩定的地區,如美國德州、挪威、加拿大等,這些地點同樣適合興建低PUE的AI資料中心。 Bitdeer在俄亥俄州改造的570兆瓦設施即為典型案例。高效能硬體部署能力。礦商熟悉GPU、ASIC等專用晶片的採購、部署與維護流程,與AI算力的硬體需求高度契合。 IREN透過發行可轉換票據籌集1億美元加速HPC擴張,顯示出資本市場對其硬體能力的認可。四、礦企的三種轉型策略面對AI浪潮,礦商依據自身資源與策略定位,選擇了不同的轉型路徑:全面轉向AI基礎設施。以CleanSpark為代表,其聘請前沙烏地阿拉伯AI資料中心專案負責人Jeffrey Thomas擔任AI業務資深副總裁,全面押注AI算力服務。這類企業旨在徹底​​擺脫對加密資產的依賴,成為純粹的算力供應商。混合業務模式。Bitdeer提出「AI與挖礦並存」的策略,其資本市場副總裁Jeff LaBerge表示:「AI/HPC是對挖礦的補充,而非替代。我們將以自營挖礦效率為主導,有選擇地將合格場地改造為AI設施。」該模式旨在實現收入多元化與風險分散。算力靈活調配模式。部分礦企探索在不同業務間動態分配算力的方式。大型礦企可在比特幣與AI任務間切換算力;中小礦企則嘗試將以太坊、Solana等區塊鏈業務與AI推理服務結合。 Hut 8透過子公司Highrise AI推出GPU即服務產品,並獲得Coatue Management的1.5億美元投資,正是這條路徑的體現。五、轉型路上的四重門儘管前景誘人,礦企的AI轉型之路仍佈滿荊棘。資金壓力與融資風險。AI資料中心建置與GPU採購需要巨額資本投入。 Bitfarms在2025年發行近9億美元可轉換票據,導致債務激增,引發市場對股權稀釋​​的擔憂,股價在五天內下跌40%。如何平衡融資結構與股東利益成為關鍵議題。技術架構與人才壁壘。比特幣挖礦與AI計算在軟體棧、網路架構與客戶需求上有顯著差異。礦企缺乏AI模型部署、調度系統開發與企業級服務經驗。 Core Scientific曾在2022年申請破產,其AI轉型也因技術整合困難而步履維艱。市場競爭與獲利挑戰。AI算力市場已有AWS、Google Cloud、CoreWeave等成熟玩家,礦企需在科技、顧客與人才層面與之競爭。 Bitfarms在2025年上半年營運虧損7,200萬美元,顯示出在激烈市場中獲利的難度。政策與地緣政治風險。美國政府對礦機進口加征關稅,推高了硬體成本;部分地區對算力出口的監管亦存在不確定性。礦企需在全球化佈局與政策遵守之間找到平衡。六、能源、算力與資本的三重博弈未來三至五年,比特幣礦企的AI轉型將呈現以下趨勢:電費與計算效率成為核心競爭力。隨著挖礦難度持續上升與AI算力價格競爭加劇,礦企的焦點已從「提升雜湊率」轉向「最佳化能源效率」。低PUE、綠色電力與智慧調度系統將成為關鍵差異化因素。產業整合與分化加速。擁有規模、資金與技術優勢的大型礦企,如CleanSpark、Bitdeer,可望成功轉型為混合運算基礎設施公司。中小礦商或被迫專注於利基市場(如邊緣運算、垂直產業AI),或透過併購整合退出市場。全球算力佈局重構。美國關稅政策可能推動算力轉移到加拿大、北歐、中亞等低關稅地區。同時,個體礦工透過AI工具最佳化營運亦有機會脫穎而出-2025年第三季有礦工實現單區塊超過35萬美元收益,即為例證。估價邏輯徹底重塑。華爾街分析師指出,目前市場對比特幣礦商的估值幾乎完全基於其在HPC與AI領域的成長潛力,不到10%的投資者對話仍圍繞著比特幣本身。成功轉型的礦企將演變為下一代「能源+算力」公司,AI——而非比特幣——將成為其成長的核心引擎。七、算力革命沒有回頭路比特幣礦企的AI轉型,是一場由演算法、電力與資本共同驅動的產業躍遷。它們不再只是“虛擬礦工”,而是正在成為全球算力基礎設施中不可或缺的一環。儘管前路充滿資金、技術與市場挑戰,但能源優勢、硬體經驗與分散式設施構成其不可複製的競爭障礙。無論選擇全面轉向、混合模式或靈活調配,礦企的終極目標是一致的:在算力稀缺的時代,將自己重塑為AI經濟的關鍵供給方。在這場沒有退路的轉型中,能源、算力與資本的三角關係將決定最終贏家。而可以確定的是:未來的算力戰場,不再只有比特幣的雜湊碰撞,更有AI的浮點運算──而那正是礦企們正在全速駛向的新大陸。 (數位新財報)
萬兆市場!全球 AI 算力需求 “井噴” 研究報告!2025
核心結論:2025 年全球 AI 算力市場規模突破 1.2 兆美元,2030 年將達 5.8 兆美元,年複合增長率 37.6%;中國以 38% 的市場佔比成為全球最大 AI 算力需求國,智能駕駛、工業 AI、醫療影像三大場景貢獻 62% 的算力消耗。一、引言:算力革命重構全球科技產業權力圖譜--深度文章,全文月1萬字,閱讀完成預計需要20分鐘!2025 年,全球 AI 算力競賽已從 “技術比拚” 升級為 “基礎設施霸權爭奪”。從阿里巴巴在雲棲大會拋出 3800 億元 AI 基建計畫(涵蓋 12 個超大型智算中心、50 萬公里全光網路),到輝達與 OpenAI 達成 1000 億美元戰略合作(建設 10 吉瓦級 AI 資料中心,可同時支撐 10 個兆參數模型訓練),再到微軟 Azure 宣佈 2025-2027 年投入 1800 億美元擴建算力網路(新增 20 個區域級智算叢集),科技巨頭的每一步佈局都在改寫全球算力資源分配格局。1.1 全球 AI 算力市場規模與增速根據 IDC《2025 年全球 AI 算力發展白皮書》,2025 年全球 AI 算力市場規模(含硬體、軟體、服務)達 1.21 兆美元,較 2024 年的 8900 億美元增長 35.9%。其中:硬體市場(晶片、伺服器、光模組等)佔比 63%,規模 7623 億美元。軟體市場(算力調度平台、模型訓練框架)佔比 22%,規模 2662 億美元。服務市場(算力租賃、維運支援)佔比 15%,規模 1815 億美元。從區域分佈看:中國以 4598 億美元(38%)位居全球第一。美國以 3630 億美元(30%)緊隨其後。歐洲(1815 億美元,15%)。亞太其他地區(1210 億美元,10%)。拉美及非洲(968 億美元,8%)構成剩餘市場。中國市場的高增速主要源於 “人工智慧 +” 政策驅動(2025 年 8 月國務院印發《關於深入實施 “人工智慧 +” 行動的意見》),以及大模型商業化落地加速(通義千問、文心一言等模型企業客戶超 10 萬家)。1.2 算力成為全球科技競爭核心指標當前,“算力規模 × 算力效率 × 生態覆蓋” 已成為衡量國家科技實力的新公式:美國通過 “晶片與科學法案”(2025 年追加 500 億美元補貼 AI 晶片研發)和 “AI 安全倡議”(聯合 27 國建立算力資源共享機制),掌控全球 72% 的高端 AI 晶片產能(輝達、英特爾、AMD 合計市場份額);中國依託 “東數西算” 工程(已建成 8 個國家算力樞紐、10 個國家資料中心叢集,算力總規模達 300EFLOPS)和國產晶片替代(華為升騰、海光資訊、阿里玄鐵晶片合計市場份額提升至 28%),實現算力自主可控突破;歐盟通過 “AI Continent 計畫”(2025-2030 年投入 2000 億歐元建設 13 個 AI 工廠),聚焦綠色算力(要求 2030 年智算中心 PUE≤1.1)和倫理治理(出台《AI 算力資源分配規範》),形成差異化競爭力。二、算力需求爆發的底層邏輯:技術迭代與場景滲透雙輪驅動2.1 技術演進:從 “參數競賽” 到 “算力效率革命”2.1.1 大模型技術瓶頸倒逼算力升級早期大模型(2020-2023 年)通過參數規模擴張實現性能突破:GPT-3(1750 億參數)、文心一言 1.0(2600 億參數)的訓練分別消耗 3.6PFlops・天、5.2PFlops・天算力。但 2024 年後,參數擴張的邊際效益急劇遞減 —— 模型參數從 1 兆增至 2 兆,性能提升僅 12%,而算力消耗增加 95%(據史丹佛大學《AI 模型效率報告 2025》)。為突破瓶頸,行業轉向 “算力效率最佳化”:晶片架構革新:輝達 Blackwell Ultra(GB300)採用 “GPU+DPU + 光引擎” 三芯整合架構,Token 生成速度達 1000 tokens / 秒,較前代 H100 提升 10 倍,單位算力能耗從 1.2W/TOPS 降至 0.8W/TOPS。演算法最佳化:OpenAI 採用 “稀疏啟動技術”,在保持模型性能不變的前提下,減少 40% 的計算量;阿里通義千問 3.0 通過 “動態參數修剪”,訓練算力消耗降低 35%。訓練範式創新:Google DeepMind 推出 “分佈式混合訓練”,將模型拆分至 1000 個邊緣節點同步訓練,訓練周期從 30 天縮短至 7 天,算力利用率從 65% 提升至 92%。2.1.2 後訓練階段算力需求激增2025 年,大模型發展重心從 “預訓練” 轉向 “後訓練”(強化學習、思維鏈微調、多模態融合),算力需求呈現 “爆發式增長”:強化學習(RLHF):訓練一個千億參數模型的 RLHF 階段,需消耗 1.2PFlops・天算力(相當於 1000 塊 H100 晶片連續工作 30 天),是預訓練階段的 2.5 倍。多模態融合:GPT-5 多模態版本(支援文字、圖像、視訊生成)的訓練算力需求達 8.6PFlops・天,較純文字模型提升 4 倍。即時推理:智能駕駛場景中,L4 級自動駕駛系統需每秒處理 10TB 資料(含雷射雷達、攝影機、毫米波雷達資料),單台車的即時推理算力需求達 200TOPS,是 2023 年 L2 級系統的 5 倍。2.1.3 國產晶片技術突破與應用中國企業在 AI 晶片領域加速替代:華為升騰 910B:採用 7nm 工藝,FP16 算力達 640 TFLOPS,支援 8 路 GPU 互聯,在工業質檢場景下,推理效率較輝達 A100 提升 23%,單價僅為 A100 的 60%。阿里玄鐵 910:專為大模型訓練設計,支援 “混合精度計算”,在通義千問 3.0 訓練中,算力成本較輝達 H100 降低 40%,已實現規模化應用(部署超 5000 片)。海光 DCU 920:聚焦推理場景,在金融風控模型推理中,延遲從 50ms 降至 28ms,單卡支援 10 萬並行請求,較同類產品提升 50%。2.2 市場需求:千行百業 AI 滲透催生算力缺口2.2.1 核心場景算力消耗測算根據中國信通院《2025 年 AI 算力需求白皮書》,全球主要場景的算力消耗如下:2.2.2 典型行業案例深度解析案例 1:智能駕駛 —— 小鵬汽車 X9 算力叢集小鵬 X9 搭載的 XNGP 4.0 系統,採用 “車端 + 雲端” 雙算力架構:車端:配備 2 顆 Orin-X 晶片(總算力 508TOPS),支援雷射雷達、8 顆攝影機、5 顆毫米波雷達資料即時處理,實現城市無圖自動駕駛。雲端:依託小鵬肇慶智算中心(總算力 100PFlops,採用輝達 Blackwell 叢集),進行模型訓練和路測資料處理,每天處理超 100PB 路測資料,訓練周期從 14 天縮短至 5 天。算力消耗:單台車年均雲端算力消耗 1.2PFlops・天,全球 10 萬輛 X9 年消耗算力 12000PFlops・天,相當於 1 個中型智算中心的全年算力輸出。案例 2:工業 AI—— 三一重工長沙智能工廠三一重工長沙工廠通過 AI 改造,實現 “黑燈生產”:算力需求:部署 500 台工業 AI 伺服器(搭載華為升騰 910B 晶片),總算力達 20PFlops,用於銲接質量檢測、裝置故障預警、生產調度最佳化。應用效果:銲接缺陷率從 0.8% 降至 0.1%,裝置故障率降低 40%,生產效率提升 30%,年均節省成本超 3 億元。算力增長:隨著工廠擴建(2025 年新增 3 條生產線),預計 2026 年算力需求將增至 35PFlops,年增速 75%。案例 3:醫療影像 —— 中山大學腫瘤防治中心 AI 系統該中心研發的腦轉移瘤 AI 輔助檢測系統,算力支撐體系如下:訓練階段:採用阿里雲智算中心(800 塊 H100 晶片,算力 64PFlops),基於 50 萬例腦轉移瘤影像資料訓練,耗時 12 天,算力消耗 8.6PFlops・天。推理階段:在全國 500 家基層醫院部署輕量化模型(推理算力需求 0.5TOPS / 台),漏診率降低 60%,診斷時間從 30 分鐘縮短至 5 分鐘。算力擴張:2025 年計畫覆蓋 1000 家醫院,需新增 500 台推理伺服器,推理算力需求增至 250TOPS,年增長 100%。三、算力基礎設施技術重構:從 “硬體堆砌” 到 “算網融合”3.1 全光運力:AI 算力調度的 “高速公路”3.1.1 全光網路技術原理與優勢全光網路通過 “光纖傳輸 + 光交換” 實現資料無電轉換,核心優勢體現在三方面:超大頻寬:採用波分復用(WDM)技術,單纖容量達 10Tbps(相當於每秒傳輸 1.25 萬部 4K 電影),支援 800G/1.6T 光模組規模化應用。確定性低時延:端到端時延 < 1ms(北京至上海全光傳輸時延僅 8ms),較傳統 IP 網路降低 80%,滿足智能駕駛、金融交易等低時延場景需求。高可靠性:通過光層保護機制(如 OLP 光線路保護),可用性達 99.999%(年均故障時間 < 5 分鐘),遠高於傳統網路的 99.9%(年均故障時間 8.76 小時)。3.1.2 全球全光網路建設案例中國:“東數西算” 全光骨幹網中國已建成全球規模最大的全光算力傳輸網路,覆蓋 8 個國家算力樞紐:技術方案:採用華為 “全光交叉(OXC)+400G/800G 光模組”,建構 “骨幹網 - 都會網路 - 園區網” 三級架構,實現算力資源跨區域調度。應用效果:貴州樞紐(西部)向廣東樞紐(東部)輸送算力的時延 < 20ms,算力成本較東部本地降低 40%,2025 年上半年跨區域算力調度量達 1200PFlops・天。未來規劃:2026 年將光模組升級至 1.6T,單纖容量提升至 20Tbps,跨區域時延進一步降至 15ms 以內。美國:Cisco AI Fabric 全光方案Cisco 為微軟 Azure 設計的 AI Fabric 全光方案,支撐全球 20 個區域智算中心互聯:核心技術:採用 Cisco 8000 系列路由器(支援 1.6T 光介面)和 Nexus 9800 交換機,實現算力動態調度。應用效果:Azure 全球智算中心之間的算力調度效率提升 60%,模型訓練資料傳輸時間從 24 小時縮短至 8 小時。市場反饋:2025 年已覆蓋微軟 80% 的智算中心,計畫 2026 年擴展至亞馬遜 AWS 和Google雲。歐洲:華為 - 沃達豐全光合作項目華為與沃達豐合作建設歐洲全光算力網路,聚焦綠色算力傳輸:技術特色:採用 “全光 + 液冷” 一體化方案,網路裝置能耗降低 30%,PUE(能源使用效率)降至 1.05。覆蓋範圍:連接德國、法國、西班牙等 10 國的 15 個智算中心,2025 年下半年算力傳輸量達 500PFlops・天。政策契合:符合歐盟 “綠色新政” 要求(2030 年數字基礎設施碳減排 50%),計畫 2027 年覆蓋全歐洲。3.2 算力架構:從 “集中式” 到 “分佈式邊緣計算”3.2.1 算力架構演進趨勢2025 年,全球 AI 算力架構呈現 “集中式訓練 + 分佈式推理” 的二分格局:集中式訓練:依託超大型智算中心(算力≥100PFlops),進行大模型預訓練和大規模資料處理,代表案例包括阿里雲張北智算中心(500PFlops)、輝達 DGX SuperPOD(200PFlops);分佈式推理:將推理任務下沉至邊緣節點(如基站、邊緣資料中心、終端裝置),降低時延和頻寬消耗,代表案例包括特斯拉邊緣算力節點(單節點算力 100TOPS)、華為 MEC 邊緣雲(覆蓋全國 300 個城市)。3.2.2 邊緣算力典型應用案例 1:特斯拉 Autopilot 邊緣算力網路特斯拉在全球部署 1200 個邊緣算力節點,支撐自動駕駛即時推理:節點配置:每個節點配備 8 顆特斯拉 D1 晶片(總算力 1.6PFlops),採用液冷散熱,PUE=1.08;工作機制:車輛行駛中產生的路測資料(每秒 10GB)即時傳輸至就近邊緣節點,進行本地化推理(如障礙物識別、路徑規劃),僅將關鍵資料(如異常場景)上傳至雲端;算力規模:2025 年邊緣節點總算力達 1920PFlops,佔特斯拉全球算力總規模的 45%,較 2024 年增長 80%。案例 2:華為 MEC 邊緣雲在工業網際網路的應用華為 MEC 邊緣雲已覆蓋中國 300 個城市,為工業企業提供低時延算力服務:典型客戶:海爾青島空調工廠,部署 10 個 MEC 邊緣節點(總算力 500TOPS),用於空調組裝質量檢測。應用效果:檢測時延從 50ms 降至 15ms,檢測準確率達 99.8%,生產線效率提升 25%。市場規模:2025 年華為 MEC 邊緣雲服務收入達 120 億元,服務工業企業超 5000 家,年增速 65%。3.2.3 算力調度平台技術創新為實現 “算力像水電一樣隨取隨用”,行業推出多款算力調度平台:阿里雲算力調度平台 “飛天”:支援跨地域、跨架構(CPU/GPU/TPU)算力調度,2025 年上半年調度算力達 8000PFlops・天,算力利用率從 65% 提升至 90%。輝達 AI Enterprise:整合算力調度、模型管理、安全防護功能,全球超 2 萬家企業採用,幫助企業降低 30% 的算力成本。華為雲 Stack AI:面向政企客戶提供私有化算力調度方案,已應用於國家電網、中國鐵路等客戶,實現算力資源統一管理和動態分配。四、產業鏈競爭格局:從 “單點競爭” 到 “生態博弈”4.1 上游核心環節:晶片與光模組的技術壁壘4.1.1 AI 晶片市場競爭格局2025 年全球 AI 晶片市場規模達 876 億美元,競爭呈現 “一超多強” 格局:輝達競爭優勢:生態壁壘:CUDA 平台擁有超 400 萬開發者,支援 90% 以上的 AI 框架(TensorFlow、PyTorch 等)。技術領先:Blackwell Ultra 晶片採用 3nm 工藝,整合 2880 億電晶體,FP8 算力達 32PFlops,較前代提升 5 倍。產能保障:與台積電合作建設 3nm 專屬產線,2025 年產能達 100 萬片 / 年,滿足全球 70% 的高端 AI 晶片需求。國產晶片突破方向:生態建設:華為推出升騰 AI 產業聯盟,吸引超 5000 家合作夥伴,開發超 10 萬個 AI 應用。成本優勢:阿里玄鐵晶片單價僅為輝達 H100 的 50%,在邊緣推理場景性價比突出。政策支援:國家積體電路產業投資基金二期注資 200 億元,支援國產 AI 晶片研發和產能建設。4.1.2 光模組市場爆發式增長光模組作為算力網路的 “資料傳輸管道”,2025 年全球市場規模達 386 億美元,同比增長 42%,其中 800G 光模組佔比超 50%,成為主流產品。頭部企業業績表現:中際旭創(中國):2025 年上半年營收 147.89 億元(+36.95%),淨利潤 39.95 億元(+69.40%),800G 光模組出貨量達 120 萬隻,佔全球市場份額 28%。新易盛(中國):2025 年上半年營收 104 億元(+282.64%),淨利潤 39.42 億元(+355.68%),1.6T 光模組樣品已送樣微軟、Google,預計 2026 年量產。Coherent(美國):2025 年上半年 800G 光模組出貨量 80 萬隻,營收 62 億美元(+38%),聚焦歐美雲廠商客戶。天孚通訊(中國):光器件業務營收 28 億元(+52%),為中際旭創、新易盛提供核心元件,毛利率達 45%。技術趨勢:速率升級:2026 年 1.6T 光模組將進入規模化應用,2027 年 400G 光模組佔比將降至 20% 以下。矽光技術:通過矽基晶片實現光訊號處理,成本降低 30%,能耗降低 40%,中際旭創、Intel 已實現矽光模組量產。整合度提升:COBO(共封裝光學)技術將光引擎與交換機晶片封裝整合,時延降低 50%,華為、Cisco 計畫 2026 年商用。4.2 中游關鍵環節:智算中心與算力租賃服務4.2.1 全球智算中心建設熱潮2025 年全球超大型智算中心(算力≥100PFlops)達 85 個,較 2024 年增加 32 個,主要分佈在中國(32 個)、美國(28 個)、歐洲(15 個)、亞太其他地區(10 個)。代表性智算中心:阿里雲張北智算中心(中國):總算力 500PFlops,採用液冷技術(PUE=1.08),部署 12000 顆輝達 Blackwell 晶片,為通義千問、菜鳥物流等提供算力支援,年耗電量 12 億度(可再生能源佔比 60%)。微軟 Azure 東海岸智算中心(美國):總算力 400PFlops,採用 “全光 + 邊緣節點” 架構,覆蓋美國東北部 10 個州,為 OpenAI、微軟 365 AI 提供算力服務,2025 年算力利用率達 92%。Google DeepMind 倫敦智算中心(英國):總算力 300PFlops,聚焦 AI 安全與科學計算,用於蛋白質結構預測、氣候模擬等場景,採用 100% 可再生能源(風能 + 太陽能),PUE=1.05。4.2.2 算力租賃市場崛起隨著 AI 企業算力需求激增,算力租賃成為 “輕資產” 模式的最優解,2025 年全球算力租賃市場規模達 1815 億美元,同比增長 68%。頭部租賃平台:算力蜂(中國):2025 年上半年租賃算力達 800PFlops・天,服務客戶超 2000 家,採用 “按 Token 計費” 模式(0.001 美元 / 1000 tokens),較自建算力成本降低 50%。CoreWeave(美國):輝達投資的算力租賃公司,2025 年營收達 85 億美元(+250%),專注 AI 訓練場景,客戶包括 OpenAI、Anthropic。亞馬遜 AWS Outposts:為企業提供本地化算力租賃服務,2025 年部署超 5000 個邊緣節點,覆蓋全球 30 個國家,算力租賃收入達 120 億美元。商業模式創新:長期合約:算力蜂與字節跳動簽訂 3 年算力租賃合約(100PFlops・天 / 年),合同金額 15 億元,保障穩定現金流。彈性租賃:CoreWeave 推出 “按需擴展” 服務,客戶可即時調整算力需求(最小粒度 1PFlops),按小時計費。算力質押:部分平台允許客戶用加密貨幣質押算力,降低前期投入成本,吸引中小 AI 企業。4.3 下游應用環節:大模型與行業場景融合4.3.1 大模型企業算力消耗排行2025 年全球 Top10 大模型企業的年度算力消耗達 12000PFlops・天,佔全球總算力需求的 11%:4.3.2 行業場景與算力服務融合案例案例 1:金融科技 —— 招商銀行 AI 風控平台招商銀行建構 AI 風控平台,算力支撐體系如下:算力需求:部署 200 台 AI 伺服器(搭載海光 DCU 920 晶片),總算力達 10PFlops,用於即時風控模型推理(每秒處理 50 萬筆交易資料)。應用效果:欺詐交易識別率提升至 99.2%,誤判率降低 30%,年減少損失超 20 億元。算力合作:與華為雲簽訂算力租賃合約(5PFlops・天 / 年),應對雙 11、春節等業務高峰期,算力成本較自建降低 40%。案例 2:教育科技 —— 好未來 AI 個性化學習平台好未來推出 AI 個性化學習平台,算力架構如下:訓練階段:租用阿里雲智算中心(20PFlops 算力),基於 1 億學生學習資料訓練個性化推薦模型,訓練周期 15 天,算力消耗 300PFlops・天。推理階段:在全國 200 個城市部署邊緣節點(總算力 500TOPS),為學生提供即時學習建議,單使用者日均算力消耗 0.01TOPS・天。應用效果:學生學習效率提升 40%,續課率提升 25%,2025 年平台使用者達 5000 萬,年算力消耗達 18250PFlops・天。五、政策與倫理:平衡發展與安全的全球實踐5.1 主要國家政策支援與監管措施5.1.1 中國:“人工智慧 +” 行動驅動算力發展2025 年 8 月國務院印發《關於深入實施 “人工智慧 +” 行動的意見》,提出算力發展三大目標:規模目標:2027 年智能算力規模達 2782EFLOPS,較 2025 年增長 168%。效率目標:2027 年智算中心 PUE≤1.1,算力利用率≥90%。自主目標:2027 年國產 AI 晶片市場份額提升至 40%,全光網路覆蓋率達 95%。配套政策:財政補貼:對超大型智算中心給予 20% 的建設補貼(單項目最高 5 億元),對國產 AI 晶片研發企業給予稅收減免(研發費用加計扣除比例 175%)。標準制定:中國信通院發佈《AI 算力網路技術要求》《綠色智算中心評價規範》等 12 項標準,規範行業發展。區域協同:推進 “東數西算” 工程二期建設,新增內蒙古、廣西 2 個國家算力樞紐,實現全國算力資源均衡佈局。5.1.2 美國:“晶片法案 + AI 倡議” 雙輪驅動美國通過《晶片與科學法案》(2025 年追加 500 億美元補貼)和《國家 AI 戰略》,聚焦算力安全與技術領先:晶片補貼:對輝達、英特爾等企業的 AI 晶片研發給予 30% 的稅收抵免,對在美國建設智算中心的企業給予 25% 的投資補貼。算力聯盟:聯合 27 國建立 “AI 算力資源共享機制”,限制向中國出口高端 AI 晶片(如 Blackwell Ultra)和算力服務。安全審查:對外國企業參與美國智算中心建設進行國家安全審查,2025 年否決華為、中芯國際等企業的 12 個合作項目。5.1.3 歐盟:“綠色算力 + 倫理治理” 差異化發展歐盟通過《AI 法案》《綠色數字基礎設施戰略》,建構可持續的算力發展體系:綠色要求:2030 年智算中心 100% 使用可再生能源,PUE≤1.1,碳排放量較 2025 年降低 50%。倫理規範:禁止 “高風險 AI 應用”(如社會評分、自主武器),要求 AI 算力資源分配遵循 “公平性原則”(中小企業與大企業享有同等接入權)。資金支援:設立 “歐洲算力基金”(規模 500 億歐元),支援 13 個 AI 工廠和 5 個 AI 千兆工廠建設,2025 年已投入 180 億歐元。5.2 倫理與安全挑戰:解決方案與行業實踐5.2.1 資料隱私保護:技術與制度雙管齊下技術方案:聯邦學習:百度文心一言採用聯邦學習技術,在不獲取原始資料的前提下進行模型訓練,已應用於金融、醫療等敏感領域。差分隱私:OpenAI 在 GPT-5 訓練中加入差分隱私機制(ε=1.5),保護使用者資料隱私,同時保證模型性能損失 < 5%。資料脫敏:阿里雲推出 “資料安全中台”,對訓練資料進行脫敏處理(如身份證號、銀行卡號加密),2025 年服務超 1 萬家企業。制度規範:中國《生成式人工智慧服務管理暫行辦法》要求 AI 企業對訓練資料進行合規審查,建立資料來源追溯機制。歐盟《通用資料保護條例》(GDPR)規定,AI 企業使用使用者資料訓練模型需獲得明確授權,使用者有權要求刪除相關資料。美國《AI 資料隱私法案》禁止 AI 企業使用非法獲取的個人資料(如爬蟲抓取的隱私資訊),違者最高罰款 1 億美元。5.2.2 演算法偏見治理:公平性評估與最佳化公平性評估:Google推出 “AI 公平性工具包”(AI Fairness 360),可檢測模型在性別、種族、年齡等維度的偏見,2025 年全球超 5000 家企業採用;中國信通院發佈《AI 演算法公平性評估指南》,建立 12 項評估指標(如性別公平性、地域公平性),已對 100 余個 AI 產品進行評估。最佳化案例:亞馬遜 AI 招聘工具:2024 年因性別偏見(對女性求職者評分偏低)下架,2025 年最佳化演算法後,採用 “性別中立特徵提取” 技術,女性求職者通過率提升 23%。螞蟻集團智能風控模型:2025 年最佳化地域偏見演算法,中西部地區小微企業貸款審批通過率提升 18%,同時保持壞帳率穩定(<1.2%)。5.2.3 算力安全防護:抵禦網路攻擊與惡意利用攻擊類型:算力劫持:駭客通過植入惡意程式碼,劫持 AI 伺服器算力用於挖礦或 DDOS 攻擊,2025 年全球已發生 1200 起此類事件,造成損失超 50 億美元。模型投毒:攻擊者在訓練資料中植入惡意樣本,導致模型輸出錯誤結果,2025 年某醫療 AI 企業因模型投毒,導致 10 例誤診事件。算力壟斷:部分大企業通過囤積算力資源,擠壓中小企業生存空間,2025 年輝達 Blackwell 晶片全球庫存中,前 5 大 AI 企業佔比達 65%。防護措施:技術防護:華為雲推出 “AI 算力安全中台”,即時監測算力異常消耗(如突然增長 200%),2025 年攔截攻擊超 10 萬次。制度監管:中國《AI 算力資源管理辦法》要求超大型智算中心建立 “算力資源登記制度”,禁止囤積和惡意競爭。行業自律:全球 AI 算力聯盟(由微軟、阿里、Google等 20 家企業發起)發佈《算力安全自律公約》,承諾不利用算力進行惡意活動,2025 年已有 80 家企業加入。六、未來展望:2030 年全球 AI 算力發展趨勢6.1 技術趨勢:量子算力、綠色算力、智能算力融合量子算力商業化突破:IBM 計畫 2029 年推出 1000 量子位元的量子電腦,可用於大模型訓練的 “量子加速”,使千億參數模型訓練時間從 30 天縮短至 1 天;中國量子計算原型機 “九章三號” 已實現 255 個光子操縱,在特定任務上算力超越傳統超級電腦。綠色算力普及:2030 年全球智算中心可再生能源佔比將達 80%,液冷技術普及率超 90%(PUE≤1.05),氫能源供電在大型智算中心的應用佔比達 30%;中國計畫 2030 年實現 AI 算力全生命周期碳減排 60%。算網智融深化:全光網路將實現 “算力 - 資料 - 場景” 無縫銜接,1.6T/3.2T 光模組成為主流,端到端時延降至 5ms 以內;AI 將全面賦能算力調度(如動態負載平衡、故障自癒),算力利用率提升至 95% 以上。6.2 市場趨勢:區域分化與場景細分區域格局變化:2030 年中國 AI 算力市場規模將達 3.2 兆美元(全球佔比 55%),繼續保持全球第一;印度、東南亞等新興市場增速超 50%,成為新的增長引擎;歐美市場增速放緩至 25%-30%,但在高端算力(如量子算力、科學計算)領域仍保持領先。場景細分深化:智能駕駛(L5 級)、腦機介面、AI 藥物研發等新興場景將成為算力需求新增長點,2030 年合計佔比達 35%;工業 AI、醫療影像等成熟場景將向 “算力 + 演算法 + 資料” 一體化解決方案轉型,行業集中度提升。6.3 競爭趨勢:生態主導權爭奪加劇晶片生態博弈:輝達 CUDA 生態將面臨華為升騰(中國)、Google TPU(美國)的挑戰,2030 年國產 AI 晶片生態將覆蓋 60% 的國內企業;開源晶片(如 RISC-V 架構)在邊緣場景的應用佔比將達 40%。算力服務模式創新:“算力銀行”“算力期貨” 等新模式將興起,企業可通過 “預購算力” 鎖定成本;邊緣算力租賃市場規模將達 8000 億美元,佔整體租賃市場的 45%。國際合作與競爭:全球算力資源分配不均問題將加劇,開發中國家可能面臨 “算力鴻溝”;中國將通過 “數字絲綢之路” 向東南亞、非洲輸出算力技術和服務,2030 年海外算力服務收入佔比將達 20%。七、結論與建議7.1 核心結論全球 AI 算力需求正處於 “井噴期”,2025-2030 年市場規模將從 1.2 兆美元增至 5.8 兆美元,年複合增長率 37.6%,中國以 38% 的市場佔比成為核心增長極;技術層面,全光網路、邊緣計算、綠色算力成為關鍵突破點,800G/1.6T 光模組、液冷技術、聯邦學習將實現規模化應用;產業鏈競爭聚焦 “生態壁壘”,輝達憑藉 CUDA 生態掌控高端晶片市場,中國企業在國產替代、算力租賃等領域實現差異化突破;政策與倫理是算力發展的 “雙刃劍”,各國需在技術創新、資料隱私、公平競爭之間找到平衡,避免 “算力霸權” 和 “技術脫鉤”。7.2 企業建議技術佈局:AI 企業應優先採用 “集中訓練 + 邊緣推理” 架構,降低算力成本;傳統行業企業需加快 AI 與業務融合,明確算力需求場景(如工業質檢、智能調度),避免盲目投入。成本控制:中小 AI 企業可通過算力租賃(如算力蜂、CoreWeave)降低前期投入,採用 “按需擴展” 模式匹配算力需求;大型企業可通過長期合約鎖定算力價格,同時佈局國產晶片替代(如華為升騰、阿里玄鐵)。合規經營:加強資料隱私保護(如聯邦學習、差分隱私),建立演算法公平性評估機制,避免因倫理問題導致業務風險;關注各國政策變化(如美國晶片出口限制、歐盟綠色算力要求),提前做好合規準備。7.3 政策建議加大技術研發支援:設立 AI 算力專項基金,支援國產晶片、全光網路、量子算力等核心技術研發;建立 “算力技術創新平台”,推動產學研協同(如高校、企業、科研機構聯合攻關)。最佳化算力資源佈局:繼續推進 “東數西算” 工程,加強中西部算力樞紐建設;建立 “全國算力調度平台”,實現算力資源跨區域、跨行業共享,提高利用率。建構開放合作生態:推動建立全球 AI 算力治理機制,參與國際標準制定(如 ISO/IEC AI 算力安全標準);加強與開發中國家的算力技術合作,縮小 “算力鴻溝”。強化倫理與安全監管:完善 AI 算力相關法律法規(如資料隱私、演算法公平性),建立 “算力安全監測平台”;引導行業自律(如發佈算力安全公約),避免惡意競爭和算力壟斷。 (AI雲原生智能算力架構)
這不是網際網路泡沫2.0!花旗大幅上調AI資本開支預測,稱AI基建部署正在“急劇加速”
花旗認為,AI基礎設施投資正急劇加速,將2026年AI資本開支上調至4900億美元。與2000年網際網路泡沫的關鍵區別在於,本輪投資有真實的企業級需求作為“出口”進行價值驗證。輝達與OpenAI等巨額合作項目,以及AI算力需求呈指數級增長,驅動了投資狂潮。花旗在周二的最新研報中表示,隨著生成式人工智慧需求持續超過供給,以及Google產品迭代加速,該行上調了對Google2026年及之後的資本開支預測。花旗預計,Google2026年資本開支將達到約1110億美元,高於2025年的860億美元。根據最新測算,2024至2029年的資本開支復合年增長率(CAGR)將達26%。花旗認為,這一增長背後是Google人工智慧產品和服務在核心搜尋和雲業務中的更大規模應用。目前,Gemini的token使用量持續飆升,已突破每月1兆次,比今年4月翻了一番。Google雲(GCP)客戶數量季度環比增長28%,積壓訂單加速增長,Gemini也正驅動更多Google核心產品。花旗指出,Google的資本開支正推動更快的產品開發周期,這將為公司帶來持續增長。儘管搜尋領域競爭依然激烈,但花旗認為Google執行力更強,因此維持“買入”評級,目標價280美元。Google母公司Alphabet A股周二盤中下跌近1%,報241.94美元。Gemini與AI產品需求加速根據研報,Gemini的token使用量在2025年6月已增至每月980兆次,高於4月的480兆次。Google雲需求同步走高,新客戶季度環比增長28%,單筆2.5億美元以上的大額合同同比翻倍,Gemini月活躍使用者數達到4.5億,花旗認為9月可能已突破5億。同時,Gemini的日均請求量二季度環比增長50%,AI-Overviews與AI-Mode等新功能的部署迅速。花旗指出,大約60%的生成式AI初創公司選擇了Google雲,前十大AI實驗室有九家使用Google雲。而且,第三季度這一勢頭仍在延續。媒體此前報導,Google雲已與Meta簽訂一份為期6年的AI基礎設施合同,總額100億美元。Google雲積壓訂單二季度環比增長17%至158億美元;作為比較,亞馬遜AWS同期增加60億美元。研報表示,Gemini正逐漸嵌入Google核心產品。例如在Chrome瀏覽器中,AI模式被直接整合到網址列;YouTube推出多項AI新功能,包括Veo 3快速整合、語音轉歌曲以及Ask Studio;Google也在測試Windows版Gemini應用,允許使用者在Chrome和搜尋之外直接使用Gemini。花旗認為,Gemini功能快速擴張,使用量水漲船高。基礎設施擴張Google近期推出了資料共享的Model Content Protocol (MCP) 伺服器,支援Agent-to-Agent通訊;該公司還發佈開源Agent Development Kit (ADK),方便開發者在多個模型代理之間進行編排,並推出Agent Platform Protocol (AP2),支援超過60家商戶和金融機構的自主代理支付。花旗指出,Google正在搭建更廣泛的智能代理與模型生態的基礎設施層。Google近期宣佈將在未來幾年投資超過500億美元,用於AI基礎設施建設。其中包括:在美國賓州、紐澤西、馬里蘭的交匯區域投資250億美元;在弗吉尼亞兩年內投資90億美元新建資料中心;在俄克拉荷馬兩年內投資90億美元用於基礎設施和技能培訓;在愛荷華投資70億美元擴展雲與AI設施;以及在賓州投資30億美元改造水電設施。Google還宣佈了英國等全球項目。花旗認為,這表明隨著OpenAI、Meta和亞馬遜大幅擴張資料中心規模,Google也在持續加碼。資本開支或長期保持高位花旗預計,Google2026年資本開支將達到1110億美元,同比增長29%,比上一年多出250億美元。2024至2029年複合增長率預計為26%。其中約2/3將投向伺服器,1/3投向資料中心和網路裝置。研報認為,資本開支已帶來顯著成果:Google雲營收同比增長32%,較一季度的28%有所加速。與此同時,AI效率正在提高。Gemini文字提示的能耗和碳足跡同比分別下降33倍和44倍,中位數每次請求耗水量約為0.26毫升。花旗強調,需求依然大於供給,Google正抓住機會投資。由於預計AI需求持續超越產能,花旗上調了2026年及之後的資本開支和折舊攤銷(D&A)預測。2026年資本開支上調12%至1110億美元,2027年上調15%至1310億美元。更高的資本開支和折舊攤銷使得花旗將2026年GAAP每股收益預測下調約2.5%至10.56美元,2027年下調約3%至11.90美元。花旗將Google目標價維持在280美元,基於2026年GAAP每股收益10.56美元,給予26.5倍市盈率(此前為26倍)。研報表示,略高的估值倍數反映了AI需求的增長潛力,但也部分被更高的資本開支和折舊抵消。花旗認為,Google擁有15款月活使用者超過5億的產品、7款超過20億的產品,其“產品光環”將推動搜尋流量持續增長。同時,花旗對Gemini 2.5 Pro以及AI Mode擴展版印象深刻。不過,研報也提醒,搜尋和GenAI產品的競爭加劇,以及監管風險,仍是不可忽視的不確定性。 (invest wallstreet)
惡性巧合——矽谷的AI野心如何與MAGA合流?
科技巨頭與川普政府的同頻,堪稱後者第二任期最令人意外的現象之一。對於那些在華盛頓,或在川普出訪英國、海灣時簇擁而來的科技巨頭,我們當然可以從意識形態或逐利的角度去理解其動機。但相較於“超規模化”(hyperscaling)——這場以兆美元計的AI基建擴張——所代表的技術變革與資本積累的磅礴勢頭,那些動機不足稱道。無論是MAGA陣營還是超規模化的推動者,都抱著“此時不為,更待何時”乃至“此時不為,永無可能”的心態。技術產業的訴求與政治態勢之間的一種惡性巧合,催生了一個強大的權宜聯盟。 雙方都在爭分奪秒,力圖在川普的剩餘任期內形塑未來。科技界向川普靠攏之所以令人困惑,在於矽谷此前一向以自由派形象示人。若將此歸因於科技行業與生俱來的“美德”或蘋果產品的“高顏值”,實屬謬誤。這種聯盟其實有著更現實的根源:美國西海岸的政治氛圍、科技從業者的社會文化背景,以及關鍵客戶群體的態度。儘管這可能聽來平淡無奇,但這種結盟確曾真實存在。近年來,在廣泛的意義上,科技生態系統的政治傾向已然轉變。要剖析這一轉向,我們不可將加州科技-商業生態的不同層面混為一談。筆者曾探討過埃隆·馬斯克(Elon Musk)、MAGA與川普式未來主義。像帕蘭提爾(Palantir)這類相對較小的科技企業,以及安德里森(Andreessen)那樣的風投機構,可通過矽谷底層的產業結構與意識形態氛圍來理解其行為。帕蘭提爾的估值泡沫堪稱這個時代的奇觀。關於范斯與安德森的關聯,筆者在2024年已有論述。但這些亞文化圈的中小型科技企業與正競逐AI霸主地位的“超規模化”巨頭不可等同視之。後者絕非某個人的獨角戲。 Alphabet(Google母公司)、亞馬遜、微軟和Meta(臉書母公司),再加上硬體支柱輝達,這些企業巨擘在全球科技界無可匹敵。其技術精深程度、實體與資本規模,以及技術推進迭代的緊迫感,都堪稱驚人。關於更直接的經濟與技術層面,我以後會在專欄和播客裡再談。祖克柏那句輕描淡寫的“錯花個幾千億美元”(原話引用),恰是當下“超規模化”氛圍的寫照。Tae Kim推文:在《ACCESS》的第一集中,馬克·祖克柏向 @alexeheath 透露了幾件有趣的事情:Meta 的 AI 超級智能研究人員沒有截止期限。主串流媒體關注的可能只是“浪費幾千億美元”這一說法,卻忽略了祖克柏想表達的核心資訊和背景。祖克柏認為,這項 AI 基礎設施投資對 Meta 至關重要:“如果你建得太慢,風險反而更大……你就會錯過我認為將成為最重要技術的機會,這項技術將推動歷史上最多的新產品、創新和價值創造。”祖克柏在 AI 投資上全力以赴,以保持 Meta 在 AI 前沿的地位。這也是為什麼近期媒體對 Meta 在 AI 投入上有所動搖的猜測、暗示和推測,都是完全錯誤的。2025 年的商業頭條圍繞著一個詞:規模。美國的科技巨頭正以史無前例的力度砸錢建設 AI 產能。正如《經濟學人》指出,我們正見證資本主義歷史上最大規模的投資潮之一。在西方,這也是唯一一次能與中國增長期超大資本投入相匹敵的投資熱。專家斷言,AI對社會文化的影響將不亞於早期的通用技術革命,甚至可比肩印刷術帶來的文化衝擊。上周我與卡梅隆·阿巴迪(Cameron Abad)在播客裡開展了一個關於AI的迷你系列,來討論這些問題。What AI Means for the Economy and for Politics,圖說政經Chartbook,48分鐘那些深入AI競爭的公司鬥得有來有回:最終的主導者會是誰?是提供當下AI工具的既有巨頭?抑或會有行業新銳後來居上?無論如何,在當下,對算力及演算法研發團隊的巨額投資,已然創造出自身的技術、商業與政治的訴求。當然,這些訴求與川普的政策存在衝突和矛盾。後者的政策偏好多少出自編造的故事、心血來潮與個人虛榮。最實際的衝突可能在於電力能源:川普對可再生能源的反對,從商業或技術角度看毫無道理。但這些衝突更可能只是推高邊際成本,而非根本阻礙AI推進。別指望這些超規模化巨頭會因為少了幾座風機就裹足不前。反過來說,川普的政策富於想像力,又不太受拜登時期那種意識形態藩籬的束縛。他已為AI產業打開通往海灣地區的大門——那裡的能源充裕。不過對超規模化企業來說,這些都是細枝末節。關鍵在於確保政治系統、行政機構與法院不要把矛頭對準技術本身或他們的生意。在這一點上,川普的“關鍵屬性”是——他是可被爭取的。 他偏愛“大敘事”“大數字”,缺乏內在信念。他對自由派文化規範毫不感冒。他顯然可以被收買——若非通過金錢利益,也可通過阿諛奉承與政治承諾。不得不迎合川普的白宮或許讓這些科技巨頭尷尬——不過即便如此,這點面子上的代價也不算什麼,何況寡頭們或許也渴望白宮的聚光燈。超規模化企業深信自己正參與一場史詩般的技術與社會變革。它們本身資金雄厚;若還不夠,外部資本也會自發湧入。在激烈競爭下,它們最需要的是華盛頓別擋路。當前局面恰由一種歷史與時間觀的惡性巧合所定義。就美國政治文化機構而言,川普第二任期團隊志在鞏固權力。他們在日復一日的長期執政鋪路,有范斯的接班計畫,更有一整套長期的政治、制度與文化工程。其傳遞給商界、學界的訊息是:“你們可能不喜歡,但請閉嘴、就範。尋求共處之道。這就是新秩序。未來屬於我們。”其勢越盛,恫嚇越甚,便越能威懾對手,鞏固新現實的公信力。Matthew Segal 推文:我再說一遍:在我看來,明明法律站在公司或機構那邊,而他們卻仍向川普妥協時,他們並沒有誤解法律;而是在做一種有根據的判斷——美國很可能正朝著一個實際上法律不起作用的方向發展。MAGA改造美國的長期計畫得到帕蘭提爾等意識形態啦啦隊的搖旗吶喊,但它們不過是馬前卒。真正舉足輕重的是那些巨獸。MAGA對聯邦國家機器的拆解、反覆無常的貿易政策、對H-1B簽證等移民體系的打擊,並未遭遇當今世界最強大的商業科技力量——超規模化企業——的切實抵抗,因為後者也在與時間賽跑。對於中期前景與制度失靈風險的憂慮,乃至關於美國未來的悲觀論調都無關緊要,因為整個未來正於此刻被決定。在“當下的燃眉之急”與漫長時間維度的宏大遠景之間,關於中期前景的想像已被抽空。超規模化企業不在意五年後的事,因為它們相信,人類共同的命運正由此刻瘋狂積累的算力與演算法所決定。他們按“月度/季度”計時,而非“十年”。大型科技公司素來不把管控法規放在眼裡,如今更甚——它們正朝那近在咫尺的全新未來全力衝刺。這逆轉了我們習以為常的的陳詞濫調,令人頭暈目眩。我們聽過多少關於民主政體因政治周期過短、政客只顧眼前選舉,而“有耐心的資本”需更長時間方能實現根本轉變的論調?但在當下的美國,資本巨鱷毫無耐心可言。未來將在“後天”被拍板,激進與即刻才是遊戲規則。受技術自身發展的動能驅動,被企業與技術集團的競爭所裹挾,且或許也因籠罩在中國的隱性威脅的陰影下(別忘了DeepSeek),除了“建設、建設、再建設”,這些大資本無暇他顧。AI資本的時間線與政治日程形成了災難性重疊。超規模企業與MAGA狂熱分子或許在“實質”上共識不多,但這無關緊要。緊要的是雙方一致認定:決定長期未來的窗口,就在現在到 2028 年之間。這對雙方都不是空口號。MAGA正猛烈衝擊美國制度架構,正如科技巨頭正為“超規模化”押下兆賭注。我稱這種重疊為惡性巧合,意在強調其偶然性——我不認為MAGA與超規模化互為因果。它們在深層、內在的意義上並不彼此需要。這場聯盟只是權宜之計。約在2023年前後,科技企業意識到當下關口的規模:它們將在未來幾年之內建構未來。它們對拜登雖有不滿,但關鍵是2024大選結果極不確定。這種不確定性對它們極緊迫的投資時間線意味著風險。於是它們對衝風險,向MAGA及右翼敞開大門。事實證明,對超規模化企業而言,一個在產業政策上缺乏主見、不執著反壟斷、且熱衷稅收優惠的政府頗為便利。川普喜歡討價還價、施予恩惠、達成交易,科技界可以接受。其餘問題,略施恭順與配合姿態便可打發。意識形態修飾可交給帕蘭提爾(Palantir)之流。同樣,這對川普政府也便利,其支援並非因為“超規模化”契合了政府宏大全球產業戰略的構想(那更像是拜登風格),而在於其為川普渴望的繁榮景象注入活力。2024-2025年冬季高歌猛進的金融市場和“美國例外論”敘事,在今年早些時候政府效率部(“DOGE”) 和“解放日”關稅政策下遭了重錘。而“超規模化”的前進勢頭又承諾重振繁榮。它哄得白宮心情舒暢,也在 MAGA 著手制度拆解之時,向社會擴散了一種自滿情緒。對科技巨頭而言,AI 是執念;對更廣泛的美國商界,它更像是轉移注意力的靈丹妙藥。正如吉莉安·泰特 (Gillian Tett)所言:許多企業高管與投資者似乎鍾愛川普的 AI 政策,主要以促進增長為名放鬆監管——這迎合了日益蔑視歐洲低增長、強監管模式的美國高管。但AI繁榮的另一影響是:它讓CEO們能在向投資者談論商業不確定性時,無需提到川普的名字。更直白說,AI是頭部高管(C-suite)轉移注意力的關鍵工具,因為AI吸噬著高管精力的同時也佔據了公共討論,使人無暇思考川普政策的陰暗面。無論在字面或隱喻意義上,AI都在吸噬頻寬(bandwidth)。如此一來,圍繞 AI 的權宜聯盟獲得了更廣泛的意義:它使MAGA的政治衝擊免受精英批評。眼下,這是一次自我強化的霸權推進。但不要因此忽略:無論 AI 熱,還是 MAGA 攻勢,都風險重重。中期選舉可能翻車;范斯的接班劇本可能失靈;他們可能徹底“玩砸”。同樣,祖克柏對幾千億損失的輕描淡寫或許反噬自身。萬一“超規模化”只是泡沫?萬一又冒出一個新的 DeepSeek 式威脅?既然這樁“超規模—MAGA 聯盟”有兩方參與,且各自面臨深刻不確定,那麼我們可以用2x2矩陣初步勾勒未來情景:我暫不往四個格子裡貼標籤,因為一貼就會引出新問題。比如:如果 MAGA 取勝、而 AI 也如約實現了突破,這段權宜聯盟還能持續嗎?反過來,若民主黨在 AI 泡沫破裂的廢墟上翻盤,會是怎樣的光景?無論如何,這些組合有助於我們構想未來。若我們對MAGA與超規模化的敘述照單全收,我們或許無需久候——到 2026 年格子的標籤就可能開始定形。此番思考源自與格雷(Grey)、傑裡米(Jeremy)、磬 (Qing)、斯蒂芬(Stefan)和泰德(Ted)的一次精彩又令人不安的對談,謹此感謝他們的友誼與同道之情。 (鈦媒體AGI)
吳泳銘:持續追加更大的AI基建投入
第一,通義千問堅定開源開放路線,致力於打造“AI時代的Android”;其二,建構作為“下一代電腦”的超級AI雲,為全球提供智能算力網路。在杭州召開的2025雲棲大會上,阿里巴巴集團CEO、阿里雲智能集團董事長兼CEO吳泳銘在演講中表示,實現通用人工智慧AGI已是確定性事件,但這只是起點,終極目標是發展出能自我迭代、全面超越人類的超級人工智慧ASI。吳泳銘闡述了通往ASI的三階段演進路線:第一階段:“智能湧現”,AI通過學習海量人類知識具備泛化智能。第二階段:“自主行動”,AI掌握工具使用和程式設計能力以“輔助人”,這是行業當前所處的階段。第三階段:“自我迭代”,AI通過連接物理世界並實現自學習,最終實現“超越人”。為實現這一目標,吳泳銘明確了阿里雲的戰略路徑:第一,通義千問堅定開源開放路線,致力於打造“AI時代的Android”;其二,建構作為“下一代電腦”的超級AI雲,為全球提供智能算力網路。吳泳銘判斷,未來,全世界可能只會有5-6個超級雲端運算平台。為支撐這一願景,吳泳銘表示,阿里巴巴正在積極推進三年3800億的AI基礎設施建設計畫,並將會持續追加更大的投入。根據遠期規劃,為了迎接ASI時代的到來,對比2022年這個GenAI的元年,2032年阿里雲全球資料中心的能耗規模將提升10倍。這意味著阿里雲算力投入將指數級提升。以下為演講內容,經過《科創板日報》刪減:當前的世界,一場由人工智慧驅動的智能化革命剛剛開始。過去幾百年,工業革命通過機械化放大了人類的體能,資訊革命通過數位化放大了人類的資訊處理能力。而這一次,智能化革命將遠超我們的想像。通用人工智慧AGI不僅會放大人類智力,還將解放人類的潛能,為超級人工智慧ASI的到來鋪平道路。最近的三年,我們已經清晰地感受到它的速度。幾年時間,AI的智力從一個高中生迅速提升到博士生的水平,還能拿到國際IMO的金牌。AI Chatbot是人類有史以來使用者滲透率最快的功能。AI 的行業滲透速度超過歷史上所有技術。Tokens 的消耗速度兩三個月就翻一番。最近一年,全球AI行業的投資總額已經超過4000億美元,未來5年全球AI的累計投入將超過4兆美元,這是歷史上最大的算力和研發投入,必然將會加速催生更強大的模型,加速AI應用的滲透。實現AGI——一個具備人類通用認知能力的智能系統,現在看來已成為確定性事件。然而,AGI並非AI發展的終點,而是全新的起點。AI不會止步於AGI,它將邁向超越人類智能、能夠自我迭代進化的超級人工智慧(ASI)。AGI的目標是將人類從80%的日常工作中解放出來,讓我們專注於創造與探索。而ASI作為全面超越人類智能的系統,將可能創造出一批“超級科學家”和"全端超級工程師"。ASI將以難以想像的速度,解決現在未被解決的科學和工程問題,比如攻克醫學難題、發明新材料、解決可持續能源和氣候問題,甚至星際旅行等等。ASI將以指數級的速度推動科技的飛躍,引領我們進入一個前所未有的智能時代。我們認為,通往ASI之路將經歷三個階段:第一階段是“智能湧現”,特徵是“學習人”。過去幾十年的網際網路發展,為智能湧現提供了基礎。網際網路將人類歷史上幾乎所有的知識都數位化了。這些語言文字承載的資訊,代表了人類知識的全集。基於此,大模型首先通過理解全世界的知識集合,具備了泛化的智能能力,湧現出通用對話能力,可以理解人類的意圖,解答人類的問題,並逐漸發展出思考多步問題的推理能力。現在,我們看到AI已經逼近人類各學科測試的頂級水平,比如國際數學奧賽的金牌水平。AI逐漸具備了進入真實世界、解決真實問題、創造真實價值的可能性。這是過去幾年的主線。第二個階段是“自主行動”,特徵是“輔助人”。這個階段,AI不再侷限於語言交流,而是具備了在真實世界中行動的能力。AI可以在人類的目標設定下,拆解複雜任務,使用和製作工具,自主完成與數字世界和物理世界的互動,對真實世界產生巨大影響。這正是我們當下所處的階段。實現這一跨越的關鍵,首先是大模型具備了Tool Use能力,有能力連接所有數位化工具,完成真實世界任務。人類加速進化的起點是開始創造和使用工具,現在大模型也具備了使用工具的能力。通過Tool Use,AI可以像人一樣呼叫外部軟體、介面和物理裝置,執行複雜的真實世界任務。這個階段,由於AI能夠輔助人類極大提高生產力,它將快速的滲透到物流、製造、軟體、商業、生物醫療、金融、科研等幾乎所有行業領域。其次,大模型Coding能力的提升,可以幫助人類解決更複雜的問題,並將更多場景數位化。現在的Agent還比較早期,解決的主要是標準化和短周期的任務。要想讓Agent能解決更複雜、更長周期任務,最關鍵的是大模型的Coding能力。因為Agent可以自主Coding,理論上就能解決無限複雜的問題,像工程師團隊一樣理解複雜需求並自主完成編碼、測試。發展大模型Coding能力是通往AGI的必經之路。未來,自然語言就是AI時代的原始碼,任何人用自然語言就能創造自己的Agent。你只需要輸入母語,告訴AI你的需求,AI就能自己編寫邏輯、呼叫工具、搭建系統,完成數字世界的幾乎所有工作,並通過數位化介面來操作所有物理裝置。 未來,也許會有超過全球人口數量的Agent和機器人與人類一起工作,對真實世界產生巨大影響。在這個過程中,AI就能連接真實世界的絕大部分場景和資料,為未來的進化創造條件。隨後AI將進入第三個階段——“自我迭代”,特徵是“超越人”。這個階段有兩個關鍵要素:第一、 AI連接了真實世界的全量原始資料目前AI的進步最快的領域是內容創作、數學和Coding領域。我們看到這三個領域有明顯的特徵。這些領域的知識100%是人類定義和創造的,都在文字裡,AI可以100%理解原始資料。但是對於其他領域和更廣泛的物理世界,今天的AI接觸到的更多是人類歸納之後的知識,缺乏廣泛的、與物理世界互動的原始資料。這些資訊是有侷限的。AI要實現超越人類的突破,就需要直接從物理世界獲取更全面、更原始的資料。舉一個簡單的例子,比如一家汽車公司的CEO要迭代明年的產品,大機率會通過無數次的使用者調研或者內部的討論來決定下一款汽車將要具備什麼樣的功能,與競對相比要實現那些方面的長板,保留什麼方面的能力。現在AI要去做還是很難的,核心點在於它所獲得的資料和資訊,全都是調研來的二手資料。如果有一天AI有機會,能夠連接這款汽車的所有的資料和資料,它創造出來的下一款汽車會遠遠超過通過無數次頭腦風暴所創作出來的。這只是人類世界當中的一個例子,更何況更複雜的物理世界,遠遠不是通過人類知識歸納就能夠讓AI理解的。所以AI要進入到一個更高的階段,就需要直接從物理世界獲取更全面、更原始的資料,就像在自動駕駛的早期階段,只靠人類的總結,Rule-based的方法去實現自動駕駛,無法實現很好的效果。新一代的自動駕駛,大部分採用端到端的訓練方法,直接從原始的車載攝影機資料中學習,實現了更高水平的自動駕駛能力。即便我們現在看起來相對簡單的自動駕駛問題,僅依靠人類歸納的知識和規則,也無法解決,更何況整個複雜的物理世界。只是讓AI學習人類歸納的規律,是遠遠不夠的。只有讓AI與真實世界持續互動,獲取更全面、更真實、更即時的資料,才能更好的理解和模擬世界,發現超越人類認知的深層規律,從而創造出比人更強大的智能能力。第二、Self-learning自主學習隨著AI滲透更多的物理世界場景,理解更多物理世界的資料,AI 模型和agent能力也會越來越強,有機會為自己模型的升級迭代搭建訓練infra、最佳化資料流程和升級模型架構,從而實現 Self learning。這會是AI發展的關鍵時刻。隨著能力的持續提升,未來的模型將通過與真實世界的持續互動,獲取新的資料並接收即時反饋,借助強化學習與持續學習機制,自主最佳化、修正偏差、實現自我迭代與智能升級。每一次互動都是一次微調,每一次反饋都是一次參數最佳化。當經過無數次場景執行和結果反饋的循環,AI將自我迭代出超越人類的智能能力,一個早期的超級人工智慧(ASI)便會成型。一旦跨過某個奇點,人類社會就像按下了加速鍵,科技進步的速度將超越我們的想像,新的生產力爆發將推動人類社會進入嶄新的階段。這條通往超級人工智慧的道路,在我們的眼前正在日益清晰。隨著AI技術的演進和各行各業需求爆發,AI也將催生IT產業的巨大變革。我們的第一個判斷是:大模型是下一代的作業系統。我們認為大模型代表的技術平台將會替代現在OS的地位,成為下一代的作業系統。未來,幾乎所有連結真實世界的工具介面都將與大模型進行連結,所有使用者需求和行業應用將會通過大模型相關工具執行任務,LLM將會是承載使用者、軟體 與 AI計算資源互動調度的中間層,成為AI時代的OS。來做一些簡單的類比:自然語言是AI時代的程式語言,Agent就是新的軟體,Context是新的Memory,大模型通過MCP這樣的介面,連接各類Tools和Agent類似PC時代的匯流排介面,Agent之間又通過A2A這樣的協議完成多Agent協作類似軟體之間的API介面。大模型將會吞噬軟體。大模型作為下一代的作業系統,將允許任何人用自然語言,創造無限多的應用。未來幾乎所有與計算世界打交道的軟體可能都是由大模型產生的Agent,而不是現在的商業軟體。潛在的開發者將從幾千萬變成數億規模。以前由於軟體開發的成本問題,只有少量高價值場景才會被工程師開發出來變成商業化的軟體系統。未來所有終端使用者都可以通過大模型這樣的工具來滿足自己的需求。模型部署方式也會多樣化,它將運行在所有裝置上。現在主流的呼叫模型API的方式,來使用模型只是初級階段,其實看起來非常原始。類似大型主機時代的分時復用階段,每個人只有一個終端連接上大型主機分時復用。這種方式無法解決資料持久化,缺乏長期記憶,即時性不夠,隱私無法解決,可塑性也不夠。未來模型將運行在所有計算裝置中,並具備可持久記憶,端雲聯動的運行狀態,甚至可以隨時更新參數,自我迭代,類似我們今天的OS運行在各種環境之中。正是基於這個判斷,我們做了一個戰略選擇:通義千問選擇開放路線,打造AI時代的Android。我們認為在LLM時代,開源模型創造的價值和能滲透的場景,會遠遠大於閉源模型。我們堅定選擇開源,就是為了全力支援開發者生態,與全球所有開發者一起探索AI應用的無限可能。我們的第二個判斷:超級AI 雲是下一代的電腦。大模型是運行於 AI Cloud之上新的OS。這個OS可以滿足任何人的需求。每個人都將擁有幾十甚至上百個Agent,這些Agent 24小時不間斷地工作和協同,需要海量的計算資源。資料中心內的計算範式也在發生革命性改變,從CPU為核心的傳統計算,正在加速轉變為以 GPU為核心的 AI 計算。新的AI計算範式需要更稠密的算力、更高效的網路、更大的叢集規模。這一切都需要充足的能源、全端的技術、數百萬計的GPU和CPU,協同網路、晶片、儲存、資料庫高效運作,並且24 小時處理全世界各地的需求。這需要超大規模的基礎設施和全端的技術積累,只有超級AI雲才能夠承載這樣的海量需求。未來,全世界可能只會有5-6個超級雲端運算平台。在這個新時代,AI將會替代能源的地位,成為最重要的商品,驅動千行百業每天的工作。絕大部分AI能力將以Token的形式在雲端運算網路上產生和輸送。Token就是未來的電。在這個嶄新的時代,阿里雲的定位是全端人工智慧服務商。通義千問開源了300多款模型,覆蓋了全模態、全尺寸,截至目前,通義千問全球下載量超6億次,衍生模型超17萬個,是全球第一的開源模型矩陣,可以說是滲透計算裝置最廣泛的大模型。阿里雲正在全力打造一台全新的AI超級電腦,它同時擁有最領先的AI基礎設施和最領先的模型,可以在基礎架構設計和模型架構上協同創新,從而確保在阿里雲上呼叫和訓練大模型時,能達到最高效率,成為開發者最好用的AI雲。AI行業發展的速度遠超我們的預期,行業對AI基礎設施的需求也遠超我們的預期。我們正在積極推進三年3800億的AI基礎設施建設計畫,並將會持續追加更大的投入。從現在我們看到的AI行業遠期發展以及客戶需求角度來看,為了迎接ASI時代的到來,對比2022年這個GenAI的元年,2032年阿里雲全球資料中心的能耗規模將提升10倍。這是我們的一個遠期規劃,我們相信通過這樣的飽和式投入,能夠推動AI行業的發展,迎接ASI時代的到來。超級人工智慧到來之後,人類和AI會是怎麼樣的協作關係?未來的AI越來越強,甚至超越人類智能能力的ASI誕生,那我們人類和AI將如何相處?我們對未來充滿樂觀,超級人工智慧到來之後,人類和AI是一個嶄新的協同方式。程式設計師可能已經感受到了,我們可以下一個指令,通過Coding這樣的工具,讓它晚上12個小時就能夠創造出一個我們需要的系統,從這裡我們看到了未來人和AI怎麼樣去共同協同的一種早期的雛形。所以我們覺得,從Vibe Coding到Vibe Working。未來,每個家庭、工廠、公司,都會有眾多的Agent和機器人24小時為我們服務。也許,未來每個人都需要使用100張GPU晶片為我們工作。正如電曾經放大了人類物理力量的槓桿,ASI將指數級放大人類的智力槓桿。過去我們消耗10個小時的時間,獲得10小時的結果。未來,AI可以讓我們10小時的產出乘以十倍、百倍的槓桿。回顧歷史,每次技術革命解鎖更多生產力之後,都會創造出更多的新需求。人會變得比歷史上任何時候都強大。最後,我想強調,一切才剛剛開始。AI 將重構整個基礎設施、軟體和應用體系,成為真實世界的核心驅動力,掀起新一輪智能化革命。 (科創板日報)