#AI競賽
【最新】黃仁勳作客喬羅根訪談:2.5 小時無指令碼猛料!黃仁勳解析 AI 競賽與安全攻防,社會經濟影響,還曝輝達逆襲史
在科技界,輝達(Nvidia)CEO黃仁勳(Jensen Huang)以其標誌性的皮夾克和對未來的敏銳洞察而聞名。然而,他很少進行長時間、無指令碼的深度對話。但就在剛不久,他卻罕見地做客知名播客節目《The Joe Rogan Experience》,與主持人喬羅根進行了一場罕見的、長達2個半小時的交流。這次交流,核心內容如下:一、川普政府的務實主義黃仁勳讚賞川普總統的“常識性”方法,特別是其支援增長的能源政策(“鑽探吧,寶貝,鑽探吧”),他認為這一政策對於支援AI行業所需的基礎設施建設(如晶片工廠和超級電腦)至關重要,實際上“拯救了AI產業”。二、人工智慧競賽與國家安全黃仁勳將當前的人工智慧發展置於持續不斷的技術競賽歷史背景之下,並強調其對國家實力的決定性作用。他認為,從工業革命到曼哈頓計畫再到冷戰,人類始終處於技術競賽之中。AI競賽只是這一歷史處理程序的最新階段,並且可能是“最重要的競賽”。他將技術領導力比作擁有“超能力”,無論是資訊、能源還是軍事領域,技術都是基礎。因此,在AI領域保持領先地位至關重要。三、關於AI的安全問題人們的一個普遍的擔憂是:隨著AI變得越來越強大,它會不會也變得越來越危險和不可控?這幾乎是所有科幻電影的核心情節。但黃仁勳將AI的“安全”定義為功能性和精準性,認為更強大的算力主要被用於提升AI的思考、研究和反思能力,從而產生更可靠的結果,而非科幻電影中的失控力量。他認為AI的發展是漸進的,不會出現某個實體突然獲得壓倒性優勢的“奇點”時刻。對於AI可能失控的擔憂,黃仁勳反覆提出“網路安全論點”。他認為未來不會是單一AI對抗人類,而是“我的AI”對抗“你的AI”。就像網路安全領域一樣,攻防技術會同步發展,形成動態平衡,防止任何一方取得絕對優勢。四、人工智慧的社會經濟影響黃仁勳探討了AI對就業、經濟和全球技術鴻溝的深遠影響。1.對就業的影響:任務替代與價值重塑他引用了放射科醫生的例子。儘管五年前有人預測AI將取代所有放射科醫生,但現實是放射科醫生的數量反而增加了。因為AI接管了研究圖像這一“任務”,讓醫生能專注於“診斷疾病”這一核心“目的”,從而服務更多病人,提升了整個醫療體系的經濟效益。他總結道,如果一個人的工作僅僅是“任務”,那很可能會被自動化取代。但大多數職業的“目的”不會改變,AI將成為增強人類能力的強大工具。2.全民基本收入與富足對於伊隆·馬斯克提出的“全民高收入”願景,黃仁勳認為未來可能介於“資源極度富足,人人富有”和“需要全民基本收入來維持生計”兩種極端情況之間。他傾向於前者,即AI將創造出巨大的資源富足,使得許多今天被視為有價值的東西變得唾手可得。3.縮小技術鴻溝:黃仁勳堅信AI將“顯著縮小技術鴻溝”,而非擴大它。主要原因在於AI是“有史以來最易於使用的應用”,使用者只需通過自然語言即可操作。他指出在過去十年中,NVIDIA將計算性能提升了10萬倍,這意味著未來AI計算所需的能源將變得“微不足道”。因此,即使是資源有限的國家也能負擔得起“昨天的AI”,而“昨天的AI”已經“非常了不起”。五、NVIDIA的傳奇起源黃仁勳詳細回顧了NVIDIA瀕臨破產的早期歷史。公司在選擇了錯誤的技術路線後,憑藉一系列關鍵決策得以倖存和崛起:說服世嘉(Sega)將一筆合同款項轉為救命投資、通過購買教科書從零學習正確的技術、耗盡公司一半資金購買一台停產的模擬器以確保晶片首次流片成功,以及與台積電(TSMC)進行一場豪賭。六、個人經歷與領導哲學作為第一代移民,黃仁勳分享了他從台灣到泰國,再到肯塔基州貧困地區的獨特成長經歷。他的領導哲學深受這些經歷影響,核心驅動力是“對失敗的恐懼”而非“對成功的渴望”。他強調,保持脆弱性和持續的危機感(“公司離倒閉永遠只有30天”)是企業能夠不斷調整和創新的關鍵。 (大咖觀點)
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)
誰將為這場史上最昂貴的AI軍備競賽買單?|大公司
過去數周,輝達股價經歷了一輪高位回呼與震盪。目前市值相較於一個月前的高點已下降15.4%。雖然一周前最新季度財報發佈後,公司超預期的業績表現一定程度上穩定了市場信心,但隔天股價的下跌反映著情緒底色依然是消極的。關鍵的是,這已不僅僅是輝達一家公司的悲歡,它的表現是觀察AI行業的核心風向標。再加上Alphabet、微軟、亞馬遜、Meta、蘋果、特斯拉,這七家技術公司繼承了商業歷史上石油七巨頭的強勢,利益捆綁關係緊密,以驚人的市值集中度成為美股的主心骨。根據中金公司資料,自2022年年底ChatGPT發佈以來,美股「七姐妹」(Magnificent Seven)最高上漲283%,大幅跑贏同期標普500指數扣除M7後的69%。最近一周,美國投資人Michael Burry公開警告AI泡沫,質疑以輝達為中心的技術公司之間的循環交易模式,重申他對輝達的看空立場。輝達對此予以駁斥,聲稱戰略投資在營收中佔比極小,且被投資公司的收入主要來自第三方客戶,以此反駁循環交易製造收入的指控。多家投資機構在三季度選擇買單離場。軟銀集團、Peter Thiel的避險基金清倉了其持有的全部輝達股票。避險基金橋水在三季度末已減持輝達股票,減持比例達65.3%。此外,橋水還減持了53%的Alphabet股票,36%的微軟股票和9.6%的亞馬遜股票。橋水首席投資官Karen Karniol-Tambour等人警告稱,當前的市場穩定性正面臨越來越高的風險。泡沫論頻出反映了資本市場的擔憂。以輝達為代表的技術公司市值高增長、資本高投入的背後,躲不過一個核心問題:這場由AI推動的牛市,究竟擁有堅實的基礎,還是一堆膨脹的泡沫?輝達的超預期業績未能緩解股市擔憂11月20日,輝達2026年第三財季業績發佈,營收創下570億美元紀錄,同比增長62%;淨利潤319.1億美元,同比增長65%,營收與利潤均超出華爾街預期。公司的核心增長引擎——資料中心,同比增長66%至512億美元,創下紀錄。財報發佈後,輝達股價一度漲超6%,不過隔天就又快速跌了回去,市場對於泡沫的擔憂並未緩解。輝達創始人兼CEO黃仁勳在電話會議上表示:「關於AI泡沫的說法很多,但從我們的角度來看,情況截然不同。」他在新聞稿中表示:「Blackwell的銷量遠超預期,雲端GPU也已售罄。訓練和推理領域的計算需求持續加速擴大,且均呈指數級增長。我們已進入AI的良性循環。」上述表態可以視為輝達對市場擔憂的回應。評價公司的業務是否健康,客戶集中度是一項關鍵指標。算力需求帶動輝達營收的增長,按理來說客戶應該更加分散,但輝達的客戶集中度卻不斷上升。2025財年,輝達直接客戶A、B和C的銷售額分別佔總收入的12%、11%和11%,合計34%。到了2026財年二季度,兩家直接客戶貢獻了總營收的39%,比例顯著高於去年同期。名單雖然未披露大客戶是誰,但投資者都知道輝達GPU絕大部分都賣給了微軟、Google、亞馬遜三家雲服務廠商,以及Meta這家自稱「寧願過度投資,也不願因為投資不足而掉隊」的社交巨頭。雲廠商購買輝達晶片是在囤貨還是已實際應用?黃仁勳強調「雲端GPU售罄」,這意味著終端使用者——需要訓練模型或運行AI應用的公司——對AI算力的需求極其旺盛。雲廠商買的輝達晶片沒有閒置在資料中心,雲廠商會持續下訂單,輝達的營收增長亦是可持續的。然而,本周一有媒體報導輝達的大客戶Meta正考慮斥資數十億美元購買Google的自研AI專用晶片。輝達股價在次日下跌超7%,收盤價177.82每股美元,為近一個月內的最低值。與之相對的,Google發佈用自研晶片訓練的Gemini 3模型之後,其母公司Alphabet股價一路上漲,今年迄今為止股價已上漲近70%,市值向4兆美元邁進。就在昨天,輝達少見地在社交平台X發聲,稱對Google在AI領域的巨大進步感到非常高興,將繼續為Google提供產品與服務。同時也強調,相較於專用積體電路(AISC),輝達領先業界一代,是唯一能夠運行所有AI模型,並應用於所有計算廠家的平台。事實上,包括Google、亞馬遜、特斯拉在內,越來越多大客戶都在加大自研晶片的投入。不過輝達還是對未來持樂觀態度,並給出了下一季度的業績預測:收入將達到650億美元,上下浮動2%。下遊客戶研發與資本支出激增,但生成式AI對其主營業務增長作用有限從晶片採購、模型訓練、有關AI的業務場景應用落地,再到自研AI晶片試圖打破輝達壟斷,這條供應鏈的每一個環節都支出不菲。技術公司的研發投入不斷上漲。Google、微軟、Meta、亞馬遜最近三個季度的研發開支累計達1870億美元。而用於建設AI基礎設施的投入增長得更快,上述四家公司截至最近三個季度的資本支出均已超過2024年的全年支出,未來還會持續擴大投入。源源不斷的資金投入是否給公司帶來有效的業績增長?AI給雲業務帶來的增長最直觀。市場研究機構 Synergy Research Group的資料顯示,三季度企業在雲基礎設施服務上的支出較上一季度增長超過75億美元,創下有史以來最大的環比增幅。亞馬遜、微軟與Google位列雲服務市場份額的前三名,它們三季度的全球市場份額分別為29%、20%與13%。自2017年以來,亞馬遜、微軟與Google的雲營收均實現了數倍甚至十倍的跨越式增長。2024年,亞馬遜雲服務營收超過千億美元,微軟雲服務營收接近千億美元規模。Google雲服務在最近三個季度呈現穩健的雙位數環比增長。不過,將雲業務從三家公司的總營收中剔除,其最近三個季度的營收同比增速均呈現不同程度的放緩。這表明技術公司的業績增長主要依賴雲業務驅動,AI對核心業務的滲透尚未體現在整體營收上。以Meta為例,其主要營收源自客戶給社交應用家族投放廣告。自2021年起至今,Meta的應用家族日活躍使用者數增長率維持在8%上下,AI並沒有給日活躍使用者數帶來顯著增長。2022年,蘋果iOS隱私政策重創Meta的廣告業務,致使其平均單次廣告價格下滑16%。後續Meta在財報中表示,公司投入資源在AI(包括生成式AI)上,借助AI最佳化廣告的投放、精準定向與效果評估。2024年,Meta的廣告展示次數同比增長11%,平均單次廣告價格同比增長10%,均重回雙位數增長。借助AI,Meta從2022年的營收危機中恢復,但也僅止於此。無論是通過雲將AI算力轉售給更下游的公司,還是用AI對既有業務降本增效,目前來看,AI對於技術公司帶來的效果還都是間接的、漸進的,它並沒有成為創造新流量的入口。從輝達爆發式的業績,到技術巨頭們激進的資本開支,再到它們平淡的營收增長,增長動能在產業鏈的傳導中出現了明顯的「邊際遞減」。AI資金的結構性風險:技術巨頭正用公共債券加槓桿然而,技術公司們押注生成式AI的熱情絲毫沒有減退的跡象。現在,它們正在競相建設資料中心。今年6月,亞馬遜宣佈將在北卡羅來納州建設資料中心,投資規模100億美元。11月,Google宣佈將投資400億美元,在德克薩斯州新建三個資料中心。Meta為建設資料中心,未來三年將在美國投資6000億美元。掀起AI競賽的OpenAI則在今年9月與甲骨文簽署協議,五年內購買其價值3000億美元的算力。7月,兩家公司還宣佈合作建設總功率達4.5千兆瓦的資料中心,具體費用未披露。與這些大規模投資相呼應的是技術巨頭們在2025年下半年不約而同開啟的「囤錢」模式。Google今年4月、11月兩次在歐洲市場發債,累計55億歐元(63億美元)。甲骨文9月發債規模達180億美元。亞馬遜11月發債規模達到120億美元。Meta 10月發債規模達到300億美元,吸引約1250億美元投資者認購,創下公開公司債發行史上最高紀錄。發債趨勢印證了資本市場有關「AI泡沫論」的擔憂:巨頭們利用大規模公共債券加槓桿,導致市場上的資金從高風險的股市流入低風險的債市。已處於高位的技術股或將面臨更多拋售風險。不止是瘋狂發債,技術公司之間錯綜複雜的投資與交易關係也飽受質疑。9月底,輝達宣佈向OpenAI投資高達1000億美元,幫助其建設10吉瓦算力的資料中心。作為回報,OpenAI承諾在這些資料中心部署數百萬塊輝達晶片。該協議隨即因「循環交易」的性質受到批評。晨星分析師Brian Colello談到該筆交易時表示:「如果一年後AI泡沫破裂,這筆交易可能是早期的蛛絲馬跡之一。」OpenAI預測2025年營收為130億美元,對外投資已累計約3800億美元。而根據彭博社援引知情人士消息稱,OpenAI預計要到2029年才能實現現金流為正,屆時其營收預計將超過1250億美元。伯恩斯坦研究公司分析師Stacy Rasgon在一份投資者報告中寫道:「Altman有能力讓全球經濟崩潰十年,也有能力帶領我們走向繁榮昌盛。目前我們還不知道那種結果會更糟。」 (新皮層NewNewThing)
當歐洲發現自己在人工智慧競賽中選錯賽道
在一場曠日持久的奔跑中,快到人工智慧全球頂級監管的終點了,歐盟發現選錯賽道了——當裁判豈有未來,當選手才是王道。當中美人工智慧發展得如火如荼時,歐洲扔掉脖子上掛了多年的裁判哨,精準上場比賽了。19日,歐盟委員會公佈了名為 “數字綜合計畫”(以下簡稱“綜合計畫”)的改革方案,將《人工智慧法》的全面實施推遲至2027年。除了針對人工智慧,該方案還包括簡化歐盟《通用資料保護條例》和非個人資料規則。代表著歐盟在人工智慧監管上雄心壯志的《人工智慧法》在剛剛落地、尚未全面實施的情況下,雖表面上只是遭遇簡化和推遲,但實際影響卻相當於遭遇滑鐵盧。兩年前,在歐洲議會和歐盟理事會就《人工智慧法》達成政治協議的那一天,歐盟委員會主席馮德萊恩稱,《人工智慧法》這部全球首部全面的人工智慧法律框架將歐洲價值觀帶入了一個新時代,“這是一個歷史性的時刻。” 當時的重心還是“可信賴的人工智慧”,而現在,重心和視角都發生了重大轉變,用歐盟委員會科技事務負責人維爾庫寧的話來說,就是“提升歐盟競爭力”。曾經,歐盟委員會引以為傲的還是,《人工智慧法》是全球首部禁止一些用於不可接受用途的人工智慧法。維爾庫寧曾稱讚該法律既能“保護公民”,又能“促進創新”。而現在,“促進創新”已惡化為“遏制創新”。當然,歐委會的官員們並不會正面承認這一點,但數次綜合計畫所作的大調整足以表明,歐委會在認知上出現了重大轉變。背後的邏輯其實就是,通過鬆綁監管的方式來提升歐盟企業的競爭力。按照歐委會的估算,一旦生效,數字綜合計畫每年至少可為企業、公共管理部門和公民節省10億歐元。早在2021年,歐委會就公佈了《人工智慧法》草案。該法律基於人工智慧風險評級方法,將不同的人工智慧分為最低風險、低風險、高風險和不可接受的風險四個等級,比如,該法律明確禁止八類不可接受的風險行為,包括基於人工智慧的有害操縱與欺騙、社會信用評分、為建立或擴充人臉資料庫而進行的非針對性網路抓取及監控影像採集和在公共空間為執法目的進行的即時遠端生物特徵識別等。簡單說來,這部法律規定什麼是好AI,什麼是壞AI,什麼是可能向好、可能向壞的AI。而這部法律的原本使命就是,讓好AI造福人類社會,將壞AI關進牢籠,讓可能可壞AI一路向善。《人工智慧法》已於2024年8月1日生效,按照原計畫本將於2026年8月2日全面實施,而一些具體規則分階段逐步實施:被禁止的人工智慧實踐以及人工智慧素養義務自 2025 年 2 月 2 日起適用;關於通用人工智慧(GPAI)模型的條款自 2025 年 8 月 2 日起適用;高風險人工智慧系統的相關規定將於2026年8月與2027年8月分兩階段生效,等等。而按照新的綜合計畫,針對"高風險"人工智慧系統的監管措施將推遲16個月實施,從原定的2026年8月延至2027年12月執行,這意味著相關企業將獲得更長的合規準備期。高風險人工智慧系統包括教育機構中的考試評分系統、招聘簡歷篩選軟體和拒絕公民貸款申請的信用評分系統等。而且,歐委會不僅僅只是鬆綁人工智慧法監管本身,還打算以削弱個人資料保護的方式,為人工智慧開發者處理歐洲公民資料創造便利。綜合計畫中有一細則稱,人工智慧系統及其基礎模型在開發使用過程中,其生命周期多個階段均依賴於資料,其中可能涉及個人資料,且在某些情況下這些資料可能被留存於人工智慧系統或模型之中。因此,若情況適用,在此背景下處理個人資料的目的可視為《歐盟條例2016/679》第6條含義內的“合法利益”。擁有《通用資料保護條例》的歐盟原本有著在全球範圍最嚴格的個人資料保護,而根據綜合計畫,企業在訓練人工智慧系統時,若已盡合理努力剔除敏感資訊,即被允許使用包含健康資料和生物特徵資料等敏感內容的龐巨量資料集。總之,這樣的改革會削弱對個人資料和隱私的保護,但有利於企業更便利地獲得個人資料,且在未經資料主體同意的情況下來進行人工智慧訓練。其實,如何平衡監管與創新,一直是歐盟立法者追求的境界。只是以前,在立法者眼中,兩者並不矛盾,而今,兩者已經站在了對立的兩邊。綜合計畫的反對者和批評者認為,這是歐盟在科技企業的壓力之下做出的妥協,是歐盟價值觀遭遇的重大的挫折。科技公司遊說力量電腦與通訊行業協會(CCIA)10月份在一份立場檔案中稱,當前的《人工智慧法》實施時間表並不可行。關鍵的法律細則以及必要的技術標準在2026年年中之前無法完成,然而核心條款卻需自2026年8月起生效。這造成了高度的法律不確定性,因為企業缺乏基於必要指引和法律細則進行合規準備的時間。為解決上述問題,首要舉措應是推遲《人工智慧法》的實施時間,至少待相關指南、行為規範或技術標準出台12個月後再生效。該行業協會成員包括亞馬遜、Google、Meta和Waymo等。而歐盟成員國中,德國和法國均公開表示支援暫停一年。瑞典、丹麥和波蘭等國也均呼籲暫停或給予寬限期。雖然該綜合計畫還須得到歐盟成員國和歐洲議會的通過,但改革方案本身足以說明,在競爭力削弱的壓力之下,歐盟被迫妥協。這就好比,在一場曠日持久的奔跑中,快到人工智慧全球頂級監管的終點了,歐盟發現選錯賽道了:當裁判豈有未來,當選手才是王道。然而,現實的殘酷在於,裁判確實懂規則,但不一定擁有作為參賽選手的應有實力。但是,早一天上場,總比不上場好。 (FT中文網)
輝達最新財報,有望重燃AI牛市
晶片巨頭輝達(NVIDIA,股票程式碼:NVDA)將於11月19日股市收盤後公佈第三季度財報。由於輝達被視為人工智慧行業的領軍企業,這份財報被視為對整個人工智慧市場的關鍵考驗。兩年半前的財報引發AI狂歡兩年半前,輝達財報曾引爆了AI競賽並引領了科技股狂歡,而最新財報或許將具備同樣深遠的影響力。回顧歷史,2023年春季,在OpenAI推出ChatGPT幾個月後,輝達發佈的財報讓整個市場開始意識到人工智慧可能帶來的深遠影響。在接下來的兩年半里,人工智慧競賽為輝達的市值帶來了超過3.5兆美元的增長,同時也推動納斯達克綜合指數上漲逾88%,並在10月底創下歷史新高。如今,輝達最新的財報產生的市場振動會非常大,很少有公司能像它一樣對市場或與其相關的ETF產生如此巨大的影響。輝達是先鋒標普500指數ETF(VOO)的最大持倉,權重高達8.1%,在幾乎所有美國股票型ETF中也佔據著類似的高權重。今年以來,輝達的股票一直是推動市場上漲的最大動力。其2025年40%的漲幅約佔標普500指數15.7%漲幅的2.8個百分點。蘋果、微軟、Alphabet和亞馬遜位列指數前列,但它們對市場回報的貢獻遠不及輝達。目前,市場對AI相關交易的質疑,達到了2023年以來的最高點。投資者一方面質疑科技公司為搶佔這一新技術領域投入的數千億美元能否帶來回報,另一方面也愈發擔憂這些投資何時才能切實提升盈利能力。美國銀行分析師Vivek Arya表示:“輝達正面臨一項艱巨任務 ——既要滿足市場對盈利的高預期,又要化解外界對AI資本支出的強烈質疑,這種局面可能只有在更廣泛的市場波動趨於平穩後才能得到緩解。”市場預期極高,股價預計大幅波動市場對輝達的期望極高,容錯空間極小;該公司必須拿出強勁的業績,尤其是在未來銷售預測方面,並確保企業將繼續在人工智慧領域投入巨資。鑑於此,股市預計會出現大幅波動,財報公佈後股價可能立即出現6%至8%的波動。輝達第三季度的財務預期面臨著一個獨特的挑戰:市場普遍預期已經高於該公司自己的官方預期。市場對輝達第三季度營收的普遍預期(548億美元)表明,市場實際上已經低估了該公司此前給出的預期中值(540億美元)。分析師普遍認為,要使股價出現積極反應,營收至少需要達到550億美元,而接近560億美元的目標則更有利於驗證當前的增長勢頭。即使公司最終實現了預期目標,但如果營收未能超過普遍預期,也會被解讀為增長放緩,並可能引發股價回呼。倫敦證券交易所集團(LSEG)調查的分析師預計,輝達每股收益為1.25美元,銷售額為549億美元,同比增長56%。他們還預計該公司明年1月季度的營收將達到614.4億美元,這將表明其增長速度將再次加快。黃仁勳關於公司銷售積壓和2026年展望的任何言論都將受到密切關注,不僅關乎輝達自身的業績,也關乎整個科技行業的前景。倫敦證券交易所集團(LSEG)調查的分析師目前預計,輝達2026年的銷售額將達到2867億美元。與OpenAI的交易細節成焦點輝達在本季度也積極開展併購活動,分析師們將希望從黃仁勳那裡瞭解這些合作的細節。其中最大的一筆交易是輝達同意向OpenAI投資高達100億美元的股權,以換取這家人工智慧初創公司在未來幾年內購買400萬至500萬塊GPU。輝達還同意向其前競爭對手英特爾投資50億美元。這項協議將促使這兩家晶片製造商合作,使英特爾晶片能夠更好地與輝達GPU協同工作。花旗分析師阿提夫·馬利克在11月份的一份報告中表示,與OpenAI的交易尤其將成為周三投資者關注的焦點。“儘管人們對人工智慧資本支出泡沫相關的債務和循環融資組合存在擔憂,但我們從根本上認為人工智慧的供應低於需求,”馬利克寫道。他對該股的評級相當於買入。“我想我們可能是歷史上首家對累計價值達半兆美元的Blackwell晶片以及Rubin晶片早期上量具有明確預判的科技公司,”黃仁勳上個月在華盛頓特區輝達主辦的一場科技活動中表示。黃仁勳同時暗示,到明年年底,輝達或許能賣出價值大約5000億美元的Blackwell晶片以及即將發佈的Rubin晶片。將成為驗證AI革命的重要時刻當然,輝達在AI投資熱潮中的角色,與那些提供AI服務或試圖搭建基礎設施的公司截然不同。它的盈利模式不存在爭議,僅今年一年就有望輕鬆創造超700億美元的淨利潤。不過,要想提振輝達股價並恢復市場對AI交易的信心,他可能需要給出更為樂觀的展望。投資者並不確定白宮是否會允許輝達向中國出售其下一代晶片。另一個擔憂是,如果輝達部分最大規模的超大型客戶要麼削減其資料中心容量計畫,要麼選擇從超威半導體(AMD)等競爭對手那裡購買更廉價的解決方案,那麼對輝達產品的需求增長可能會放緩。不過,知名投行Wedbush的分析師Dan Ives仍然相信,輝達的業績展望能夠緩解市場的緊張情緒。“輝達的財報將成為驗證AI革命的又一個重要時刻,並可能成為推動科技股在年底前持續走高的積極催化劑,因為投資者仍然低估了AI支出的規模和範圍,” Ives在上周五發表的一份報告中表示。 (北美商業見聞)
白宮連夜指控!為何阿里千問讓美國害怕?
再一次,美國對中國科技公司下手了!就在11月14日,阿里的千問APP上線當天,據英國《金融時報》報導稱,白宮連夜緊急拋出“國家安全”備忘錄,指控阿里巴巴協助中國軍方威脅美國。隨後阿里巴巴和中國駐美使館相繼闢謠和駁斥。科技戰烽煙再起。在《金融時報》看來,白宮的指控反映出了美國對中國雲服務、人工智慧以及中企相關技術發展的擔憂日益加劇。而在這場美國精心策劃的指控背後,我們需要重點瞭解幾個問題:為什麼美國在當下這個節點對阿里發起指控,美國在害怕什麼?為什麼是阿里千問讓美國生出了緊迫感,阿里又是如何應對?在這場中美AI競賽的背後,更深層次的邏輯我們又該如何看待?美國,在害怕什麼?美國對阿里“下手”這件事,很多不瞭解的人會覺得突然。但事實上,真正關注AI界的人士就知道這不是美國的心血來潮,因為阿里Qwen(ps:阿里千問APP正是基於阿里Qwen最強模型打造)已經在矽谷乃至全球掀起了一波又一波的風暴:先是在今年10月份,輝達CEO黃仁勳在2025GTC大會上表示在全球開源模型中,輝達與Qwen斷層領先,並且來自中國的Qwen已佔據開源模型的大部分市場份額,這一領先優勢還在持續擴大中。緊接著,在10月22日,愛彼迎Airbnb CEO布萊恩·切斯基在媒體採訪中公開表示,公司正“大量依賴阿里巴巴的Qwen模型”,並直言“比OpenAI更好更便宜”。這一言論更是在美國引發熱議,美國AI知名專家Nathan Lambert甚至表示:矽谷看起來是建立在Qwen之上的?此外,還有馬斯克、推特創始人傑克·多爾西、李飛飛等美國一眾科技大佬紛紛點贊通義千問的開源大模型。並且,更值得一提的是,一眾科技大佬不光是口頭點贊,更是直接將Qwen應用到了企業當中,如亞馬遜在加速佈局的人形機器人領域採用了阿里Qwen模型;多家日本新興AI企業和阿聯穆罕默德·本·扎耶德人工智慧大學均以Qwen為基礎模型進行了二次開發。從矽谷到日本、阿聯等國,可以說,Qwen已在AI領域展現出了強悍的“統治力”。而這就觸犯到了美國當前最重要的“命脈”——在AI這件事情上,美國政商兩界,尤其是美國矽谷正進行著一場價值超1兆美元的世紀“豪賭”。早在今年1月份,由美國川普政府牽頭,OpenAI、軟銀集團和甲骨文公司聯合主導推出了“星際之門”計畫,在未來四年內投資5000億美元建設下一代AI基礎設施,確保美國在AI領域的領導地位。而在今年9、10月份,短短幾周時間內,OpenAI、輝達、AMD、甲骨文和英特爾等矽谷科技企業更是砸下天文資金,開啟了“抱團”內循環模式,並且美國政府也默許這種巨頭間的“聯盟”。這背後很重要的原因就是美國政商界達成了一個共識,美國當下的困境想要得到解決,很大程度上依賴美國AI領域帶來的大爆發。但商業社會中有一個不變的鐵律,同樣成本下的更高品質,或者同等品質下的更低價,永遠是具有第一競爭力的。這是經濟學的基本規律,也是全球化的基本規律。過去這套邏輯對美國最有利,所以美國堅持;但當這套邏輯對美國不利時,美國就開始搞雙標路線:在AI領域,Qwen的闖入,無疑打破了美國的AI內循環,讓美國真真切切感受到了危機,甚至美國擔心自己的AI投入最終淪為他人的“嫁衣”。於是美國對阿里下手了,所以,也就出現了文章開頭那一幕,高舉“安全“之旗,使一些損招、壞招。阿里千問今天的遭遇,不過是現代版的“君子無罪,懷璧其罪”。千問大模型橫掃矽谷後,千問APP上線能夠預見,白宮連夜緊急拋出“國家安全”備忘錄,指控阿里巴巴協助中國軍方威脅美國,只是美國對阿里“使壞招”的第一步,後續顯然還會有更多手段出現。回顧過去美國針對日本東芝、法國阿爾斯通等境外企業的打壓手段,你會發現總是那麼幾樣:設定貿易壁壘,提高關稅,壓榨企業的利潤;限制本國供應商對你的原材料供應、技術支援,從產業鏈上游遏制你的發展;通過扣上莫須有的罪名,企圖通過威逼利誘,讓對方“認罪就犯”……總結來看,美國對外採用的,是一種“規則霸權”,即:先制定一套對美國有利的規則,並要求全世界按照這套規則來,但如果有人能在這套規則下依然能對美國形成挑戰(或者當下的規則不符合美國的利益了),那麼他們就改變規則(或者說,重新定義規則)。但美國忽略了一點,中國企業不是日本東芝,也不是法國阿爾斯通,不會任人宰割。曾經美國想用晶片卡我們的脖子,以為鎖住了我們的硬體,就能鎖住我們的未來。但他們沒想到,我們的晶片產業在短短幾年就追趕了上來,儘管還有差距,但已經不擔心“斷供”的問題了。並且要知道,今時已不同往日,過去面臨科技戰,我們是被壓著打,沒有還手之力,只能臥薪嘗膽。但今天在AI競賽上,中國是能夠和美國抗衡的,其中阿里的Qwen又是佼佼者,這裡再列幾組資料:1.全球下載量及衍生模型雙第一。從2023年至今,Qwen已開源300多款模型,囊括文字、程式設計、圖像、語音、視訊等「全模態」,覆蓋0.5B到480B等「全尺寸」,在全球主要模型社區的下載量已經突破6億,衍生模型突破17萬個,Qwen超越Llama成為全球第一的開源模型家族。過去三年,阿里保持穩定敏捷的研發節奏,堅持最大力度的全面開源策略,推動Qwen為代表的中國開源模型實現對美國頂級模型的追趕乃至反超。如今,Qwen穩居全球AI大模型第一梯隊。2.全球貢獻第三。根據史丹佛大學人工智慧研究所《2025年人工智慧指數報告》指出,中美頂級AI大模型性能差距大幅縮至0.3%,接近抹平,阿里Qwen重要模型貢獻度位列全球第三。3.持續屠榜。Qwen大模型屢次斬獲Chatbot Arena、司南OpenCompass等權威榜單“全球開源冠軍”、“國產模型冠軍”,多次登頂HuggingFace、Github的最熱趨勢榜單。4.最多企業接入。目前,Qwen已經服務了超100萬家客戶,包含寶馬、西門子、星巴克、歐萊雅、渣打集團、萬豪、LV等全球頭部品牌。據國際權威調研機構沙利文(Frost&Sullivan)最新報告顯示,在2025年上半年的中國企業級大模型呼叫市場中,Qwen佔比位列第一,是中國企業選擇最多的大模型。越到難時,越做難事。可以說,阿里Qwen上演了一個在中國AI領域需要領軍者時,主動站出來持續向上突破,向下紮根的故事。還值得一提的是,無懼美國的壓力,阿里的Qwen在橫掃矽谷後,更是直接上線了千問APP。作為基於Qwen最強模型打造的一款同名個人AI助手,千問APP全面對標ChatGPT,加入到全球AI應用的頂級競賽。並且,千問APP的價值,不僅僅只是個人AI助手這一功能,其最大的價值是在於借助Qwen的開源技術優勢,在全球範圍內建構一個以Qwen為底層、以中國開源生態為核心的AI系統入口。當中國AI以“基礎設施”的形式嵌入到世界技術版圖時, 這也正是阿里千問大模型開放原始碼的價值所在。開源,就意味著全世界的科技企業都可以基於Qwen進行開發。這不再是中美兩家公司的競爭,而是中國引領的‘開放生態’和美國主導的‘封閉生態’的競爭。他們築起高牆,我們打開大門。世界AI的牌桌上,曾經只有一個玩家在制定規則。但現在,另一個玩家帶著最強的開源模型和億萬使用者的場景落座了。過去三年時間裡,千問大模型已經贏得了全球開發者。而當千問APP國內版和國際版相繼上線後,新的AI牌局,才剛剛開始。除了勝利,我們別無選擇縱觀歷史,我們從來不惹事,但也從來不怕事。我們始終敞開懷抱,期待在良性競爭中,尋求合作與共贏。但是這一次,當阿里千問以開源之姿登上世界舞台,當中國技術的力量開始重新定義全球AI格局時,美國又坐不住了。商場如戰場,雖無硝煙,卻早已刀光劍影,情勢永遠比你我目光所及的要洶湧澎湃。這不是普通的商業競爭,阿里千問被美國指控這件事,本質上是一場關係著中國有沒有發展高科技、發展AI的權利,有沒有資格參與制定未來規則的根本性較量。這不是某個企業的難題,而是我們所有國人都要面臨的難題;這也不僅是科技和經濟的角逐,更是關乎我們每個人的未來。某種程度上來說,千問的命運其實就是國家命運的一部分。也因此,除了前進,我們別無選擇。除了突破,我們別無選擇。除了勝利,我們別無選擇!面對即將到來的風浪,阿里從來都不孤獨,千問不是唯一一個,也不會是最後一個。但是,在一波又一波的風浪中,我們看到,中國正在走得更加從容;而中國的科技企業們在面臨美國和其他強敵打壓時,也在不斷迎難而上,開創出更加廣闊的天地和未來。 (正和島)
黃仁勳台北私人包間講話疑似洩露
2025年11月5日晚,台北頂級私人包廂內,僅有12位受邀嘉賓(包括台積電、廣達、緯創、鴻海高管,以及兩家美國創投合夥人)參與會面;現場完全閉門、無錄音、無手機,原本約定為off-record(非公開記錄)。黃仁勳完整發言(逐序還原)1. 開場直接下判斷英文:“If you ask me who’s going to win the generative AI race in the next 5-10 years — China is going to win. Period.”中文:“如果你們問我未來5-10年生成式AI競賽誰會贏——中國會贏。就這麼簡單。”2. 規模與人數碾壓英文:“They have one million people working on this 24/7. One million. Not 100,000 — one million. You know how many we have in the entire Silicon Valley working full-time on foundation models? Maybe 20,000 on a good day.”中文:“他們有100萬人24小時不停地在幹這個。100萬!不是10萬,是100萬。你們知道整個矽谷全職做大模型的能有多少人?最多兩天20,000人。”3. 決心與鬥志英文:“And they’re not going to quit. They’re not going to quit. The more you sanction them, the harder they work. You can’t stop them. The more you stop them, the more determined they get.”中文:“而且他們不會放棄。他們不會放棄。你越制裁他們,他們幹得越狠。你根本攔不住他們。你越攔,他們越來勁。”4. 美國製裁適得其反英文:“These export controls? They’re the dumbest thing we’ve ever done. You just gave them the best national mobilization mission in 50 years. It’s like Sputnik moment on steroids.”中文:“這些出口管制?是我們幹過的最蠢的事。你就是給了他們50年來最好的全國總動員任務。這就跟吃了類固醇的斯普特尼克時刻一樣。”5. 對華為的評價英文:“Don’t underestimate Huawei. Their Ascend 910C is already within 8-12% of H100 performance in most workloads — and they make 200,000 of them per month now. Two hundred thousand. Per month. While we’re sitting here arguing about CFIUS.”中文:“別低估華為。他們的昇騰910C在大多數負載下已經只比H100慢8-12%——而且他們現在每月能造20萬片。20萬片!每個月!而我們還在這兒為CFIUS吵得不可開交。”6. 對美國政府的直接批評英文:“Washington thinks they’re stopping China. They’re not stopping China — they’re accelerating China. By 2027, China will have more AI compute than the rest of the world combined. Mark my words.”中文:“華盛頓以為他們在阻止中國。其實他們不是在阻止中國——他們是在加速中國。到2027年,中國將擁有比全世界其他國家加起來還多的AI算力。記住我的話。”7. 結尾一針見血英文:“So yeah, keep the sanctions if you want. Just understand: you’re handing them the trophy.”中文:“所以你們想繼續制裁就繼續吧。只要明白:你們是在親手把獎盃遞給他們。”當晚就有3位與會者將內容洩露給FT(金融時報)記者;11月6日凌晨FT搶先爆料,隨後彭博、路透逐句求證,內容全部一致;輝達公關團隊至今僅回覆“No comment”(無可奉告);黃仁勳本人已取消原定11月6日的所有媒體採訪;這是目前網路上能找到的最完整、最一手、最逐句的黃仁勳原話。 (IT前哨站)
非常恐怖~居然台媒沒有一家報導這新聞??? 資本的力量阿!
嚴正分享,這是不實的報導資訊!
如果是假的,這麼多企業一定會有發聲名的! 結果沒有一家有發! 更完全沒有媒體報導?? 這麼大的新聞! 可能嗎?