#AI競賽
DeepMind CEO 在 CNBC 算 4 筆帳:這輪 AI 競賽,錢到底花在那?
最近 AI 圈最熱的詞,已經不是更強,而是更賺錢。2026 年 1 月 16 日,CNBC 新上線了一檔播客《The Tech Download》,定位很明確:不談概念,只談錢。第一期請到的嘉賓,是 Google DeepMind 的 CEO Demis Hassabis。Hassabis 沒有談技術概念,而是在算四筆投資帳:AGI 缺的能力,該投什麼模型商業化,成本花在那能源瓶頸,資源配在那AI 競爭,優勢建在那這四筆帳,指向同一個核心:這輪 AI 競賽,錢到底該花在那?第一筆帳|AGI 還缺什麼能力?專訪剛開始,主持人問出一個所有人都關心的問題:我們的大模型已經這麼強了,還能更好嗎?AGI 是不是快到了?Hassabis 的回答是:大模型的能力,其實有明顯短板。他說,這些 AI 工具在某些問題上能給出驚豔的表現,但你換個問法,或者稍微複雜一點,它立刻就不行了。他把這叫做:參差不齊的智能(jagged intelligences)。說白了,這種智能還不夠靠譜。能答題,但不能舉一反三;能寫論文,但不能自己提一個真正新的點子。1、通用智能,得能自己提問題Hassabis 認為,真正的通用 AI,必須具備一項能力:能自己提出問題,能假設世界可能如何運轉,然後想辦法去驗證它。也就是說,它不能只是答你問題,還得能自己思考問題是什麼。他說,現在的大模型,連持續學習都做不到。你教會它一件新事,它很快就忘了;它不會像人一樣積累經驗。這也是為什麼,DeepMind 近兩年開始把重點從 LLM 轉向另一個方向:做一個懂得世界如何運轉的 AI。2、世界模型,不是懂語言,是能想像他用很通俗的方式講了世界模型這個概念:“就像人類科學家,能在腦海中推演如果這樣,那會發生什麼,AI 也得具備這種能力。”不是理解你說什麼,而是能根據它自己對世界的認識,去預測接下來會發生什麼、什麼東西會影響什麼結果。這聽起來有點抽象,但它已經落地到了 DeepMind 的幾個核心方向裡:Genie: 能與虛擬環境互動的模型,相當於在玩遊戲的同時理解規則AlphaFold: 當年用 AI 去預測蛋白質折疊結構,其實也是讓模型理解形狀為什麼會變成那樣Veo: 文字生成視訊,不是湊鏡頭,而是讓 AI 根據因果關係決定下一秒畫面該變成什麼這些看起來不一樣的項目,其實在做同一件事:讓 AI 像人一樣理解世界,而不是只會背答案。3、AGI 不靠湧現,靠組合Hassabis 相信:單純擴大模型規模,不會自動產生通用智能。真正有可能做出 AGI 的,是讓多個模型各司其職、協同工作:LLM 負責語言和基礎理解視訊模型負責時間序列、物理直覺世界模型提供模擬、推理、預測的能力只有這些能力拚圖逐步接上,通用智能才會是可靠的,而不是看起來聰明但漏洞百出。對大多數人來說,AGI 是比人更聰明的 AI;但對 Hassabis 來說,AGI 是能自己提出新想法的 AI。這就是 DeepMind 把世界模型當成下一步主線的原因。它不只是一個新模型,而是一個核心能力:能不能站在世界的角度去理解,而不是被動回答。第二筆帳|模型怎麼賺錢?不是更強,是更划算技術路線是一回事,但商業落地是另一回事。AI 要走向通用,不只是越來越聰明,還要用得起。Demis Hassabis 講了 DeepMind 的產品策略:不是只推 Pro 版,而是同時做 Flash 版。這不是大小模型的高低之分,而是為了讓更多場景能用得起。能大規模部署、覆蓋場景的模型,必須夠輕、夠快、夠省。1、Flash:用強模型教出主力模型Hassabis 形容:用最強的模型訓練出一個更高效的版本,就像用大腦教出一個更靈巧的分身。這個過程在技術上叫蒸餾,但他更關注的不是技術本身,而是能否落地:訓練出來的模型可以被廣泛部署,成為主力使用的版本。比如 Gemini 模型線:Pro 版本,是給複雜場景或前沿應用準備的Flash 版本,是給終端使用者、高頻任務提供服務的2、商業化不是賣模型,而是讓模型進產品“AI 不該永遠停在網頁對話方塊裡。”Hassabis 說:未來我最看好的方向之一,是讓 AI 真正進入手機、眼鏡這些裝置裡。也就是說,未來不是你去找 AI,而是 AI 就在你手邊、螢幕裡、日常動作之間。DeepMind 已經和三星、Warby Parker 等品牌展開合作,探索裝置端 AI 的可行性。這說明 DeepMind 的商業路線,不只是 API 售賣,更看重模型與產品深度結合。3、AI 不止省人力,還要省資源Hassabis 說,效率是 Gemini 全線設計時的最高優先順序,尤其是 Flash 系列。推理更快能力更平衡能耗更低DeepMind 對 AI 商業化的看法不是卷功能,而是算總成本:一個模型能做什麼不重要,重要的是它能成本可控、能落地、穩定可靠。從 Flash 的設計、蒸餾策略,到裝置端合作、能效優先,Hassabis 給出的不是模型路線圖,而是使用路線圖。他沒有強調模型有多強,而是圍繞:怎麼讓 AI 被真正用起來?這才是商業化起步的基礎。第三筆帳|能源問題,AI 能自己解決嗎?Flash 版本解決的是模型本身的能耗,但這還不夠。Demis Hassabis 明確表示:隨著我們走向 AGI,能源將等同於智能。智能越強,耗電越大。這是繞不開的物理規律。1、AI 不缺模型,最缺的是電不夠晶片永遠不夠。Hassabis 直言,即使 Google 有自己的 TPU 系列和 GPU,全球的計算晶片仍然供不應求。追根溯源,真正的瓶頸是能源:GPU 再多,也要靠電運行資料中心再大,也受限於電力供應模型再強,如果成本壓不下來,也只能停留在實驗室這不只是 Google 的問題,而是整個行業的天花板。當每家公司都在競相擴大算力、訓練更強的模型時,能源供應能不能跟上,決定了誰能真正把 AGI 從實驗室帶到現實世界。而這一點,正在成為 AGI 能否大規模應用的關鍵障礙。2、DeepMind 另一個野心:用 AI 去找能源如果 AGI 需要海量能源,那就讓 AI 自己去解決。DeepMind 的策略分兩個方向。開源:生產新能源與美國 Commonwealth Fusion 公司合作,用 AI 控制核聚變反應堆中的電漿體。核聚變一旦實現,將提供幾乎無限的清潔能源。Hassabis 的個人項目:能不能靠 AI 找出室溫超導材料。如果成功,將徹底改變電力傳輸和儲存方式。重新設計太陽能材料,大幅提升能源轉化率。節流:提高能源效率最佳化電網、資料中心、能源系統的運行效率,減少浪費尋找降低能耗的新型晶體結構幫工業最佳化生產路徑,減少不必要的能源消耗AI 不只會消耗資源,它也可以反過來推高資源效率。這不是第一次。從 AlphaFold 預測蛋白質結構,到現在尋找能源突破,Hassabis 始終相信:AI 是科學發現的終極工具。當每家公司、每個企業都要部署自己的大模型,競爭的關鍵變了:誰能讓AI更省電,誰就能部署更大規模誰能把每度電用得更值,誰就能活得更久最終,智能不是在比聰明,而是在比划算。能源供應能不能跟上,決定了這場技術升級能走多遠。而 DeepMind 的答案是:讓 AI 自己去解決能源問題。第四筆帳|競爭的關鍵:整合、部署、活下來技術路線之外,還有競爭格局。過去幾年,OpenAI 在消費端領先。憑藉 ChatGPT,迅速繫結微軟,推出 API、外掛、GPTs 商店。Google 顯得慢了半拍。但 2025 年底,風向變了。Gemini 3 上線時,同步進入 Google 搜尋、Android系統、Gmail、Workspace……全線鋪開。Hassabis 透露:過去兩三年,他做的最大變化不是研發方向,而是內部整合。1、DeepMind :從研究所到引擎室過去三年,Hassabis 只專注一件事:把 Google Research、Google Brain、DeepMind 三支團隊整合成一個 Google DeepMind。這不只是團隊整合,還包括重建Google的整個 AI 基礎設施。整合的結果:所有 AI 技術由 DeepMind 統一開發技術完成後,直接擴散到Google所有產品中Hassabis 與 Sundar Pichai(Google CEO)幾乎每天對話,決定技術方向和產品配置過去是三個團隊分頭做 AI,路線重疊、資源分散。現在是一個引擎室,統一調度。更關鍵的是速度。 Hassabis 說,他們每天調整路線圖和計畫。這不是大公司的穩健打法,而是初創團隊的衝刺節奏。目標只有一個:快速且安全地實現 AGI。Google AI 產品發佈效率實現了質的提升。2、模型強,部署要更快為了實現快速部署,DeepMind 建立了一個“骨幹網”,讓 AI 技術能夠快速擴散到Google所有產品中。Hassabis 把 Gemini 3 的發佈節奏形容為同步投放:模型訓練完成,第二天就能上線到搜尋、Gmail、Workspace不用二次改造,不用跨團隊溝通,一步到位這在以前是做不到的。Hassabis 說,他們在 Gemini 2.5 時才真正進入這個狀態。在此之前,模型和產品之間還有大量銜接工作。這種效率來自兩個優勢:第一,DeepMind 掌握從晶片到模型的完整技術堆疊。技術自主,不用等外部配合。第二,Google 的產品矩陣本身就是現成平台。搜尋、Android、Chrome、YouTube……AI 能力可以立刻接入,同步推送到數十億使用者。當 OpenAI 還在一個個談合作時,Google 已經完成了部署。Hassabis 說,接下來 12 個月,AI 能力會擴散到更多 Google 產品中。3、中國AI,落後幾個月意味著什麼談到中國的 AI 發展時,Hassabis 認為:中國領先實驗室,可能只落後幾個月。這意味著:在訓練效率、模型能力、部署速度上,差距正在快速縮小。DeepSeek 的低成本訓練方案、阿里巴巴的開源模型,都展示了中國團隊的工程能力和追趕速度。同時,Hassabis 也指出了下一個階段的關鍵:從復現技術到原創突破。他認為,發明一個新技術的難度,可能是復現它的100倍。中國實驗室已經證明了復現能力,接下來的問題是:能不能像當年發明Transformer那樣,創造出新的架構或方法?這不只是對中國的問題,也是對所有 AI 實驗室的挑戰。對所有想贏的 AI 玩家,Hassabis 指出:不是誰發佈得多,而是誰能讓產品真正跑起來不是誰融資多,而是誰能在泡沫之後還活著OpenAI 壓力很大,Anthropic 產品也很快,中國模型確實在追。但 DeepMind 的打法不是分散應對,而是整合優勢:統一的產品線、自有的平台、一步到位的部署。在 AI 這場長跑裡,活下來比跑得快更重要。結語|這輪 AI 競賽,錢該花在那四個地方Demis Hassabis 給出了四個方向:技術上,投資能理解世界、提出新想法的能力,不要只堆資料商業上,投資模型的部署效率,而不只是追求性能資源上,投資能源技術和能效最佳化,智能規模取決於每瓦電的價值競爭上,投資整合能力和產品閉環,而不只是發佈速度這四筆帳,DeepMind 給出了自己的答案。其他玩家怎麼選,決定了他們能走多遠。 (AI深度研究員)
資料中心背後民怨沸騰,微軟給馬斯克上了一課
在這波AI軍備競賽中,美國科技巨頭們爭先投入巨資,在各地興建動輒百億美元的資料中心。但與此同時,圍繞著資料中心所需規模龐大的電力與水資源,科技巨頭與社區民生之間的矛盾也在逐漸顯現,引發了當地居民的不滿與抵制。現在微軟交出了一個標準答案,展示了科技巨頭應該怎樣負責任地打造資料中心,實現科技創新與民生就業之間的雙贏。這一波,馬斯克跟不跟?不要補貼不要退稅昨天,微軟總裁布萊德·史密斯(Brad Smith)正式發佈了名為“社區優先AI基礎設施”的計畫,提出在興建資料中心時拒絕電力補貼,減少用水,不要退稅,解決就業,反饋社區等五點承諾。該計畫旨在讓微軟成為社區的“好鄰居”,確保AI基礎設施發展帶來的益處大於成本,並惠及當地居民。這家科技巨頭承諾,未來在建設和營運資料中心時,將確保:不會提高當地居民的電價,主動承擔因資料中心產生的額外電力成本,拒絕當地電價補貼;通過高效冷卻技術,儘可能減少用水量,投資當地水利系統,回饋比使用量更多的水資源;為當地居民切實創造就業機會;為當地醫院、學校、公園和圖書館增加稅收基礎,拒絕任何招商稅收減免;通過投資當地AI培訓和非營利組織來加強社區建設。史密斯在聲明中坦承:”事實是,只有當社區認為收益大於成本時,基礎設施建設才會推進。而我們正處於一個人們有很多顧慮的時刻。"他列舉了公眾對資料中心的擔憂:”他們擔心電價上漲,擔心影響他們的供水。他們看著這項技術,問它對未來的工作意味著什麼?對今天工作的成年人意味著什麼?對他們的孩子意味著什麼?"重要的是,微軟在幾個具體地區已經開始踐行這些承諾。在亞利桑那州,微軟與市政當局合作尋找和修復管道洩漏,幫助社區減少淡水損失。該公司還在該州和威斯康星州芒特普萊森特的資料中心試點閉環冷卻系統,有效地將水消耗降至零。微軟表示,將使零水冷卻成為其自有投資組合中的”主要冷卻方法"。微軟的承諾得到了美國總統的點贊。川普在社交媒體和公開場合表態稱,他不希望美國民眾為大型科技公司資料中心的電費上升埋單,強調科技巨頭應該為自身的能源消耗“買單”,而微軟是第一個響應號召的科技巨頭。微軟此舉在美國科技界引發了廣泛熱議。因為它觸及了一個日益嚴峻的社會問題:在AI軍備競賽的大環境下,科技巨頭們正在全美乃至全球範圍內大舉建設資料中心,但這些龐大的設施卻沒有給當地居民帶來相應的經濟收益,反而給社區民生帶來了沉重的資源負擔。資料中心熱潮下的社區困境要理解微軟為何做出這樣的承諾,需要先瞭解資料中心興建熱潮下,美國各地社區正在經歷的困境。美國科技巨頭正在進行史無前例的資料中心競賽,投資規模遠超此前預期。2025年,微軟、亞馬遜、Google和Meta四大巨頭的資本支出總額預計將高達4000億美元,其中四分之三直接用於AI基礎設施建設。而且這場軍備競賽還在加碼升級。根據CreditSights預測,五大超大規模雲服務商(加上甲骨文)今年總資本支出將超過6000億美元,較去年增長36%,較前年增長135%。高盛預計,從2025年到2027年,超大規模雲服務商的累計資本支出將達到1.15兆美元,是2022-2024年間的2.4倍。這種前所未有的投資規模已接近資本密集度的歷史極限。但另一方面,資料中心的電力消耗也以驚人速度增長,對美國能源系統構成前所未有的挑戰。根據國際能源署(IEA)和美國能源部勞倫斯伯克利國家實驗室的最新研究,2024年美國資料中心的總耗電量約為183太瓦時,佔全國總用電量的4.4%。隨著這波資料中心投資熱潮,預計2026年美國資料中心耗電量將超過250太瓦時,2030年更將達到400-426太瓦時,佔美國總用電量的6.7-12%。美國能源資訊署的報告預計,資料中心用電負載增長在過去十年中增長了兩倍,預計到2028年將再翻一番甚至兩番。在資料中心大幅推高電力需求的同時,美國的發電量增長卻並沒有顯著增長,這就帶來了潛在的居民用電危機。更令人擔憂的是電價的飆升。彭博社去年9月統計,在資料中心密集的地區,批發電價在五年內上漲了高達267%。而在全美範圍內,居民電費在2025年比前一年上漲了13%。美國國會議員去年12月致信七家科技公司,指責它們將數十億美元的基礎設施升級成本轉嫁給普通美國人。信中寫道:"我們寫這封信是因為有令人震驚的報導稱,科技公司正在將建設和營運資料中心的成本轉嫁給普通美國人,因為AI資料中心的能源使用導致附近社區的居民電費飆升。"水資源的消耗同樣令人憂慮。勞倫斯伯克利國家實驗室估計,2023年美國資料中心用於冷卻的水量達到6440萬噸,預計到2028年這一數字可能翻倍甚至翻兩番,達到1.29-2.58億噸。而用於發電的間接用水量更是高達7.99億噸,是直接用水量的12倍。休斯頓大學的研究發現,德克薩斯州的資料中心去年的耗水量可能高達1.85億噸,到2030年可能增至15.1億噸——這相當於將美國最大的水庫米德湖的水位在一年內降低5米以上。更令社區居民失望的是就業前景。雖然資料中心在建設期能創造大量建築工作崗位,但一旦投入營運,所需的長期員工數量極為有限。一個典型的大型資料中心可能只需要50到100名全職員工。亞利桑那州的殘酷現實美國亞利桑那州的情況最能說明問題的嚴峻性。鳳凰城地區因為相對寬鬆的環境和勞動政策、較低的電價、稅收優惠以及位於德克薩斯到南加州的主要光纖管道上等優勢,部署著約707兆瓦的IT容量,成為各大巨頭興建資料中心的首選之地。微軟、Google和Meta等公司都在該地區建有資料中心。然而,就在這些科技巨頭大量消耗資源的同時,附近幾十公里外納瓦霍保留地上的許多原住民卻仍然生活在沒有電力供應的環境中。《華盛頓郵報》一篇報導講述了亞利桑那資料中心附近的居民故事。原住民保留地卡梅倫(Cameron)是美國最大的無電力地區之一。這裡雖然有充沛的太陽能,卻因為地廣人稀,沒有企業願意投資興建發電站,也沒有供電網路。居住在這裡的1.5萬家庭似乎生活在上世紀,沒有空調,沒有冰箱,照明只能依靠太陽能等,長期依靠罐頭食品,因為在沙漠酷熱中,未冷藏的農產品很快就會腐爛。這種極端的資源不平等,與幾十英里外耗電量巨大的資料中心形成了鮮明對比。雖然科技巨頭們並沒有義務投資改善當地居民的生活水平,當地基礎設施落後也不是他們的責任,但資料中心巨大的耗電和耗水量,還是招致了當地居民的強烈不滿。在南部亞利桑那州,圖森和馬拉納兩個資料中心項目的審批過程引發了激烈的社區抗議。圖森市議會曾因擔心對城市水資源的壓力和環境影響,一致否決了Beale基礎設施公司的”藍色項目"資料中心提案。該項目原本需要使用水冷系統,每年需要消耗1300萬噸水,相當於2.5萬個家庭的用水量。這引發了當地居民的憤怒,因為當地本就嚴重缺水。在遭到否決後,Beale決定改用空氣冷卻,並與當地電力公司採購近300兆瓦的電力——足以為大約4.5萬個亞利桑那家庭供電。這又引發了當地居民關於電力短缺與電價上漲的擔憂。雖然Beale公司承諾帶來50億美元的資本投資、1.45億美元的城鎮稅收和4200個建築工作崗位。但反對者擔心,短期的建築工作和稅收收入,無法彌補長期的電價上漲和資源壓力。批評者認為,這種招商機遇是以社區長期福祉為代價的。馬斯克追求效率自造電廠如果說亞利桑那州的情況展現了資料中心與社區資源之間的緊張關係,那麼馬斯克的xAI公司在田納西州孟菲斯的做法,則將這種矛盾推向了極端。馬斯克為了加速其人工智慧超級電腦”巨像"(Colossus)的建設,採取了一系列非常規手段,甚至從海外購買整座發電廠運到美國。2024年9月,xAI在孟菲斯一座廢棄工廠啟動了超級計算中心。這台據稱是世界上最大的AI訓練平台,最初配備10萬個輝達GPU,三個月後擴展到20萬個,xAI計畫最終將其擴展到100萬個GPU。為了滿足巨大的電力需求,xAI向孟菲斯電力公司採購了150兆瓦的電力——足以為10萬個家庭供電。但150兆瓦的供電量遠遠不夠。在等待正式電網連接期間,xAI部署了超過40台可攜式天然氣渦輪機,總功率超過400兆瓦。南方環境法律中心指出,這些渦輪機每年排放1200至2000噸形成霧霾的氮氧化物,使該設施”可能成為孟菲斯最大的氮氧化物工業排放源"。田納西大學諾克斯維爾分校的研究人員發現,xAI開始營運後,設施周圍地區的二氧化氮峰值濃度增加了79%。更令人震驚的是,xAI在沒有獲得必要空氣許可的情況下就開始營運這些渦輪機。該公司利用了當地一個監管漏洞:允許臨時渦輪機在一個地點運行不到一年而無需許可證。2025年1月,在營運數月後,xAI才向謝爾比縣衛生部門申請15台渦輪機的許可證。在去年4月的公開聽證會上,生活在巨像設施附近的居民抱怨空氣質量問題,表示他們因生活在孟菲斯這個污染嚴重的地區而患有慢性呼吸系統疾病。一位女士說她聞到"除了正確的東西之外的一切,而正確的東西就是清潔的空氣"。這個設施位於孟菲斯西南部,這是一個以黑人社區和糟糕空氣而聞名的地區,周圍還有其他17個污染設施,包括煉油廠、鋼鐵廠和燃氣發電廠。孟菲斯反污染社區組織主席凱肖恩·皮爾森(KeShaun Pearson)說:”允許xAI在孟菲斯西南部持續損害我們肺部的持續政策暴力是不道德的。我們應該得到清潔的空氣,而不是無聲的窒息。"馬斯克在2025年7月證實,為了進一步擴張算力,xAI正在從海外購買一座完整的發電廠並運到孟菲斯,這是容量高達2吉瓦的天然氣聯合循環燃氣輪機發電廠。馬斯克表示,在美國建造這樣的設施需要太長時間,所以他選擇快速推進項目。去年年底,xAI又宣佈在密西西比州購買第三塊地用於資料中心,預計總計算能力將接近2吉瓦——用電量相當於150萬美國家庭。這體現了馬斯克一貫強調效率優先的風格。這種營運風格也讓他與監管嚴格、注重環保的加州民主黨政府產生嚴重矛盾,促使馬斯克在過去幾年將旗下幾乎所有公司的營運和投資都轉到德州、田納西州等監管寬鬆的共和黨紅州。其他科技巨頭的做法相比馬斯克的激進做法,亞馬遜、Google和Meta等科技巨頭雖然更加注重環保形象,但它們在資源消耗方面同樣引發了廣泛爭議。Google2023年在全球的營運消耗了約2420萬噸水,其中95%(約2310萬噸)被資料中心使用。該公司在愛荷華州康瑟爾布拉夫斯的資料中心2024年消耗了約378.5萬噸水,是其所有資料中心中用水量最多的。Meta的情況類似,2023年全球消耗約308萬噸水,其中95%(約294萬噸)用於資料中心。2021年,Meta的資料中心從全球範圍內抽取了約492萬噸水,其中約139萬噸來自水資源嚴重緊張的地區。這些公司都設定了到2030年實現"水正效益"的目標,即通過在其他地區投資流域恢復和清潔水項目,回饋與使用量相當的水資源。但批評者指出,這種"水補償"並不像碳補償那樣有效。水資源問題是局部性的,改善一個地區的水資源獲取並不能幫助失去水資源的遙遠社區。更令人擔憂的是這些公司在資料透明度方面的不足。許多公司將水使用量視為專有資訊,當地公用事業公司通常拒絕發佈客戶特定資料,這使得社區和監管機構難以評估對當地水供應的真實影響。在德克薩斯州水資源委員會調查資料中心用水情況時,只有三分之一的營運商做出了回應。在俄勒岡州的達爾斯,Google只有在遭到訴訟後才披露當地資料中心2021年直接使用了135萬噸水——超過該市總供水量的四分之一。亞馬遜的情況更加複雜。儘管該公司聲稱其資料中心用水量遠低於服裝製造或牛肉生產,但調查顯示,亞馬遜在西班牙阿拉貢地區計畫建設的三個新資料中心每年將使用約75.57萬噸的水——大約足以灌溉233公頃玉米。而且這個數字還不包括用於發電的水。非營利調查組織SourceMaterial的調查發現,亞馬遜、微軟和Google正在世界上一些最乾旱的地區營運和建設大量資料中心,對已經面臨水資源短缺的當地人口造成巨大影響。倫理科技協會創始人洛雷娜·豪梅-帕拉西(Lorena Jaume-Palasí)表示:"水資源問題將變得至關重要。從資源角度來看,這些社區的韌性將非常困難。"抗議迫使Google放棄投資面對科技巨頭的擴張,越來越多的社區開始組織起來進行抵抗,拒絕科技中心來自己的家園投資興建資料中心。居民們意識到,資料中心帶來的短期稅收和建築工作,遠遠不能補償長期的資源壓力、電價上漲和環境惡化。在印第安納州的印第安納波利斯,Google曾計畫建設一個佔地約190萬平方米的大型資料中心園區。該項目引發當地居民強烈反對,他們擔憂資料中心將長期消耗大量水資源和電力,卻只能帶來數量有限、以技術崗位為主的就業機會,對社區的實際收益有限。在遭受長達數月的抗議之後,Google最終在去年9月的聽證會上宣佈放棄這一投資計畫。當地居民在現場隨即爆發出歡呼聲,他們成功抵制了這一資料中心項目。在威斯康星州的梅諾莫尼(Menomonie)附近,一個資料中心興建項目引發了民眾的抵制。人們反對在優質農田上建設,並對缺乏透明度表示擔憂。在路易斯安那州東北部,Meta投資100億美元的Hyperion設施正在建設中,居民不斷抗議抱怨交通增加以及學校和住宅附近的安全風險。長期就業機會同樣是民眾不滿之處。芝加哥大學電腦科學教授安德魯·奇恩(Andrew Chien)表示:"由於大部分前期投資都是關於基礎設施的,投資對美國經濟非常有利。"但他補充說,社區面臨的挑戰是如何將這些初始投資轉化為長期利益,比如高薪工作。由於營運資料中心不需要很多人,一旦建成,這些設施通常不能支援很多永久性工作崗位。正是在這樣的背景下,微軟的五點承諾計畫顯得尤為重要。該公司不僅承諾不要求電價補貼或稅收優惠,還主動表示將支付足夠高的電價以覆蓋資料中心的成本,確保這些成本不會轉嫁給當地居民。微軟還承諾到2030年實現資料中心用水強度改善40%,並將補充比使用更多的水。在就業方面,微軟計畫為建築工人和資料中心營運商提供培訓,並投資當地AI教育和非營利組織。AI時代的社會契約資料中心熱潮折射出更深層次的問題:在AI時代,科技公司與社會之間需要建立怎樣的契約?科技巨頭們聲稱AI將帶來巨大的經濟效益和社會進步。微軟CEO薩提亞·納德拉(Satya Nadella)將AI稱為"通用技術",類比為電力或電腦晶片,認為它將推動多個經濟部門的生產力。但問題在於:誰來承擔這種進步的成本?誰又將享受其收益?當前的現實是:成本由社區居民承擔——更高的電費、更緊張的水資源、更糟糕的空氣質量、被破壞的農田;而收益主要由科技公司及其投資者獲得——數兆美元的估值、豐厚的利潤、壟斷性的市場地位。這種不對等的分配是不可持續的,也是不公正的。微軟的五點承諾提供了一個答案的框架:科技公司必須為其資源消耗付費,必須創造本地就業,必須回饋社區,必須承擔環境責任。但這個框架需要從自願承諾轉變為強制性要求,需要從個別公司的善意轉變為整個行業的標準。美國國會等人對科技巨頭的質詢,以及各地社區的反抗,都表明公眾已經開始要求重新談判這份社會契約。資料中心不應該是搾取資源的黑洞,而應該成為真正造福社區的基礎設施。這需要更嚴格的監管、更大的透明度、更公平的成本分擔,以及更多地考慮當地社區的長期利益。現在,微軟給所有科技巨頭樹了一個榜樣。他們需要證明,AI的未來不是建立在社區的犧牲之上,而是建立在真正的共贏基礎上。但真正的考驗是:其他科技巨頭會跟進嗎?更重要的是,這些承諾會真正兌現嗎? (新浪科技)
史無前例!中國人形機器人震驚世界
一場“科技春晚”,居然意外成了全球AI競賽的舞台。更讓人震驚的是,中國人形機器人企業史無前例的“霸場”。21家企業參展機器人佔比過半,這一數字幾乎是美國參展企業數量的4倍,而韓國僅有5家,日本、德國、英國、法國則各僅有1家代表。智元、宇樹、眾擎、天工等機器人全明星天團都來了,這是中國機器人企業組團亮相規模史上最大的一次。機器人格鬥、人機同台互動、賽博遛四足狗,跳操、熱舞、遞名片......中國機器人,不知不覺間已從實驗室走向真實的市場和生活。馬斯克的人形機器人夢,中國先一步照進現實。值得一提的是,初代機器人鼻祖波士頓動力,歷時13年終於帶著準備“進廠打工”的量產版電動 Atlas 亮相;作為對比,智元機器人成立才2年多的時間,就已經可以年交付5000台機器人了,更別說早已深耕機器人領域多年的宇樹科技了。這次機器人技術的線下比拚,看似是中國機器人軍團在“圍剿”波士頓動力,實則更像是單方面的“吊打”。就拿智元機器人來說,全系列產品“參戰”,首次公開亮相的啟元Q1,更是一款集大動作、大智慧、大可玩性於一體,卻擁有小巧身形的科技夥伴。剛剛,智元還放了大招——開源核心平台Genie Sim 3.0正式發佈,人人都可以是華為天才少年“稚暉君”。作為中國機器人的代表之一,智元向世界展示著中國機器人的精髓:真正的科技進步,應該不止能看得見,更加可以體驗。以小看大,人形機器人,或將成為中國科技的又一制高點。01全球最具影響力的科技盛會、素有“科技春晚”之稱的國際消費電子展CES,在美國拉斯維加斯正如火如荼。這次以AI為主題,火爆的展台幾乎都和AI原生相關,且都從炫技進入場景大規模落地階段。讓AI更快落地,這恰恰是中國的優勢。舉個例子,在展館裡一分神你可能會以為自己還在中國。因為,在這個超4000家企業參展事物全球性盛會上,中國企業的數量多達四分之一,不少展台邊被清一色的華人面孔圍觀包場。更可怕的是,像當初巴黎車展中國車企霸展一樣,宇樹科技、智元機器人、銀河通用、雲深處、眾擎、傅利葉、魔法原子、逐際動力、擎朗智能、優裡奇、星動紀元、天工機器人等中國企業的扎堆參展,讓中國機器人成為全場矚目的“流量擔當”。宇樹科技帶來的G1人形機器人在展會現場上演熱血拳擊格鬥;智元機器人展示了全系列產品線,包括靈犀 X2、遠征 A2、精靈 G2、啟元Q1等明星產品;傅利葉展示了新一代全尺寸人形機器人Care-bot GR-3;加速進化帶來的Booster K1機器人模仿舞獅進行表演。從功能演示到場景落地,中國具身智能企業用一場高密度技術秀迅速點燃現場人氣,全方位展現了中國在機器人領域的技術底氣。值得一提的是,開年第一重磅,黃仁勳在CES上特別提及了智元機器人,這是全場唯一被點名的中國機器人企業。他為何如此關注智元,答案在於此次CES上,智元系統地向世界展示了其建構具身智能生態的完整實力。02全球首個個人機器人,由你定義。在過去的兩三年,人形機器人正以前所未有的速度走向成熟。從實驗室裡的概念原型,到真實世界中的服務助手,它們正在一步步地走進我們的生活。目前市面上已有很多人形機器人,有1米7左右的全尺寸人形,和成人體型接近,在商業服務等場景中實現著人機互動;也有1米2左右的中尺寸人形,和小朋友體型差不多,尺寸越小運動性能越高,動作靈活的它們更適合應用於特殊場景;可對個人而言,也許期待著更方便更精緻的小尺寸機器人出現?於是,啟元Q1應運而生。2025年末,智元機器人聯合創始人彭志輝(稚暉君)攜手上緯新材推出全球首款全身力控小尺寸人形機器人啟元Q1,就像17年前賈伯斯把筆記型電腦裝進信封的經典時刻,如今稚暉君將完整的機器人技術,濃縮到了能塞進書包的體積裡,這款機器人的微型化,並非單純的尺寸縮減,而是在保留全尺寸人形機器人核心能力的前提下,力求大幅降低科研成本與物理互動的技術門檻。稚暉君坦言,炸的輕,練的穩,這才是科研該有的節奏。當機器人變小,世界的物理法則也變得溫柔。是啊,小體型,就意味著更低的試錯成本,更高的迭代效率。大多數機器人技術只能在實驗室裡進行,而小尺寸機器人卻把整個實驗室“放進”了背包裡,這又何嘗不是另一種技術變革。此刻,它不再具象於一個機器人,更像是你探索具身智能技術的第一台“畢業機”。科技在變,萬物互聯的目標一直在篤行著;互動終端在變,智能體也在進化,也許未來的智能互動終端,可能是一個跟你長得很像的機器人呢?03人人可參與,人人可實現,人人都能成為“華為天才少年”稚暉君。昨天,智元新一代Genie Sim 3.0開源模擬平台正式發佈,平台能通過自然語言指令,快速生成海量訓練場景,並全量開源上萬小時真機模擬資料集,旨在顯著降低全球開發者的研發門檻,加速技術迭代。前不久,智元機器人與大模型MiniMax正式達成戰略合作,MiniMax將為智元機器人提供端到端文字到語音(TTS)全流程技術支援,通過定製化提示詞策略實現“千人千面”的音色合成,並支援機器人人設體系的動態調整。簡單來說,當你向家庭機器人下達指令時,它不再用千篇一律的合成音回應,而是根據你的使用習慣、情緒狀態甚至當天天氣,自動切換成溫柔的“管家音”或活潑的“夥伴音”——這一場景正在從科幻走向現實。從此前發佈的讓機器人能持續進化的SOP系統,到“千人千面”的語音互動,再到開源Genie Sim 3.0建構生態基石,智元在清晰地向世人展示,它不僅是頂尖的機器人製造商,更是通用機器人生態的建構者。通過開放核心工具,推動全球創新力量,共同加速具身智能的未來。其實,智元的技術實力,已得到多維度驗證,其機器人不僅登上湖南衛視跨年舞台,更在央視上與戲曲名家同台,成功演繹複雜角色。值得一提的是,智元機器人早已步入規模化商用階段,截至2025 年底,公司整體出貨量已突破5100台。更難得的是,稚暉君還宣佈,智元會向高校、創業團隊等科研群體開放開發工具包和介面,正是有了這些科研群體的同心協力,中國人形機器人才能霸屏海外,中國機器人技術才能引領於世界。04說起來,人形機器人還是日本先搞出來的,但卻始終停留在高級電子玩具的層次。韓國也在搞,波士頓動力自誕生起,就是全球機器人研製的標竿。可惜,13年過去,才帶著準備“進廠打工”的企業量產版電動 Atlas 亮相,為時已晚。美國當然也非常注重這個領域,可直到2022年,馬斯克攜人形機器人Optimus(柯博文)入場,同期矽谷初創企業Figure誕生,美國機器人企業才有了更多參照物。別看他們聲勢很大,可中國才是機器人技術制高點。中國不僅科研機構在搞,企業界也在搞,還搞起了各種機器人表演、機器人運動會、機器人足球賽等,在國外還在實驗室研究機器人技術時,中國機器人早已在各應用場景落地互動迭代。人形機器人堪稱人工智慧落地的核心賽道,馬斯克曾直言它會成為特斯拉估值關鍵,可惜特斯拉的Optimus機器人目前產量僅數百台。摩根士丹利的報告顯示,過去五年中國在人形機器人領域提交了7705項專利,數量遠超美國的1561項。更關鍵的是,這些技術正快速轉化為產能:智元機器人5000台具身機器人量產下線,優必選敲定2026年5000台、2027年1萬台的量產目標,宇樹科技新款機型完成技術驗證。北京亦莊機器人馬拉松、冰絲帶機器人運動會輪番上演,中聯重科機器人更在國博展出中實現99.9%分揀精準率。美國這邊政策、產能還在醞釀,中國早已交出亮眼的成績單,這就是環境帶來的差距。資料顯示,中國機器人相關企業超102萬家,2025年新增22.9萬家,廣東、江蘇形成成熟產業叢集。 (投資家)
Fortune雜誌─中美AI競賽:界限日益模糊,下一戰關鍵何在?
在《MPW零度對話》系列中,我們邀請中國最具知名度和影響力的女性領導者,討論當下所有人共同關心的話題,從充滿熱情和妙趣的對話中,提煉出冷靜理性的智慧。臨近年末,多家權威詞典公佈的年度詞彙均指向 AI,例如“slop”(網路垃圾)、“vibe coding”(氛圍程式設計)與“rage bait”(憤怒誘餌)。而在中國,幾家機構聯合推選的年度國內詞則是“DeepSeek”。對身處矽谷這一全球AI創新中心的投資人而言,如果選擇一個年度詞彙,很可能是“泡沫”。AI投資泡沫的討論貫穿全年——從美股市場對AI概念的追捧、科技巨頭之間為抬高估值的“循環交易”,到近期亞馬遜與OpenAI正在洽談的高達100億美元的投資,狂熱與質疑同在。矽谷投資人、連續創業者、Fusion Fund創始人張璐指出,目前部分模型公司在零收入階段的估值已高達數億美元,市場遲早會迎來價格重設。事實上,本月甲骨文與資料中心服務商CoreWeave已出現市值大幅回呼,幅度堪比2000年或2008年的市場下跌。投資者正在拋售那些看似過度擴張的公司股票。不過,張璐對這輪泡沫的前景持審慎樂觀態度。她認為,與2000年網際網路泡沫時期大量科技公司缺乏實際收入、偏向C端不同,本輪AI創新背後有真實的產業需求支撐,且初創企業正加速轉向B端。“一旦與企業流程深度融合,AI公司的收入便會趨於穩健。”她預測。泡沫之外,張璐更加關注的是今年AI領域呈現的新趨勢。在她看來,2025年AI領域經歷了“上升”和“下沉”——一邊是全球競賽中的技術持續突破,一邊是AI加速向產業深處落地。技術“上升”在AI基礎設施層,尤其是晶片領域,過去由GPU主導的格局正逐步走向多元。張璐觀察到,一些新模型架構在CPU上運行效率更高;Google的TPU發展迅猛;高通、英特爾推出的NPU則在能效方面表現突出。在雲基礎設施層面,長期困擾行業的四大難題——算力成本高、能耗大、邊緣裝置應用難、資料隱私問題——正逐步得到解決。例如,OpenAI的token價格已從每千個30美元大幅降至9美分;被輝達收購的由華人創立的Lepton公司,其技術能顯著降低GPU消耗。能耗方面,新模型與晶片架構不斷最佳化計算效率。和電網在輸電過程中會產生損耗類似,“Communication過程中的能耗實際上是計算本身能耗的百倍以上,這成為最佳化重點,”張璐指出。邊緣AI亦在快速推進,Google等大廠及眾多初創公司正開發參數低於10億、性能卻可比肩GPT-4的端側小模型,未來可在手機等裝置本地運行。資料隱私方面,聯邦學習等技術已在金融、醫療等高監管行業部署,與之配套的監管科技也在同步發展。應用“下沉”在應用層,今年,美國非科技領域如醫療、金融保險、太空科技的AI應用進入快速迭代階段。初創企業層出不窮,大公司則全力衝刺。“GoogleAI部門據稱一週工作七天,有些公司開始實行“002”模式(從零點到零點,每週僅休息兩小時),馬斯克的團隊就更不用說了,常常工作至凌晨。”張璐說。與此同時,美國大公司與初創企業的合作與併購活躍。張璐透露,Fusion Fund今年就有五家公司被大企業收購,其中三家公司成立還不到兩年,價格均超過兩三億美元。就在昨日,Meta宣佈收購通用自主AI智能體公司Manus。這筆高達數十億美元的交易,成為這家科技巨頭成立以來規模第三大的收購案。此項收購意味著,AI正從“工具”加速進化為“行動者”。這種快速整合帶動了資本與人才的流動。張璐特別提到,矽谷超過40%的居民為第一代移民,獨角獸企業中六成創始人也來自移民群體。在AI基礎設施與模型架構的研發中,亞裔(尤其是華裔)、歐洲裔與加拿大裔成為主力;以色列團隊則深耕隱私與安全領域。泡沫終會調整,但技術加速下沉至產業的趨勢不會回頭。中美對比:日益模糊的界限張璐指出,儘管矽谷在晶片、模型、基礎設施層面領先,但美國電網老化嚴重,難以滿足AI的能耗需求。由於私有資本難以進入該國的電網領域,微軟、Google等巨頭不得不轉向自建能源系統。而資源豐富的加拿大今年新設了人工智慧及數字創新部,或將成為北美AI產業重要的能源後方。相比之下,中國在新能源基礎設施、完備的機器人供應鏈以及全民化的技術應用氛圍上已構築起獨特優勢。“在美國很難看到中老年人積極擁抱新技術,許多美國老年人甚至不知什麼是短影片應用。相反,在中國,使用者無論處於任何年齡層,都在快速學習使用新技術。”張璐說。在今年,關於開源模型的討論熱度繼續攀升。中國的DeepSeek、阿里巴巴等公司持續貢獻開源模型,而美國科技公司如OpenAI、Google、Meta因為處於大規模商業化階段,開源意願很有限。中美在AI創新領域的另一項差異體現在創新生態方面,而矽谷獨特的創新生態或許能夠為中國的AI發展提供一些啟示。在美國,大公司與初創企業往往會形成新型共生關係:前者為後者提供試錯場景和併購出口,後者為前者注入創新活力。具體來看,美國企業CTO的主要職能是投資未來技術,其預算用於採購、合作和併購創新項目。一方面這些公司有固定預算;另一方面有合理預期,例如合作的三家初創企業中可能有一家失敗,大公司對此有容錯空間。“這正是矽谷作為創新平台的核心優勢之一。”張璐說。一項共識是,在AI領域,中國在應用層處於領先,而美國在技術層佔據優勢。然而展望未來,這兩條路徑之間的界限正逐漸模糊。接下來的競賽,或許將聚焦於誰能找到那個關鍵的支點——既能支撐技術不斷“上升”取得突破,又能推動應用加速“下沉”實現價值。Fusion Fund創始合夥人張璐。圖片來源:受訪者提供《財富》:在AI落地提速的情況下,你作為投資人是否有很強的緊迫感?張璐:我其實非常興奮。有個說法:當世介面臨巨大變化時,有三種人:一種人創造事情的發生,一種人看著事情發生,還有一種人會問“發生什麼了?”我們應該是第一種人。自2015年至今,我們一直在重點佈局AI企業,如Otter AI、You.com、Constructor A、Wand AI等,均已成長為獨角獸。今年被收購的5家公司都是AI企業,明年還有3家即將IPO的企業。今年的增長曲線尤為陡峭:我們投資的一家B2B AI公司,從去年上半年的50萬美元年收入增長至現在的1.5億美元;另一家公司年收入從零增至2000萬美元,而團隊還不足10人。過去兩三年投資的企業中,70%以上年收入增長超過20倍。這背後是市場對AI的加速擁抱。但不可否認,任何重大的技術創新都會伴隨資本泡沫。我一年前便提出:AI趨勢是真實的,資本泡沫也同樣顯著。一方面,並非所有資本都充分理解AI或抱有合理預期;另一方面,全球經濟動盪下,資本需尋找增長點進行佈局,導致馬太效應。《財富》:泡沫主要集中在哪些領域?張璐:當前一、二級市場均存在泡沫。部分模型公司估值畸高,早期團隊在產品與收入均為零時估值已達數億美元。所以市場必將經歷價格重設,但幅度難以預測。不過,這不會改變AI的整體發展趨勢。矽谷已經歷經了多次週期——2017年、2021年均有類似現象,我們早已習慣泡沫與寒冬的交替。《財富》:這次的泡沫與2000年網際網路泡沫期的“燒錢換增長”有何不同?張璐:不太一樣。2000年前後,許多公司缺乏實際收入,且偏重C端。兩年前,美國AI的主流業務,尤其是科技巨頭們的AI業務,很多也偏重C端。但如今AI初創企業的趨勢轉向了B端。AI的作用主要體現在業務流程自動化(降本)與業務最佳化(增收)。現階段,企業大多通過AI降低成本,因此財報中尚未普遍體現收入增長。但隨著應用深入,效益將逐步顯現。《財富》:你是否有系統方法規避泡沫項目?張璐:從投資角度看,需理性預期AI發展軌跡——它不可能在幾個月內全面滲透產業,而是需要兩三年逐步落地。作為早期投資人,我們對估值保持敏感,如果項目估值過高,我們選擇不投。我們相信企業要遵循自然發展規律,在不同階段匹配相應估值。其實市場已經顯現了早期訊號:許多公司在首輪融資時憑藉願景獲得了高估值,但進入A輪、B輪後,投資方會嚴格考察收入資料及其質量——是來自B端還是C端?客戶是中小企業還是大企業?訂單是否可以全公司推廣而非僅限研發部門使用?若未能通過驗證,公司將面臨融資困難與估值調整。這十年來,我們只投To B項目,涵蓋企業級AI、工業自動化與醫療AI等。我們會深入分析訂單質量:是多年合約還是試用協議?預算來源是否靈活?考量維度很多。《財富》:你曾表示AI在C端的機會多被大公司佔據,未來五年,是否會出現能打破大公司壟斷的C端AI產品?張璐:比較難。ChatGPT雖是C端產品,也面臨Google的強力競爭。C端創業的核心難點在於資料。模型本身已難構成壁壘,因為多數公司能基於開源模型或API最佳化模型。關鍵在於能否獲取高品質資料並建構資料庫。然而,高品質的C端資料集中於Google、Meta、蘋果等巨頭手中,初創企業難以企及,且資料質量直接決定模型最佳化成本與應用成本。C端領域,如文生圖、文生視訊應用,一旦Google、Apple等實力雄厚的企業介入,小企業便舉步維艱。因此,C端創業需聚焦差異化資料與個性化體驗。當前AI投資與應用還是以B端為主。B端的產業資料還未被大科技公司壟斷,初創企業可以通過和產業企業深度合作獲取產業資料,進行私有化部署與行業合作獲取。例如,許多醫療、金融等領域客戶不願將資料上傳雲端,這就為初創企業提供了機會。《財富》:這是否意味著,無論中美,理性的AI創業都應聚焦B端?張璐:至少在美國,機會主要集中在B端。如今許多投資者轉向此領域,而我們深耕B端十年,已建立了先發優勢。聚焦B端的另一個原因在於,美國大企業勇於嘗試新技術,推進速度較快。而美國C端使用者(除東西海岸)對新事物接受較慢。美國C端的創新,大部分依靠年輕一代傳播,很難看到中老年人積極擁抱新技術,許多美國老年人甚至不知什麼是短影片應用。相反,在中國,使用者無論處於任何年齡層,都在快速學習使用新技術。《財富》:我們注意到在美國,初創科技公司有一項優勢:大公司願意與之合作。這種生態背後的邏輯是什麼?張璐:這正是矽谷作為創新平台的核心優勢之一。美國企業CTO的主要職能是投資未來技術,其預算用於採購、合作和併購創新項目。一方面這些公司有固定預算;另一方面有合理預期,例如合作的三家初創企業中可能有一家失敗,大公司對此有容錯空間。活躍的併購市場是創業者選擇矽谷的另一原因。在其他地區,10多人的團隊很難在收入僅數千萬美元時獲得數億美元收購,但在矽谷卻屢見不鮮。這種快速的資金流動與商業變現構成了美國獨特的商業環境。為促進對接,我們於2018年創立了CXO社群網路。目前,網路涵蓋45家全球千強企業的CTO,每季度聚會一次。這些CTO常在董事會開會前諮詢外部技術趨勢,我們為其推薦企業並促成訂單。至今,該網路已經為被投企業帶來超過1.5億美元的訂單與戰略合作。《財富》:一些大基金也有類似網路,你們的CXO社群有何不同?張璐:這些大基金的網路可能覆蓋CEO等多類人群。我們專注B2B與技術驅動型項目,因此CTO社群的精準度與契合度更高。在競爭優質項目時,這一網路極具優勢。此外,在談判估值時,我們不僅能為創始人提供訂單,還能幫助他們獲取政府補貼等不佔股的非稀釋性資源,從而以更合理的估值完成投資。這種生態建設是長期工程,對雙方均極具價值。《財富》:我們觀察到AI與機器人技術正滲透至太空經濟的多個層面。在可回收火箭實現成本大幅降低後,太空科技的下一個“破壞性創新”可能出現在哪些環節?張璐:我們曾經成功投資SpaceX,目前也在重點佈局太空科技。這個領域正處爆發前夜。受益於AI與機器人技術的發展,SpaceX已將單次發射成本從數十億美元降至不到一億美元,未來還會很快降至千萬美元級。屆時,單顆衛星發射成本或僅數萬美元,推動衛星資料應用普及。我們投資的一家公司從事衛星交通管理與資料交易。隨著衛星增多,碰撞風險上升,可以通過AI掌握軌道資訊並進行快速調節;此外,若需要特定地區(如芝加哥或洛杉磯)的天氣資料而自身無衛星,該公司可以幫助你低成本獲取。這打破了衛星資料僅限特定階層使用的認知。這家公司商業模式很簡單,但收入已達數千萬美元。我們投的另一家公司開發全自動化機器人系統,這些機器人可在月球提取水並分解為氫氧,作為太空燃料補給,有效降低發射負載。如果由人類在太空從事此類工作,成本極高,但機器人則不同。我相信AI和機器人將快速推進太空經濟發展。今年是醫療大年,AI也在加速該領域發展。我一直關注腦部疾病,如帕金森、阿爾茨海默症、抑鬱症、躁鬱症等。今年腦疾病領域湧現許多AI相關技術,不只針對診斷,還涉及治療。我們投資了兩家公司,一家做糖尿病垂直領域的小模型,另一家做細胞療法的基礎模型。這些領域創新蓬勃,但公眾注意力仍過多集中於大型AI公司的發佈。《財富》:除了太空科技,AI Agent也被認為處於爆發前夜。如果請你預測AI Agent領域的第一個真正殺手級應用,會是什麼?張璐:程式碼智能體(Coding Agent)已近乎殺手級應用。目前多數科技公司80%的程式碼由AI生成,我自己也在用。智能體的核心能力是處理複雜任務,並自主選擇工具。現在許多公司想做“通用智能體”,即什麼都能處理的智能體,我覺得難度較大。也有一些公司專注特定應用場景的智能體,已開始落地,且商業化不錯,主要應用於To B場景。智能體的未來明確,但當前技術尚未達到期待,仍在發展。不過進度不會太慢,可能再有一年時間就差不多了。我們投資了多家智能體基礎設施公司,專注於作業系統、成本最佳化與幻覺消除。一旦基礎穩固,應用層將快速湧現。《財富》:請分享:你今年最滿意的投資項目;一個決策週期長、令你糾結的項目;以及最終放棄的一個機會。張璐:最滿意的項目是一家賦予AI長期記憶的模型公司。現有AI只有短期記憶,而該公司的視訊模型可分析視訊內容。例如,將採訪視訊輸入,它能給出精準總結,甚至包括衣著顏色等細節。由於對視訊數量無限制(僅限單個視訊時長),可以輸入大量視訊,由其長期記憶給出更智能的分析。目前主要應用於To B場景,如機器人工業安全。決策週期最長的是一個醫療項目——利用小膠質細胞治療帕金森症(目標不是緩解,而是治療)。我們經過幾個月的詳細盡調,最終決定投資。投時估值還比較低,幸運的是,投後一週,《自然》和《科學》連續發表多篇論文驗證該方向,公司隨後獲得美國國立衛生研究院(NIH)不佔股的政府補貼資金。該技術也運用了AI,因為需用AI才能實現個性化小膠質細胞的生成。腦部疾病治療的特點在於標準化治療非常難,需要個性化方案。放棄的項目多半因估值過高。我們追求高回報倍數,若最佳情景下僅能獲十倍收益,便會選擇放棄。《財富》:如今評估AI公司能否“跑出來”,多久可見分曉?張璐:大概兩年。優質公司增長極快,兩年便能判斷其潛力。《財富》:在AI創業“求快”趨勢下,你如何平衡短期回報與長期價值創造?張璐:我們始終看重長期回報。早期投資可跨週期,目標仍是培育價值數十億、數百億美元的企業。基金需分散風險,比如我們投資25-30家公司,其中有七家是核心,其他表現一般的企業可能通過收併購退出。通過這種方式我們對風險做了分層。當然,我們不願公司過早被收購(如被輝達收購的多家企業),雖然回報可觀,但難免遺憾。我們投資的初心是參與創新浪潮,挖掘頂尖企業,尤其是有潛力成為垂直領域領頭羊的企業。《財富》:在做投資決策時,你對市場空間、團隊能力、技術壁壘、商業模式等要素的重要性是如何排序的?張璐:我們最看重市場——規模要足夠大,且為增量市場;市場時機甚至優先於團隊評估,因為英雄常由時勢造就。如果大企業CTO透露,今年預算會優先花在某個方向,這就是市場時機的明確訊號。其次看團隊,我們尤其關注“創始人-產品-市場”契合度。年輕技術背景的創始人適合基礎設施項目,可能擁有新技術或模型架構想法;而連續創業者更擅獲取行業資料與推動商業化。團隊的技術需“更好、更快、更省”。成本是AI公司的關鍵競爭要素。我們看好Google,也因其憑藉全端優勢(自研TPU、模型、雲、資料)能實現最低成本。蘋果雖在AI方面的佈局稍遲,但因掌控智慧型手機這一資料入口與應用載體,後發優勢還是存在的。AI搭載的智能載體目前主要是手機,未來可能是眼鏡,但眼鏡仍需繫結手機。《財富》:你對腦機介面這一熱門領域有何佈局?張璐:2015年我就投資了腦機介面公司Paradromics(斯坦福團隊,侵入式,植入納米纖維機器人),其針對腦損傷修復,已進入臨床實驗階段。我是該公司第一個投資人,它可能很快成為獨角獸,最近剛拿到沙特新未來城(NEOM)投資基金。另一家是非侵入式公司,聚焦抑鬱症超聲治療,技術雖非侵入式但做得精準。青少年抑鬱症高發可能與社交媒體導致的“資訊繭房”有關。他們在社媒上看到的多是他人美好生活,與現實形成對比。現實是,美國社會也很內卷——高校錄取率驟降,就業市場嚴峻。我們招聘一名辦公室經理,收到了700多份簡歷,甚至包括斯坦福博士生與MBA。但長遠看,年輕人學習能力強,能快速掌握AI工具。反觀中層管理者,很多人既缺乏年輕人學習速度,又未至決策層,職業風險較高。《財富》:總體而言,AI帶來的職業變局會比預期更快嗎?張璐:大產業應用不會瞬間到來,人們還有時間適應。但每個人都應有緊迫感,主動學習使用AI工具。人類最偉大的能力正是工具的使用。AI可能替代部分崗位,但也在創造新機會。例如,公司營運部門因AI增效而裁員三分之一,但銷售團隊業績提升30%後可能擴招。勞動力市場將在不同領域重新組態。未來組織也更趨扁平,資訊流轉更高效。還有一點值得注意。正如微軟CEO薩提亞·納德拉所言,當代領導者要學會管理“人類勞動力與數字勞動力”的混合團隊。《財富》:你提到AI發展的“華彩樂章”才剛剛開始。未來三五年,你最期待看到AI在哪些方面取得突破性進展?衡量這場“交響曲”進入高潮的標誌會是什麼?張璐:標誌包括智能體爆發及各產業AI融合。科技行業僅佔美國GDP不足10%,而醫療、金融、保險等服務業佔比超50%。若這些領域廣泛整合AI,便是華彩樂章。技術層面,Transformer模型(編者註:一種採用自注意力機制的神經網路架構,已成為自然語言處理的基礎技術範式)絕非終點。新架構不斷湧現,晶片設計也將持續創新。但我認為,我們距通用人工智慧(AGI)尚遠。李開復老師對AGI的定義很精準:能完成人類90%的任務,且優於90%的人。照此標準,我們仍有很長一段距離。我認為無需執著追求AGI。各行業可發展各自的垂直應用,在特定場景超越90%的人類就是很大的突破。《財富》:你如何定義個人的“成功”?張璐:成功對我而言,並非成為最大基金,而是成為最頂尖的早期投資機構,並持續擴展影響力。另外,成功應是可持續地達成目標,而非靠運氣投中一家好企業。因此需要形成優秀的投資方法論與生態。這就是為什麼我從2015年起建構CXO、專家、學者、創始人網路,該網路至今仍在創造巨大價值。投資方法論需一以貫之。正如拉里·佩奇二十年前所言:人工智慧會是Google的終極版本。他的長期目標非常明確。我們同樣堅持擅長的投資領域,不盲目跟風熱點。團隊建設也很關鍵。沒有完美的人,但有完美的團隊。我們的合夥人有技術背景與產業經驗,能力互補,形成完美組合。《財富》:對你影響最大的人是誰?張璐:我小時候很喜歡看人物傳記,這讓我看到人生的各種可能性,所以很多傳記裡的人物都影響過我。如果說現在對我影響很大的人,是魯斯·巴德·金斯伯格(美國聯邦最高法院歷史上第二位女性大法官)。她有一種非常篤定的力量。世界上聰明人這麼多,尤其在矽谷,但不一定每個人都有這種力量。我在青少年時期就知道自己想做什麼,成為什麼樣的人,哪怕在很多人看來,我的一些想法有些另類,一些做法選擇了“少有人走的路”。 但我相信,保持篤定、始終如一,再加上全力以赴,幸運自會來臨。(財富中文網)
2025最新蔡崇信港大演講對話完整版:中美AI競賽實力對比以及給年輕人在AI時代的建議
11月5日現任阿里巴巴董事長蔡崇信做客香港大學陸佑堂,與香港大學副校長兼商學院副院長鄧希煒教授進行了一場精彩的爐邊談話。談話主要涉及蔡崇信對體育的投資、阿里巴巴的文化、中美AI競賽實力對比、蔡崇信給年輕人在AI時代的建議等。非常精彩!以下為相關對話全文中文翻譯:一、蔡崇信談對體育的投資主持人:首先啊,我從沒見過陸佑堂裡擠過這麼多人。喬(註:此處指蔡崇信),你要知道,這可是香港大學最老牌的講堂了。其實我們當初真該選個更大的場地,畢竟就發了一封活動通知郵件,反響卻又快又熱烈,短短兩小時就有超 1200 人報名。要是再開放兩天報名,我敢說報名人數能突破 10 萬,到時候就得去啟德新體育場館給你辦活動了。不過不管怎樣,歡迎你來到香港大學!特別榮幸能有機會和你對話。今天的話題既應景又宏大,我知道你剛從另一個活動趕過來,所以先從一個你打心底裡在意的話題慢慢切入,那就是體育。大家都知道,你不只是阿里巴巴的董事長,還是布魯克林籃網隊的老闆。而且最近你還帶著球隊去澳門和菲尼克斯太陽隊打了比賽,聽說你們贏了?蔡崇信:我們是一勝一負。主持人:原來如此,我只聽說你們贏的那場。那我的第一個問題,也是台下觀眾特別好奇的:你是從什麼時候開始萌生投資職業體育的想法的?你覺得 NBA 能給中國帶來那些機遇?蔡崇信:唐教授,在回答問題之前,我想先表達最誠摯的謝意。能站在這裡,我感到萬分榮幸。我不是馬雲,但能有機會來交流想法,我很珍惜。當初你們聯絡我時,說這是系列講座,我就提了個想法,不想站在講台上單向授課,更希望用爐邊談話的形式,和大家交流思想,也是為了致敬陳教授。我很期待這次交流,也知道之後會有和現場學生的問答環節,對此我十分期待。謝謝大家!NBA 進入中國已經有很長時間了,早年就常來中國辦賽。2019 年後賽事一度中斷,今年是六年來 NBA 首次派兩支球隊,其中一支就是我旗下的布魯克林籃網隊,來中國地區參賽,最終選定了澳門。NBA 和澳門金沙集團簽了五年合約,未來五年都會在澳門辦賽,而且合約裡也預留了去中國大陸辦賽的可能性。所以我預計,用不了多久,NBA 就能重返中國大陸賽場。從 NBA 的角度看,這個佈局邏輯很清晰:中國大概是全球籃球迷最多的國家,幾乎人人都關注 NBA。為什麼?因為這裡匯聚了世界最頂尖的籃球運動員。NBA 里約 30% 的球員都不是美國人,他們來自世界各地:歐洲、東歐、澳大利亞等等,亞洲球員目前還不多,但我們都希望未來中國籃球能不斷發展,再出一個姚明這樣的 NBA 球星。中國的球迷基礎太龐大了,所以 NBA 重返中國辦賽、讓球員和球迷面對面互動,是完全合理的選擇。而且這麼多年來,NBA 賽事也一直在中國保持轉播,不管是央視還是各大串流媒體平台,都能看到 NBA 比賽。從中國的角度來說,加強和世界的交流同樣重要。把全球體育乃至文化領域的精華引入中國,和國內的球迷、大眾互動,意義重大。這次賽事也得到了國內各界的熱烈歡迎,因為 NBA 的號召力實在太強,兩場比賽辦得非常成功,給球迷們呈現了超高水準的競技對決,其中一場還打到了加時賽。加時賽那場我們輸了,但第二晚的比賽贏了三分。這段經歷特別棒,我對這種體育文化交流也特別有信心。我想強調的是,用體育搭建文化交流的橋樑,這件事的價值無可估量。我在國內的公益事業,很大一部分也和體育相關,把體育納入教育體系就是我的重點投入方向。我有個項目,專門選拔即將升入九年級的初中生,送他們去美國讀四年高中,一方面是讓他們接受籃球專業訓練,更重要的是讓他們去美國接受教育。這某種程度上是復刻了我自己的經歷,我 13 歲就離開台灣,去美國讀寄宿學校,之後又在美國讀了大學。這個項目既能培養中國下一代籃球人才,也能讓這些孩子見識更廣闊的世界。但我覺得最大的受益者其實是美國的高中生們,他們以前只在書本上瞭解中國,沒機會和中國人真正打交道。我們選的都是學業和籃球雙優的孩子,他們融入美國當地社區後,很受大家歡迎。這種民間層面的交流太重要了,只要我有能力、有資源,就會一直支援這個項目。主持人:很棒!那每年能拿到你的獎學金去美國的孩子有多少呢?蔡崇信:選拔標準特別嚴格,競爭也很激烈。所以我們每年只選 6 到 8 個孩子。主持人:原來如此,那可都是真正的佼佼者啊。蔡崇信:沒錯。主持人:我還盼著我 9 歲的兒子能有機會呢,現在看來這難度也太大了。蔡崇信:可以試試嘛,說不定是你沒給孩子機會呢。主持人:哈哈,有道理!蔡崇信:是啊。主持人:你這話太鼓舞人了!我之前還真不知道你的體育事業裡還藏著公益的一面,真心希望你以後能多帶球隊來中國,讓我們見識世界頂級職業籃球的風采。二、阿里巴巴的自我革新主持人:在切入更大的主題之前,我的第二個問題想聊聊阿里巴巴。你應該還記得,2008 年你的好友馬雲曾來過這裡。大家肯定也對 2008 年的阿里印象深刻,但要知道,過去 26 年裡,阿里已經從一家單純的 B2B 電商公司,蛻變成了如今全球頂尖的 “AI + 雲端運算” 科技巨頭。你能不能和我們分享一下,阿里巴巴是如何實現這般顛覆性蛻變的?又是什麼 “獨門秘籍”,讓它每五到十年就能完成一次自我革新、變身成全新業態的公司?蔡崇信:好的,我先簡單回顧下歷史背景。1999 年我加入阿里時,中國人均 GDP 才 800 美元,而現在已經漲到了 13000 美元,這增長幅度是相當驚人的。我總跟朋友說,自己特別幸運,正好趕上了兩大時代紅利的交匯期:一是中國作為製造大國和整體經濟的崛起,二是網際網路的興起和網際網路驅動的經濟增長。站在阿里巴巴的平台上,我得以親眼見證這雙重引擎帶來的發展奇蹟,這種機遇真的可遇不可求。就像你說的,阿里最初只是一個 B2B 網站。當時馬雲的想法很純粹,就是想用網際網路為中國的中小商家、貿易公司和小工廠們創造公平的競爭環境。大家應該還有印象,2001 年中國才加入 WTO,在那之前,國際貿易都得通過國有外貿公司來做。而中國入世後,貿易大門徹底打開,這也成了中國成為全球製造基地的起點。越來越多人開始建廠創業,他們看到了通過網際網路和全球做生意的機會,阿里的 B2B 模式就是在這個背景下誕生的,我們的核心就是幫中小企業做批發貿易。順便提一句,阿里最早的網站是全英文的,畢竟是面向全球採購商,是個外向型平台。之後我們從 B2B 電商拓展到了消費電商領域,也就是如今國內最大的消費購物平台淘寶。同時,因為當時買賣雙方互不信任的痛點,買家不願先付款、賣家不願先發貨,我們又順勢推出了支付寶,最初其實就是個第三方託管系統,專門解決交易信任問題。再往後,我們又逐步切入了物流等多個領域。你問到 “獨門秘籍”,我覺得核心很簡單:一家優秀的公司,永遠是跟著使用者需求走的。我們所有業務的拓展都是順勢而為,完全圍繞使用者的真實訴求來推進。我也想給台下的同學們提個建議:未來如果你們創業,一定要優先選擇內生式增長,而不是依賴併購。當然我們也做過一些收購,有成功的案例,也有慘敗的教訓。但內生增長始終是首選,因為這種模式是靠自己的團隊一步步搭建起來的,團隊成員也最懂阿里的企業文化和創新基因,這也是我們能持續迭代的關鍵。至於雲端運算業務,我們最初佈局也不是因為覺得這個賽道前景好才跟風,而是純粹為了滿足自身需求。16 年前,雲端運算還沒成為行業熱點,當時我們的消費平台已經在處理海量交易資料,我們的 CTO 就跟我們說:如果一直依賴第三方的軟硬體,比如戴爾、IBM 的伺服器,EMC 的儲存裝置,Oracle 的資料庫軟體,未來我們賺的利潤早晚都要拱手讓給這些技術供應商。所以我們做雲端運算,本質是為了實現技術自主可控,這後來也成了一個國家層面的發展議題。當時我們組建了專門團隊,研發能跨資料中心、跨多台電腦運行的作業系統,畢竟只有實現平行計算,才能處理我們手裡的海量資料。這就是阿里雲的起源,我們先自己 “吃螃蟹”,把這項技術用在了自家業務上,後來發現技術足夠成熟,才決定開放給第三方客戶,正式踏入雲端運算領域。三、宏觀經濟和十五五規劃主持人:接下來我想回到開源戰略的話題,上周我們其實聊過這個。不過今天的主題格局更大、也更深,顯然有著重要意義。我先簡單說說為什麼選這個主題。上周碰面時,喬(蔡崇信)你跟我說的第一句話就是 “我不是什麼厲害的貿易專家或宏觀經濟學家”。可你明明是耶魯經濟學專業畢業的,我當時還納悶這怎麼說得通。但很快你就說服了我,你其實特別睿智,也特別懂經濟,只是算不上傳統意義上的宏觀經濟學家罷了。後來我也跟你提過,陳坤耀教授是極具影響力的經濟學家,他深耕香港教育領域,培養了好幾代優秀學子,這些人後來不管是在私營領域還是政府部門,都取得了斐然成就。所以我當時就說,我們能調整主題的空間不大,必須緊扣中國經濟增長這個核心。考慮到你在科技領域投資頗豐,而且阿里巴巴在科技方面成績亮眼,我們就加了 “技術驅動力” 這個維度。那為什麼要聚焦 “十年” 這個時間節點呢?因為到 2035 年,中國共產黨和中國政府設定的目標是讓中國邁入中等發達國家行列。具體是什麼概念我其實也不完全清楚,但可以想像的是,屆時中國人均 GDP 需要達到 3 萬美元左右,這是有實現可能的。有意思的是,就在我們上周碰面到今天這段時間裡,中國國務院總理李強在上海發表講話,提出到 2030 年,也就是五年後,中國 GDP 總量要達到 24 兆美元。這意味著什麼?目前中國 GDP 大概是 20 兆美元,要增長到 24 兆美元,我能猜到你這會兒已經在心裡算起來了。這相當於需要實現年均 5% 左右的名義 GDP 增速,這並非天方夜譚。如果能保持 4% 的實際 GDP 增長,再加上 1% 到 2% 的通膨率,五年內就能達成目標,完全具備可行性。但要實現 4% 的實際 GDP 增長,就離不開大量創新,而且這些創新還得轉化為生產力的提升。所以我想向你提一個核心問題:在中國的國家級科技規劃中,你認為那些關鍵或具有影響力的內容,能確保中國在未來五年乃至十年內實現這樣的經濟增長目標?蔡崇信:好的,這確實是個非常貼合當下的問題。中共中央剛發佈了 “十五五” 規劃,我猜在座有些人可能完整讀過全文,我自己看了規劃摘要。這份五年規劃裡,有兩個核心要點。第一,中國希望繼續鞏固製造業強國的地位,規劃裡明確強調了要重視作為實體經濟重要組成的製造業,這是國家領導層的清晰表態,也是我們未來的發展方向。對比全球其他國家,中國的消費佔 GDP 比重其實很低,還不到 40%,而美國的消費佔比高達 70%。這說明中國經濟的核心還是在生產端,一定程度上還要依靠把產品出口到全球。我相信不管是現在,還是未來十年、二十年,中國都會持續作為全球製造基地,為世界供應各類商品。第二,規劃提出要實現科技自立自強。我認為這既是國家領導層的前瞻性佈局,也是應對當下地緣政治局勢的必然選擇 ,畢竟美國和部分歐洲國家一直在對中國實施關鍵技術封鎖。所以中國深知必須自主研發核心技術,而且目前已經在這條路上取得了不錯的進展。再回到第一個目標,也就是鞏固製造業根基。回顧中國的致富之路,從人均 GDP 800 美元到如今的 13000 美元,未來十年還要衝擊 30000 美元,靠的就是生產製造、靠的是把產品賣到全世界來創造財富。當然,外界對此有不少批評聲音,說中國存在 “產能過剩”,還把過剩產能出口到全球,彷彿這是什麼十惡不赦的事。但仔細想想,當年德國汽車行業大量出口汽車時,有人指責他們產能過剩嗎?其實從定義上來說,“產能過剩” 只是指國內市場消化不了的產能,只能通過出口來釋放,可 “過剩” 這個詞卻被貼上了負面標籤,這其實很不應該。因為一個國家要實現富裕,本質就是靠生產商品、從全球賺取財富,進而提高本國國民的收入水平。我堅信,只要繼續堅持做全球製造中心,而且向高端製造業轉型,不再侷限於生產鞋子、T 恤這類低端產品,中國經濟就能持續增長,老百姓的財富和可支配收入也會不斷增加,消費市場自然會慢慢壯大。就拿阿里巴巴平台的資料來說,現在有大約 5600 萬人每年在淘寶上的消費超過 6000 美元,這個數字遠超中國居民的平均可支配收入,足以說明我們的消費市場已經有了相當規模,未來只會越來越大。不過國家領導層很清楚,健康的經濟增長和財富創造,根基還是在於強大的製造業,而且是高端製造業。如今中國在電動汽車、電池、太陽能面板等全球急需的產品製造領域,已經走在了世界前列。四、中美AI競賽實力對比主持人:現在所有人都在聊人工智慧,中國顯然也在這一領域投入了大量資源,而且 DeepSeek 的亮眼表現確實震撼了全球。我想再順著中國國家科技議程的話題追問一下,之前我問過你阿里巴巴實現蛻變的 “獨門秘籍”,現在想問問中國科技政策的 “制勝法寶” 是什麼。中國到底是怎麼做到後來居上的?要知道,過去國外企業和國家對中國實施了不少出口管制,十年前的中國還只在做簡單的製造業代工。可如今就像你說的,中國已經邁入高端製造領域,人工智慧各方面的實力也具備了競爭力,甚至在部分技術領先性上開始挑戰美國。我能不能把問題再聚焦一點,麻煩你著重講講人工智慧領域,中國有那些政策或者 “獨門優勢”,推動了該領域實現這樣的高速發展?蔡崇信:首先,說到國家層面的政策,中國政府已經明確了重點投資領域,比如半導體、半導體製造工藝,還有半導體生產裝置這類核心領域,這些佈局當然都很有必要。不過我個人覺得特別有意思、也格外關注的,是幾個月前國務院出台的一份人工智慧專項規劃。中國人做事向來務實,目標導向也很強,這份規劃裡就直接定下了明確目標:到 2030 年,也就是五年後,要實現人工智慧代理和相關裝置 90% 的滲透率。政府其實是給出了一個清晰的目標,然後把具體落地的空間交給了市場,不管是國企還是民營企業家,都可以去探索如何實現 AI 在中國的大規模普及。我認為這是一項非常高明的政策。畢竟現在全球都在參與所謂的 “AI 競賽”,也就是中美之間的 AI 角逐。但說到底,評判競賽勝負的標準,從來不是看大語言模型的技術有多尖端,而是要看 AI 的實際普及率。有越多的人用上 AI,整個社會才能從中獲得越大的收益。所以中國的整體思路是先推動 AI 的規模化落地,這無疑是一步好棋。主持人:我記得上周和你聊過中國 AI 生態的獨特性,當時提到了人才儲備、基礎設施、中國保有完整高端製造體系(而很多發達國家如今已不具備這一優勢),還有高效的能源生產能力這些點。能不能請你給現場觀眾具體講講,中國要成為 AI 超級大國,具備那些獨特的競爭優勢?蔡崇信:好的。現在美國人評判 AI 競賽勝負的標準,其實很單一,就是只看大語言模型的技術水平,今天是 OpenAI 領先,明天可能就換成 Anthropic。不過順便提一句,阿里的通義千問模型剛在一個為期兩周的加密貨幣和股票交易競賽裡拿了冠軍,當時參賽的有 10 個不同模型,涵蓋了美國和中國的主流產品,最終阿里模型奪冠,DeepSeek 位居第二。說起來真的很佩服 DeepSeek,他們就在杭州,和我們是鄰居,確實做出了非常出色的成果。所以我們並不認同美國人對 AI 競賽的評判邏輯,我們更看重中國在 AI 全產業鏈上的綜合優勢,先從能源說起。中國在電力生產上有顯著優勢,這得益於 15 年前政府的前瞻性佈局,當時就開始大規模投資能源輸送網路。畢竟中國的電力大多在北方生產,卻需要輸送到用電需求更大的南方;而且清潔能源的發電場地(比如有光照、風能、水能的地方),往往和用電集中區域不重合,這就需要強大的輸電網路來調配。中國有兩大電網,也就是國家電網和南方電網,它們每年的資本開支能達到 900 億美元,而美國全國的電網年投資只有 300 億美元,在電力輸送領域的投入遠遠不足。過去 15 年中國一直堅持在這方面發力,結果就是中國的電力裝機容量達到了美國的 2.6 倍,而且每年新增的電力裝機容量,更是美國的 9 倍之多,電力產能的增長速度遠超美國。更關鍵的是,這些新增產能裡大部分都是太陽能這類清潔能源,最終帶來的直接好處是,中國的電價每千瓦時比美國便宜約 40%。這對 AI 發展來說是巨大的能源優勢,畢竟運行 GPU、訓練大語言模型、做推理運算,都要消耗海量電力。機器和人腦不一樣,機器運轉起來特別耗電,而人腦的能耗卻極低,所以能源成本對 AI 產業的影響極大。再看資料中心的建設成本,在中國建資料中心,不算晶片和 GPU 的話,成本要比美國低 60%。至於模型研發層面,我認為中國的 AI 模型和美國的差距其實已經不大了,這背後是有原因的:中國的工程師儲備非常充足,每年培養的理工科(STEM)學生數量全球第一。可能有人覺得 AI 研發和模型訓練是高精尖的科研工作,但其實其中很大一部分是工程化的實操任務:需要搭建高效的系統,來支撐數千億甚至上兆參數模型的訓練。如果系統效率跟不上,會耗費巨量的 GPU 資源。而中國恰恰因為 GPU 資源相對緊缺,反而倒逼出了 “窮則思變” 的優勢:資源有限時,就必須在系統層面進行創新,這正是中國的強項,畢竟我們有大量的工程人才。還有個很有意思的現象:全球範圍內,近一半的 AI 科學家和研究人員,都有中國高校的學位背景。不管他們是在美國企業、中國企業,還是全球其他地方工作,都能看到這一群體的身影。這意味著你走進任何一家美國科技公司,都能發現很多華裔 AI 從業者。我最近還看到一個社交媒體帖子,是一位在 Meta(臉書母公司)工作的非華裔員工吐槽,說他所在的 AI 團隊裡,所有人都在說中文、用中文交流想法,他完全聽不懂,只能乾著急。主持人:不過他們既然能做出這麼厲害的 AI 工具,按理說應該能實現中文到各種語言的即時翻譯才對啊。蔡崇信:話是這麼說,但你想啊,在茶水間閒聊、在食堂吃飯時的那種隨口交流,那能靠翻譯工具把所有內容都精準捕捉到,對吧?這其實意味著,現在全球範圍內的 AI 領域,有大量的想法交流和觀點碰撞都是用中文進行的。這還是頭一回,中文成了一種優勢。過去,中文對中國企業出海來說其實是個短板。比如阿里巴巴去義大利、日本或者美國開辦公室,當地招聘的員工都不會說中文,只能用英語溝通,而我們杭州總部的同事就得用第二語言和他們對接,這肯定不是最理想的狀態,也成了中國企業拓展海外市場的一大阻礙。但現在不一樣了,懂中文在 AI 圈反而成了優勢,這事兒真的特別有意思。我剛才其實已經列舉了中國在 AI 領域的不少優勢,不過我覺得最大的優勢,還是中國企業對待大語言模型的思路,也就是開源策略,這會大大加速 AI 的普及,真正實現 AI 的規模化落地,讓更廣泛的社會群體從中受益。開源之所以這麼重要,核心原因就是它成本極低,甚至可以免費使用。阿里巴巴就推出了多款開源大模型,而且已經上架到美國乃至全球的各類開源市場。任何人都能直接下載我們的模型,部署到自己的基礎設施上,甚至是普通筆記型電腦裡,零成本就能開啟 AI 應用。這種開源模式能有力推動 AI 的普及,反觀美國,要是想用上 AI,得給 OpenAI 這類公司支付高額費用。所以我認為,這才是中國最終的核心優勢 ——AI 競賽的贏家,從來不是擁有最頂尖模型的那一方,而是能把 AI 最好地應用到各行各業、融入日常生活的一方,而這一點,中國肯定能做到。主持人:那想再追問一下,中國 AI 模型為何會側重開源,而美國的 AI 模式卻更偏向私有閉源,還要按市場價售賣資料和模型?這是不同國家的企業競爭模式存在本質差異,還是說有政府層面的激勵政策,促使中國企業更願意開放自身資源?蔡崇信:我給你舉個例子你就明白了。比如中東國家,就拿沙烏地阿拉伯來說,他們肯定也想發展 AI,而且希望能擁有自主可控的 AI 技術,也就是所謂的 “主權 AI”。但問題是,世界上絕大多數國家其實都沒有足夠的人才去獨立研發自己的主權 AI。所以當他們面臨選擇 —— 是通過 API 呼叫 OpenAI 的閉源模型,還是直接拿阿里巴巴的開源模型在此基礎上做二次開發時,從成本和效益的角度來看,顯然開源是更優解。除此之外,還有一個關鍵因素就是資料隱私。如果用 OpenAI 的服務,你在模型上做進一步訓練時,得把自己的資料輸入到對方的 API 裡,這就像一個 “黑箱”,你根本不知道這些資料會流向那裡、會被如何處理。但如果選擇開源 AI,企業和機構就能更好地掌控資料隱私,還能搭建自己的私有雲來儲存資料。所以放眼全球,不管是政府這類公共機構,還是私營企業,在選擇 AI 技術路線時,出於成本和資料隱私的雙重考量,都會傾向於發展開源 AI,或是基於開源 AI 進行二次開發。五、阿里巴巴的AI開源策略主持人:這話確實有道理,不過就拿阿里巴巴來說,你們這麼大方地讓大家免費使用開源 AI,到底靠什麼賺錢呢?肯定是在其他地方有盈利管道吧?蔡崇信:你這個問題問得特別好。直接答案是,我們並不靠 AI 本身賺錢。但別急,要知道我們還營運著雲端運算業務。畢竟運行 AI 模型,得有對應的雲基礎設施才行,而且這種基礎設施的技術門檻極高,不是隨便那家公司雇幾個工程師就能搭建起來的。它既需要 AI 基礎設施的專業維運能力,還得有足夠的規模效應 ,這行業本身就是拼規模的。這就像我們普通人不會自己建酒店一樣,出門都是直接訂酒店入住,因為酒店營運商有專業的營運能力。雲端運算和資料中心業務也是這個道理,核心就是把基礎設施資源整合起來,當客戶數量足夠多時,就能形成營運槓桿,攤薄服務單個客戶的單位成本。所以我們的盈利邏輯是這樣的:如果使用者要運行 AI 模型,剛好又選擇了阿里雲,我們就能為其提供一整套配套產品,從儲存、資料管理、安全防護、網路服務,到我其實也不太懂的容器技術(姑且先這麼說),應有盡有。這些一站式產品能幫使用者在我們的基礎設施上更高效地運行 AI,我們也正是通過這樣的雲端運算服務來實現商業化變現的。六、AI 時代應該的技能和專業方向選擇主持人:好的,在切換到問答環節前,我先問最後一個問題。對了,先說明一下,現場來了超多學生,其實 80% 的觀眾都是學生,從本科生到博士生都有。喬(蔡崇信)之前跟我說,看到這麼多學生他特別興奮,因為他平時打交道的多是政府官員、商界人士和投資人,學生群體反而不常接觸,所以他也很樂意給大家一些建議。那你覺得,年輕人要為 AI 時代做準備,應該掌握那些技能?或者說該選擇什麼專業方向深耕?蔡崇信:我覺得這其實是兩個不同的問題,一個是技能儲備,一個是專業領域,二者略有區別。先說說技能層面,我始終認為有兩點最關鍵:一是學會如何獲取知識,二是建立分析資訊的框架,最終能形成自己的判斷。而要提升這些能力,沒有什麼一蹴而就的辦法,得靠日積月累的訓練。比如我一直建議大家學點程式語言,這就像學一門外語 ,學西班牙語能和西班牙人交流,學法語能和法國人溝通,而學電腦語言,是為了和機器對話,是在給機器下達指令。程式語言背後藏著很強的邏輯,怎麼建構合理的指令讓機器完成任務,這個過程本身就是一種思維訓練。可能有人會說,現在有很多可視化程式設計工具,根本不用專門學程式碼,直接用自然語言就能操作機器。但我想說,學程式設計的目的不是為了實操機器,而是為了經歷這個思維錘煉的過程。我自己是法律和金融出身,金融領域裡大家常用電子表格。我也會跟家裡孩子說,一定要學好電子表格 —— 在表格里搭建公式並讓它正常運轉,輸入一個資料就能自動算出結果,這是很精妙的事。能熟練用好電子表格,本質上也是在鍛鍊邏輯思維。所以技能層面,核心就是學會獲取知識、學會分析思考,還有一項重要能力是提出正確的問題。再說說專業領域,我一直跟年輕人推薦兩個方向。第一個是資料科學,這其實就是以前說的統計學,只是換了個更時髦的叫法。未來會迎來資料大爆炸,世界數位化程度越高,個人和企業掌握的資料就越多,學會管理和分析資料會變得至關重要。掌握了資料相關的技能後,還得關注 “人” 的層面,所以心理學也很值得學。心理學和生物學能幫我們理解人腦的運作機制,我始終覺得人腦是目前能耗最低、效率最高的 “機器”,搞懂它的工作原理意義重大。另外我還想到一點,現在很多孩子沒選電腦科學,反而去學材料科學,這在未來會很有前景。當下世界是由數字(位元)主導的,但未來能讓數字傳輸更高效的,會是物理實體(原子)。搞懂原子層面的運作規律會越來越重要,比如半導體領域就需要材料科學的支撐,未來這個領域會有大量創新,所以材料科學會是個很有潛力的專業。主持人:說得真好。總結下來就是材料科學、認知科學、資料科學這幾個方向。而且我們還是得學程式設計,不是因為工作剛需,而是為了培養邏輯思維,搞明白 AI 到底在對我們做什麼。這些建議真的特別實用。七、問答環節主持人:喬(蔡崇信)的日程其實特別滿,而且我知道今天現場來了一千多人。所以我們今天做了個特別安排:本來是有二維碼讓大家掃碼提問的,但現在可能來不及了,因為我已經收到了 10 個問題。大家也不用走到麥克風前,現場其實也沒設移動麥。我會挑幾個優質問題來問,有些問題可能會有點有意思,要是問到你不想答的,可別怪我,你要是覺得不方便,不回答也沒關係,不過我相信你肯定有應對的辦法。先插個小推廣:喬,你知道嗎?我們港大其實和阿里雲合作開了一門課,不是學位項目哈,是一門課程,但修完能拿學分,算入學位考核的。特別感謝阿里雲的支援!有位修這門課的學生提了個問題:阿里巴巴集團一直是各行業變革的推動者,你覺得雲端運算接下來會驅動那一場重大變革,進而影響大眾行為和商業格局?蔡崇信:在我們看來,雲端運算就像水電煤一樣,是一種公共基礎設施,支撐著各類活動和技術的運轉。而云計算領域目前最火的方向,顯然是人工智慧。因為不管是 AI 模型的訓練,還是 AI 的實際應用、推理運算,都離不開雲端運算的支撐。我覺得 AI 領域下一個重大變革,會發生在人們不再只把 AI 當成工具,而是當作朋友的時候。現在的 AI 更多還是工具屬性,大家都想用它提高個人和公司的效率,比如 AI 已經能幫我們寫程式碼,讓企業不用雇那麼多軟體工程師了。但什麼時候 AI 能變成你的夥伴呢?等大多數人都把 AI 當成另一個 “人” 看待時,才會真正顛覆整個世界,改變人們的行為模式。有時候想想還挺讓人覺得後怕的,但我確實能看到這種趨勢正在發生。主持人:我也覺得這一天會來的。蔡崇信:或者說等到通用人工智慧(AGI)實現的時候。傳統的圖靈測試是說,如果 AI 的行為和反應讓你分不清它是人還是機器,就算通過測試。當你和 AI 互動、來回交流時,它給出的回應就像朋友一樣自然,那時候既讓人興奮,也難免有點不安。主持人:好的,第二個問題特別有意思,其實我本來也想問,但因為主題是陳教授牽頭的委員會定的,就沒機會提。這是個職業規劃相關的問題:很多學生,還有像我這樣的職場中年人,都在糾結是創業,還是加入初創公司。聽說 90 年代末你在香港有份很不錯的工作,後來卻跑去杭州見了你的合夥人馬雲,還加入了當時前途未卜的阿里,放棄了高薪。是什麼讓你做了這個決定?另外,對於想加入初創公司的人來說,什麼時候是合適的時機?又該重點考量那些因素?蔡崇信:不管是年輕人,還是我這種 “老年人”,做決策時其實都在權衡風險和收益。如果事情沒成,你得承擔風險;但要是成了,能獲得的回報又是什麼?這雖然沒法完全用數學公式量化,但大體能估算出最壞結果和最好前景。我當年加入阿里時,就覺得下行風險特別小,為什麼?因為我有不錯的大學學歷,還讀了法學院,就算阿里失敗了,我大不了回去當律師,退路是有的。可上行空間卻大到沒法想像,幾乎是無限的。這其實是一種風險收益不對稱的局面,學金融的同學應該懂,就像看漲期權一樣。所以這個決定對我來說其實很容易,核心就是看中了這種不對等的風險回報比。而且這種好機會可遇不可求,刻意去找反而找不到。所以我想對現場年輕人說,最重要的是做好準備,機會來的時候才能抓得住,畢竟你永遠不知道它會在什麼時候出現。主持人:這個問題是關於 AI 會不會成為下一個網際網路泡沫的。大家都經歷過 2000 年初網際網路泡沫的興起和破裂,而且你要是關注過 “七大科技巨頭” 的股價就知道,它們最近漲得特別瘋狂,我就特別後悔太早賣掉了輝達的股票。當然我們不是來要炒股建議的,就是想問問你,你覺得 AI 領域存在泡沫嗎?如果不存在,你覺得這次和當年的網際網路泡沫有什麼本質區別?蔡崇信:其實 “泡沫” 分兩種,一種是真實的行業泡沫,另一種是金融市場層面的泡沫。金融市場有沒有泡沫我不好說,畢竟股票估值這事兒更像一門藝術,  雖然有成熟的估值理論,但你可以因為看好某家公司的高增速,就給它 50 倍的市盈率,這合理嗎?誰也說不準。AI 相關的股市可能確實存在泡沫,但 AI 這個技術浪潮本身是真實存在的。現在大家搭建的各類 AI 基礎設施、投入到模型研發的所有資源,都不會白費,因為這是實實在在的技術變革。就像 2000 年 3 月前後,網際網路泡沫破裂了,但那只是股市的泡沫,網際網路技術本身不僅沒消失,反而發展得越來越壯大,對吧?所以技術本身是造不成泡沫的。主持人:這個問題特別有意思,我們的學生真的很聰明,問的問題比我有水平多了。接下來是關於管理風格的:你既投資了職業體育,不知道你在管理籃球隊、長曲棍球隊上投入了多少精力,同時還得管理科技公司。管理這兩類截然不同的機構,有那些共通之處,又有那些差異?搭建團隊、塑造企業文化這件事,到底有多重要?這算是個比較宏觀的領導力和管理問題,畢竟你同時涉足了兩個差異極大的領域。蔡崇信:我剛買下布魯克林籃網隊的時候,很多人都主動來給我提建議,說職業體育和普通生意完全是兩碼事。他們覺得我懂企業管理,但職業體育圈裡都是明星球員,得用不一樣的方式去管理,還說我根本不懂這行的門道,應該把球隊交給業內人去管。可我後來發現,那些所謂的體育圈 “行家” 其實啥也不懂,他們就只靠人脈吃飯,通訊錄裡存了一堆人的聯絡方式,知道該給誰打電話,和球員經紀人有點交情而已。現在我反而覺得,在優質管理這件事上,體育圈和商界的理念正在趨同。首先第一條,就是得選對人。我在籃網隊就有個很靠譜的總經理,專門負責籃球業務,比如簽球員、做交易、選新秀這些事;還有個 CEO 管商業類股,負責賣門票、拉贊助、做行銷、拓展球迷群體,和企業管理的邏輯一模一樣。說白了,不管是做企業還是管球隊,都得靠團隊,得找那些比你更專業、更有能力、更聰明的人。不然的話,你自己就會變成組織發展的瓶頸。我本身不是籃球專家,更別說打球了,所以就得找最懂行的人,然後和管理團隊建立信任。主持人:所以核心是要做一個有遠見的領導者,能長期帶領團隊朝著同一個方向走。那說到薪酬,你給阿里員工開的工資,是不是得和 NBA 球星一樣高才行?蔡崇信:其實是一個道理。我最操心的就是怎麼留住人才,優秀的人永遠搶手,總有競爭對手會挖牆腳。所以得制定合理的薪酬體系,而且針對公司裡的資深核心人才,還得量身定製薪酬方案。我自己的職責是啥呢?公司董事會有個薪酬委員會,成員都是獨立董事,但這些獨立董事並不瞭解公司的具體營運,也不熟悉每個員工的情況。所以我的工作就是向獨立董事和薪酬委員會說清楚,我們的核心團隊有多重要,說服他們給這些人才開高薪,因為他們確實值這個價。主持人:好的,我們還剩幾分鐘時間,我再問個簡單點的問題。能不能在兩分鐘內,給我們講講阿里巴巴的 AI 戰略?你們現在重點聚焦在那些方面,下一步又有什麼規劃?當然,不用透露太多商業機密。蔡崇信:我們的 AI 戰略其實特別簡單。第一,大語言模型和雲端運算業務兩手抓,靠雲端運算為 AI 和數字時代提供基礎設施來盈利;第二,把大語言模型開源,讓更多人能用上我們的技術。就這麼簡單,這就是我們的核心戰略。主持人:沒想到居然這麼簡單,我都學會怎麼管阿里了!你們在這個領域其實已經是絕對的龍頭了,雖然你沒明說。本來我想收尾了,但按照這個系列講座的傳統,我得先請陳坤耀教授來做總結髮言。 (大咖觀點)
【最新】黃仁勳作客喬羅根訪談:2.5 小時無指令碼猛料!黃仁勳解析 AI 競賽與安全攻防,社會經濟影響,還曝輝達逆襲史
在科技界,輝達(Nvidia)CEO黃仁勳(Jensen Huang)以其標誌性的皮夾克和對未來的敏銳洞察而聞名。然而,他很少進行長時間、無指令碼的深度對話。但就在剛不久,他卻罕見地做客知名播客節目《The Joe Rogan Experience》,與主持人喬羅根進行了一場罕見的、長達2個半小時的交流。這次交流,核心內容如下:一、川普政府的務實主義黃仁勳讚賞川普總統的“常識性”方法,特別是其支援增長的能源政策(“鑽探吧,寶貝,鑽探吧”),他認為這一政策對於支援AI行業所需的基礎設施建設(如晶片工廠和超級電腦)至關重要,實際上“拯救了AI產業”。二、人工智慧競賽與國家安全黃仁勳將當前的人工智慧發展置於持續不斷的技術競賽歷史背景之下,並強調其對國家實力的決定性作用。他認為,從工業革命到曼哈頓計畫再到冷戰,人類始終處於技術競賽之中。AI競賽只是這一歷史處理程序的最新階段,並且可能是“最重要的競賽”。他將技術領導力比作擁有“超能力”,無論是資訊、能源還是軍事領域,技術都是基礎。因此,在AI領域保持領先地位至關重要。三、關於AI的安全問題人們的一個普遍的擔憂是:隨著AI變得越來越強大,它會不會也變得越來越危險和不可控?這幾乎是所有科幻電影的核心情節。但黃仁勳將AI的“安全”定義為功能性和精準性,認為更強大的算力主要被用於提升AI的思考、研究和反思能力,從而產生更可靠的結果,而非科幻電影中的失控力量。他認為AI的發展是漸進的,不會出現某個實體突然獲得壓倒性優勢的“奇點”時刻。對於AI可能失控的擔憂,黃仁勳反覆提出“網路安全論點”。他認為未來不會是單一AI對抗人類,而是“我的AI”對抗“你的AI”。就像網路安全領域一樣,攻防技術會同步發展,形成動態平衡,防止任何一方取得絕對優勢。四、人工智慧的社會經濟影響黃仁勳探討了AI對就業、經濟和全球技術鴻溝的深遠影響。1.對就業的影響:任務替代與價值重塑他引用了放射科醫生的例子。儘管五年前有人預測AI將取代所有放射科醫生,但現實是放射科醫生的數量反而增加了。因為AI接管了研究圖像這一“任務”,讓醫生能專注於“診斷疾病”這一核心“目的”,從而服務更多病人,提升了整個醫療體系的經濟效益。他總結道,如果一個人的工作僅僅是“任務”,那很可能會被自動化取代。但大多數職業的“目的”不會改變,AI將成為增強人類能力的強大工具。2.全民基本收入與富足對於伊隆·馬斯克提出的“全民高收入”願景,黃仁勳認為未來可能介於“資源極度富足,人人富有”和“需要全民基本收入來維持生計”兩種極端情況之間。他傾向於前者,即AI將創造出巨大的資源富足,使得許多今天被視為有價值的東西變得唾手可得。3.縮小技術鴻溝:黃仁勳堅信AI將“顯著縮小技術鴻溝”,而非擴大它。主要原因在於AI是“有史以來最易於使用的應用”,使用者只需通過自然語言即可操作。他指出在過去十年中,NVIDIA將計算性能提升了10萬倍,這意味著未來AI計算所需的能源將變得“微不足道”。因此,即使是資源有限的國家也能負擔得起“昨天的AI”,而“昨天的AI”已經“非常了不起”。五、NVIDIA的傳奇起源黃仁勳詳細回顧了NVIDIA瀕臨破產的早期歷史。公司在選擇了錯誤的技術路線後,憑藉一系列關鍵決策得以倖存和崛起:說服世嘉(Sega)將一筆合同款項轉為救命投資、通過購買教科書從零學習正確的技術、耗盡公司一半資金購買一台停產的模擬器以確保晶片首次流片成功,以及與台積電(TSMC)進行一場豪賭。六、個人經歷與領導哲學作為第一代移民,黃仁勳分享了他從台灣到泰國,再到肯塔基州貧困地區的獨特成長經歷。他的領導哲學深受這些經歷影響,核心驅動力是“對失敗的恐懼”而非“對成功的渴望”。他強調,保持脆弱性和持續的危機感(“公司離倒閉永遠只有30天”)是企業能夠不斷調整和創新的關鍵。 (大咖觀點)
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)