#AI競賽
2025最新蔡崇信港大演講對話完整版:中美AI競賽實力對比以及給年輕人在AI時代的建議
11月5日現任阿里巴巴董事長蔡崇信做客香港大學陸佑堂,與香港大學副校長兼商學院副院長鄧希煒教授進行了一場精彩的爐邊談話。談話主要涉及蔡崇信對體育的投資、阿里巴巴的文化、中美AI競賽實力對比、蔡崇信給年輕人在AI時代的建議等。非常精彩!以下為相關對話全文中文翻譯:一、蔡崇信談對體育的投資主持人:首先啊,我從沒見過陸佑堂裡擠過這麼多人。喬(註:此處指蔡崇信),你要知道,這可是香港大學最老牌的講堂了。其實我們當初真該選個更大的場地,畢竟就發了一封活動通知郵件,反響卻又快又熱烈,短短兩小時就有超 1200 人報名。要是再開放兩天報名,我敢說報名人數能突破 10 萬,到時候就得去啟德新體育場館給你辦活動了。不過不管怎樣,歡迎你來到香港大學!特別榮幸能有機會和你對話。今天的話題既應景又宏大,我知道你剛從另一個活動趕過來,所以先從一個你打心底裡在意的話題慢慢切入,那就是體育。大家都知道,你不只是阿里巴巴的董事長,還是布魯克林籃網隊的老闆。而且最近你還帶著球隊去澳門和菲尼克斯太陽隊打了比賽,聽說你們贏了?蔡崇信:我們是一勝一負。主持人:原來如此,我只聽說你們贏的那場。那我的第一個問題,也是台下觀眾特別好奇的:你是從什麼時候開始萌生投資職業體育的想法的?你覺得 NBA 能給中國帶來那些機遇?蔡崇信:唐教授,在回答問題之前,我想先表達最誠摯的謝意。能站在這裡,我感到萬分榮幸。我不是馬雲,但能有機會來交流想法,我很珍惜。當初你們聯絡我時,說這是系列講座,我就提了個想法,不想站在講台上單向授課,更希望用爐邊談話的形式,和大家交流思想,也是為了致敬陳教授。我很期待這次交流,也知道之後會有和現場學生的問答環節,對此我十分期待。謝謝大家!NBA 進入中國已經有很長時間了,早年就常來中國辦賽。2019 年後賽事一度中斷,今年是六年來 NBA 首次派兩支球隊,其中一支就是我旗下的布魯克林籃網隊,來中國地區參賽,最終選定了澳門。NBA 和澳門金沙集團簽了五年合約,未來五年都會在澳門辦賽,而且合約裡也預留了去中國大陸辦賽的可能性。所以我預計,用不了多久,NBA 就能重返中國大陸賽場。從 NBA 的角度看,這個佈局邏輯很清晰:中國大概是全球籃球迷最多的國家,幾乎人人都關注 NBA。為什麼?因為這裡匯聚了世界最頂尖的籃球運動員。NBA 里約 30% 的球員都不是美國人,他們來自世界各地:歐洲、東歐、澳大利亞等等,亞洲球員目前還不多,但我們都希望未來中國籃球能不斷發展,再出一個姚明這樣的 NBA 球星。中國的球迷基礎太龐大了,所以 NBA 重返中國辦賽、讓球員和球迷面對面互動,是完全合理的選擇。而且這麼多年來,NBA 賽事也一直在中國保持轉播,不管是央視還是各大串流媒體平台,都能看到 NBA 比賽。從中國的角度來說,加強和世界的交流同樣重要。把全球體育乃至文化領域的精華引入中國,和國內的球迷、大眾互動,意義重大。這次賽事也得到了國內各界的熱烈歡迎,因為 NBA 的號召力實在太強,兩場比賽辦得非常成功,給球迷們呈現了超高水準的競技對決,其中一場還打到了加時賽。加時賽那場我們輸了,但第二晚的比賽贏了三分。這段經歷特別棒,我對這種體育文化交流也特別有信心。我想強調的是,用體育搭建文化交流的橋樑,這件事的價值無可估量。我在國內的公益事業,很大一部分也和體育相關,把體育納入教育體系就是我的重點投入方向。我有個項目,專門選拔即將升入九年級的初中生,送他們去美國讀四年高中,一方面是讓他們接受籃球專業訓練,更重要的是讓他們去美國接受教育。這某種程度上是復刻了我自己的經歷,我 13 歲就離開台灣,去美國讀寄宿學校,之後又在美國讀了大學。這個項目既能培養中國下一代籃球人才,也能讓這些孩子見識更廣闊的世界。但我覺得最大的受益者其實是美國的高中生們,他們以前只在書本上瞭解中國,沒機會和中國人真正打交道。我們選的都是學業和籃球雙優的孩子,他們融入美國當地社區後,很受大家歡迎。這種民間層面的交流太重要了,只要我有能力、有資源,就會一直支援這個項目。主持人:很棒!那每年能拿到你的獎學金去美國的孩子有多少呢?蔡崇信:選拔標準特別嚴格,競爭也很激烈。所以我們每年只選 6 到 8 個孩子。主持人:原來如此,那可都是真正的佼佼者啊。蔡崇信:沒錯。主持人:我還盼著我 9 歲的兒子能有機會呢,現在看來這難度也太大了。蔡崇信:可以試試嘛,說不定是你沒給孩子機會呢。主持人:哈哈,有道理!蔡崇信:是啊。主持人:你這話太鼓舞人了!我之前還真不知道你的體育事業裡還藏著公益的一面,真心希望你以後能多帶球隊來中國,讓我們見識世界頂級職業籃球的風采。二、阿里巴巴的自我革新主持人:在切入更大的主題之前,我的第二個問題想聊聊阿里巴巴。你應該還記得,2008 年你的好友馬雲曾來過這裡。大家肯定也對 2008 年的阿里印象深刻,但要知道,過去 26 年裡,阿里已經從一家單純的 B2B 電商公司,蛻變成了如今全球頂尖的 “AI + 雲端運算” 科技巨頭。你能不能和我們分享一下,阿里巴巴是如何實現這般顛覆性蛻變的?又是什麼 “獨門秘籍”,讓它每五到十年就能完成一次自我革新、變身成全新業態的公司?蔡崇信:好的,我先簡單回顧下歷史背景。1999 年我加入阿里時,中國人均 GDP 才 800 美元,而現在已經漲到了 13000 美元,這增長幅度是相當驚人的。我總跟朋友說,自己特別幸運,正好趕上了兩大時代紅利的交匯期:一是中國作為製造大國和整體經濟的崛起,二是網際網路的興起和網際網路驅動的經濟增長。站在阿里巴巴的平台上,我得以親眼見證這雙重引擎帶來的發展奇蹟,這種機遇真的可遇不可求。就像你說的,阿里最初只是一個 B2B 網站。當時馬雲的想法很純粹,就是想用網際網路為中國的中小商家、貿易公司和小工廠們創造公平的競爭環境。大家應該還有印象,2001 年中國才加入 WTO,在那之前,國際貿易都得通過國有外貿公司來做。而中國入世後,貿易大門徹底打開,這也成了中國成為全球製造基地的起點。越來越多人開始建廠創業,他們看到了通過網際網路和全球做生意的機會,阿里的 B2B 模式就是在這個背景下誕生的,我們的核心就是幫中小企業做批發貿易。順便提一句,阿里最早的網站是全英文的,畢竟是面向全球採購商,是個外向型平台。之後我們從 B2B 電商拓展到了消費電商領域,也就是如今國內最大的消費購物平台淘寶。同時,因為當時買賣雙方互不信任的痛點,買家不願先付款、賣家不願先發貨,我們又順勢推出了支付寶,最初其實就是個第三方託管系統,專門解決交易信任問題。再往後,我們又逐步切入了物流等多個領域。你問到 “獨門秘籍”,我覺得核心很簡單:一家優秀的公司,永遠是跟著使用者需求走的。我們所有業務的拓展都是順勢而為,完全圍繞使用者的真實訴求來推進。我也想給台下的同學們提個建議:未來如果你們創業,一定要優先選擇內生式增長,而不是依賴併購。當然我們也做過一些收購,有成功的案例,也有慘敗的教訓。但內生增長始終是首選,因為這種模式是靠自己的團隊一步步搭建起來的,團隊成員也最懂阿里的企業文化和創新基因,這也是我們能持續迭代的關鍵。至於雲端運算業務,我們最初佈局也不是因為覺得這個賽道前景好才跟風,而是純粹為了滿足自身需求。16 年前,雲端運算還沒成為行業熱點,當時我們的消費平台已經在處理海量交易資料,我們的 CTO 就跟我們說:如果一直依賴第三方的軟硬體,比如戴爾、IBM 的伺服器,EMC 的儲存裝置,Oracle 的資料庫軟體,未來我們賺的利潤早晚都要拱手讓給這些技術供應商。所以我們做雲端運算,本質是為了實現技術自主可控,這後來也成了一個國家層面的發展議題。當時我們組建了專門團隊,研發能跨資料中心、跨多台電腦運行的作業系統,畢竟只有實現平行計算,才能處理我們手裡的海量資料。這就是阿里雲的起源,我們先自己 “吃螃蟹”,把這項技術用在了自家業務上,後來發現技術足夠成熟,才決定開放給第三方客戶,正式踏入雲端運算領域。三、宏觀經濟和十五五規劃主持人:接下來我想回到開源戰略的話題,上周我們其實聊過這個。不過今天的主題格局更大、也更深,顯然有著重要意義。我先簡單說說為什麼選這個主題。上周碰面時,喬(蔡崇信)你跟我說的第一句話就是 “我不是什麼厲害的貿易專家或宏觀經濟學家”。可你明明是耶魯經濟學專業畢業的,我當時還納悶這怎麼說得通。但很快你就說服了我,你其實特別睿智,也特別懂經濟,只是算不上傳統意義上的宏觀經濟學家罷了。後來我也跟你提過,陳坤耀教授是極具影響力的經濟學家,他深耕香港教育領域,培養了好幾代優秀學子,這些人後來不管是在私營領域還是政府部門,都取得了斐然成就。所以我當時就說,我們能調整主題的空間不大,必須緊扣中國經濟增長這個核心。考慮到你在科技領域投資頗豐,而且阿里巴巴在科技方面成績亮眼,我們就加了 “技術驅動力” 這個維度。那為什麼要聚焦 “十年” 這個時間節點呢?因為到 2035 年,中國共產黨和中國政府設定的目標是讓中國邁入中等發達國家行列。具體是什麼概念我其實也不完全清楚,但可以想像的是,屆時中國人均 GDP 需要達到 3 萬美元左右,這是有實現可能的。有意思的是,就在我們上周碰面到今天這段時間裡,中國國務院總理李強在上海發表講話,提出到 2030 年,也就是五年後,中國 GDP 總量要達到 24 兆美元。這意味著什麼?目前中國 GDP 大概是 20 兆美元,要增長到 24 兆美元,我能猜到你這會兒已經在心裡算起來了。這相當於需要實現年均 5% 左右的名義 GDP 增速,這並非天方夜譚。如果能保持 4% 的實際 GDP 增長,再加上 1% 到 2% 的通膨率,五年內就能達成目標,完全具備可行性。但要實現 4% 的實際 GDP 增長,就離不開大量創新,而且這些創新還得轉化為生產力的提升。所以我想向你提一個核心問題:在中國的國家級科技規劃中,你認為那些關鍵或具有影響力的內容,能確保中國在未來五年乃至十年內實現這樣的經濟增長目標?蔡崇信:好的,這確實是個非常貼合當下的問題。中共中央剛發佈了 “十五五” 規劃,我猜在座有些人可能完整讀過全文,我自己看了規劃摘要。這份五年規劃裡,有兩個核心要點。第一,中國希望繼續鞏固製造業強國的地位,規劃裡明確強調了要重視作為實體經濟重要組成的製造業,這是國家領導層的清晰表態,也是我們未來的發展方向。對比全球其他國家,中國的消費佔 GDP 比重其實很低,還不到 40%,而美國的消費佔比高達 70%。這說明中國經濟的核心還是在生產端,一定程度上還要依靠把產品出口到全球。我相信不管是現在,還是未來十年、二十年,中國都會持續作為全球製造基地,為世界供應各類商品。第二,規劃提出要實現科技自立自強。我認為這既是國家領導層的前瞻性佈局,也是應對當下地緣政治局勢的必然選擇 ,畢竟美國和部分歐洲國家一直在對中國實施關鍵技術封鎖。所以中國深知必須自主研發核心技術,而且目前已經在這條路上取得了不錯的進展。再回到第一個目標,也就是鞏固製造業根基。回顧中國的致富之路,從人均 GDP 800 美元到如今的 13000 美元,未來十年還要衝擊 30000 美元,靠的就是生產製造、靠的是把產品賣到全世界來創造財富。當然,外界對此有不少批評聲音,說中國存在 “產能過剩”,還把過剩產能出口到全球,彷彿這是什麼十惡不赦的事。但仔細想想,當年德國汽車行業大量出口汽車時,有人指責他們產能過剩嗎?其實從定義上來說,“產能過剩” 只是指國內市場消化不了的產能,只能通過出口來釋放,可 “過剩” 這個詞卻被貼上了負面標籤,這其實很不應該。因為一個國家要實現富裕,本質就是靠生產商品、從全球賺取財富,進而提高本國國民的收入水平。我堅信,只要繼續堅持做全球製造中心,而且向高端製造業轉型,不再侷限於生產鞋子、T 恤這類低端產品,中國經濟就能持續增長,老百姓的財富和可支配收入也會不斷增加,消費市場自然會慢慢壯大。就拿阿里巴巴平台的資料來說,現在有大約 5600 萬人每年在淘寶上的消費超過 6000 美元,這個數字遠超中國居民的平均可支配收入,足以說明我們的消費市場已經有了相當規模,未來只會越來越大。不過國家領導層很清楚,健康的經濟增長和財富創造,根基還是在於強大的製造業,而且是高端製造業。如今中國在電動汽車、電池、太陽能面板等全球急需的產品製造領域,已經走在了世界前列。四、中美AI競賽實力對比主持人:現在所有人都在聊人工智慧,中國顯然也在這一領域投入了大量資源,而且 DeepSeek 的亮眼表現確實震撼了全球。我想再順著中國國家科技議程的話題追問一下,之前我問過你阿里巴巴實現蛻變的 “獨門秘籍”,現在想問問中國科技政策的 “制勝法寶” 是什麼。中國到底是怎麼做到後來居上的?要知道,過去國外企業和國家對中國實施了不少出口管制,十年前的中國還只在做簡單的製造業代工。可如今就像你說的,中國已經邁入高端製造領域,人工智慧各方面的實力也具備了競爭力,甚至在部分技術領先性上開始挑戰美國。我能不能把問題再聚焦一點,麻煩你著重講講人工智慧領域,中國有那些政策或者 “獨門優勢”,推動了該領域實現這樣的高速發展?蔡崇信:首先,說到國家層面的政策,中國政府已經明確了重點投資領域,比如半導體、半導體製造工藝,還有半導體生產裝置這類核心領域,這些佈局當然都很有必要。不過我個人覺得特別有意思、也格外關注的,是幾個月前國務院出台的一份人工智慧專項規劃。中國人做事向來務實,目標導向也很強,這份規劃裡就直接定下了明確目標:到 2030 年,也就是五年後,要實現人工智慧代理和相關裝置 90% 的滲透率。政府其實是給出了一個清晰的目標,然後把具體落地的空間交給了市場,不管是國企還是民營企業家,都可以去探索如何實現 AI 在中國的大規模普及。我認為這是一項非常高明的政策。畢竟現在全球都在參與所謂的 “AI 競賽”,也就是中美之間的 AI 角逐。但說到底,評判競賽勝負的標準,從來不是看大語言模型的技術有多尖端,而是要看 AI 的實際普及率。有越多的人用上 AI,整個社會才能從中獲得越大的收益。所以中國的整體思路是先推動 AI 的規模化落地,這無疑是一步好棋。主持人:我記得上周和你聊過中國 AI 生態的獨特性,當時提到了人才儲備、基礎設施、中國保有完整高端製造體系(而很多發達國家如今已不具備這一優勢),還有高效的能源生產能力這些點。能不能請你給現場觀眾具體講講,中國要成為 AI 超級大國,具備那些獨特的競爭優勢?蔡崇信:好的。現在美國人評判 AI 競賽勝負的標準,其實很單一,就是只看大語言模型的技術水平,今天是 OpenAI 領先,明天可能就換成 Anthropic。不過順便提一句,阿里的通義千問模型剛在一個為期兩周的加密貨幣和股票交易競賽裡拿了冠軍,當時參賽的有 10 個不同模型,涵蓋了美國和中國的主流產品,最終阿里模型奪冠,DeepSeek 位居第二。說起來真的很佩服 DeepSeek,他們就在杭州,和我們是鄰居,確實做出了非常出色的成果。所以我們並不認同美國人對 AI 競賽的評判邏輯,我們更看重中國在 AI 全產業鏈上的綜合優勢,先從能源說起。中國在電力生產上有顯著優勢,這得益於 15 年前政府的前瞻性佈局,當時就開始大規模投資能源輸送網路。畢竟中國的電力大多在北方生產,卻需要輸送到用電需求更大的南方;而且清潔能源的發電場地(比如有光照、風能、水能的地方),往往和用電集中區域不重合,這就需要強大的輸電網路來調配。中國有兩大電網,也就是國家電網和南方電網,它們每年的資本開支能達到 900 億美元,而美國全國的電網年投資只有 300 億美元,在電力輸送領域的投入遠遠不足。過去 15 年中國一直堅持在這方面發力,結果就是中國的電力裝機容量達到了美國的 2.6 倍,而且每年新增的電力裝機容量,更是美國的 9 倍之多,電力產能的增長速度遠超美國。更關鍵的是,這些新增產能裡大部分都是太陽能這類清潔能源,最終帶來的直接好處是,中國的電價每千瓦時比美國便宜約 40%。這對 AI 發展來說是巨大的能源優勢,畢竟運行 GPU、訓練大語言模型、做推理運算,都要消耗海量電力。機器和人腦不一樣,機器運轉起來特別耗電,而人腦的能耗卻極低,所以能源成本對 AI 產業的影響極大。再看資料中心的建設成本,在中國建資料中心,不算晶片和 GPU 的話,成本要比美國低 60%。至於模型研發層面,我認為中國的 AI 模型和美國的差距其實已經不大了,這背後是有原因的:中國的工程師儲備非常充足,每年培養的理工科(STEM)學生數量全球第一。可能有人覺得 AI 研發和模型訓練是高精尖的科研工作,但其實其中很大一部分是工程化的實操任務:需要搭建高效的系統,來支撐數千億甚至上兆參數模型的訓練。如果系統效率跟不上,會耗費巨量的 GPU 資源。而中國恰恰因為 GPU 資源相對緊缺,反而倒逼出了 “窮則思變” 的優勢:資源有限時,就必須在系統層面進行創新,這正是中國的強項,畢竟我們有大量的工程人才。還有個很有意思的現象:全球範圍內,近一半的 AI 科學家和研究人員,都有中國高校的學位背景。不管他們是在美國企業、中國企業,還是全球其他地方工作,都能看到這一群體的身影。這意味著你走進任何一家美國科技公司,都能發現很多華裔 AI 從業者。我最近還看到一個社交媒體帖子,是一位在 Meta(臉書母公司)工作的非華裔員工吐槽,說他所在的 AI 團隊裡,所有人都在說中文、用中文交流想法,他完全聽不懂,只能乾著急。主持人:不過他們既然能做出這麼厲害的 AI 工具,按理說應該能實現中文到各種語言的即時翻譯才對啊。蔡崇信:話是這麼說,但你想啊,在茶水間閒聊、在食堂吃飯時的那種隨口交流,那能靠翻譯工具把所有內容都精準捕捉到,對吧?這其實意味著,現在全球範圍內的 AI 領域,有大量的想法交流和觀點碰撞都是用中文進行的。這還是頭一回,中文成了一種優勢。過去,中文對中國企業出海來說其實是個短板。比如阿里巴巴去義大利、日本或者美國開辦公室,當地招聘的員工都不會說中文,只能用英語溝通,而我們杭州總部的同事就得用第二語言和他們對接,這肯定不是最理想的狀態,也成了中國企業拓展海外市場的一大阻礙。但現在不一樣了,懂中文在 AI 圈反而成了優勢,這事兒真的特別有意思。我剛才其實已經列舉了中國在 AI 領域的不少優勢,不過我覺得最大的優勢,還是中國企業對待大語言模型的思路,也就是開源策略,這會大大加速 AI 的普及,真正實現 AI 的規模化落地,讓更廣泛的社會群體從中受益。開源之所以這麼重要,核心原因就是它成本極低,甚至可以免費使用。阿里巴巴就推出了多款開源大模型,而且已經上架到美國乃至全球的各類開源市場。任何人都能直接下載我們的模型,部署到自己的基礎設施上,甚至是普通筆記型電腦裡,零成本就能開啟 AI 應用。這種開源模式能有力推動 AI 的普及,反觀美國,要是想用上 AI,得給 OpenAI 這類公司支付高額費用。所以我認為,這才是中國最終的核心優勢 ——AI 競賽的贏家,從來不是擁有最頂尖模型的那一方,而是能把 AI 最好地應用到各行各業、融入日常生活的一方,而這一點,中國肯定能做到。主持人:那想再追問一下,中國 AI 模型為何會側重開源,而美國的 AI 模式卻更偏向私有閉源,還要按市場價售賣資料和模型?這是不同國家的企業競爭模式存在本質差異,還是說有政府層面的激勵政策,促使中國企業更願意開放自身資源?蔡崇信:我給你舉個例子你就明白了。比如中東國家,就拿沙烏地阿拉伯來說,他們肯定也想發展 AI,而且希望能擁有自主可控的 AI 技術,也就是所謂的 “主權 AI”。但問題是,世界上絕大多數國家其實都沒有足夠的人才去獨立研發自己的主權 AI。所以當他們面臨選擇 —— 是通過 API 呼叫 OpenAI 的閉源模型,還是直接拿阿里巴巴的開源模型在此基礎上做二次開發時,從成本和效益的角度來看,顯然開源是更優解。除此之外,還有一個關鍵因素就是資料隱私。如果用 OpenAI 的服務,你在模型上做進一步訓練時,得把自己的資料輸入到對方的 API 裡,這就像一個 “黑箱”,你根本不知道這些資料會流向那裡、會被如何處理。但如果選擇開源 AI,企業和機構就能更好地掌控資料隱私,還能搭建自己的私有雲來儲存資料。所以放眼全球,不管是政府這類公共機構,還是私營企業,在選擇 AI 技術路線時,出於成本和資料隱私的雙重考量,都會傾向於發展開源 AI,或是基於開源 AI 進行二次開發。五、阿里巴巴的AI開源策略主持人:這話確實有道理,不過就拿阿里巴巴來說,你們這麼大方地讓大家免費使用開源 AI,到底靠什麼賺錢呢?肯定是在其他地方有盈利管道吧?蔡崇信:你這個問題問得特別好。直接答案是,我們並不靠 AI 本身賺錢。但別急,要知道我們還營運著雲端運算業務。畢竟運行 AI 模型,得有對應的雲基礎設施才行,而且這種基礎設施的技術門檻極高,不是隨便那家公司雇幾個工程師就能搭建起來的。它既需要 AI 基礎設施的專業維運能力,還得有足夠的規模效應 ,這行業本身就是拼規模的。這就像我們普通人不會自己建酒店一樣,出門都是直接訂酒店入住,因為酒店營運商有專業的營運能力。雲端運算和資料中心業務也是這個道理,核心就是把基礎設施資源整合起來,當客戶數量足夠多時,就能形成營運槓桿,攤薄服務單個客戶的單位成本。所以我們的盈利邏輯是這樣的:如果使用者要運行 AI 模型,剛好又選擇了阿里雲,我們就能為其提供一整套配套產品,從儲存、資料管理、安全防護、網路服務,到我其實也不太懂的容器技術(姑且先這麼說),應有盡有。這些一站式產品能幫使用者在我們的基礎設施上更高效地運行 AI,我們也正是通過這樣的雲端運算服務來實現商業化變現的。六、AI 時代應該的技能和專業方向選擇主持人:好的,在切換到問答環節前,我先問最後一個問題。對了,先說明一下,現場來了超多學生,其實 80% 的觀眾都是學生,從本科生到博士生都有。喬(蔡崇信)之前跟我說,看到這麼多學生他特別興奮,因為他平時打交道的多是政府官員、商界人士和投資人,學生群體反而不常接觸,所以他也很樂意給大家一些建議。那你覺得,年輕人要為 AI 時代做準備,應該掌握那些技能?或者說該選擇什麼專業方向深耕?蔡崇信:我覺得這其實是兩個不同的問題,一個是技能儲備,一個是專業領域,二者略有區別。先說說技能層面,我始終認為有兩點最關鍵:一是學會如何獲取知識,二是建立分析資訊的框架,最終能形成自己的判斷。而要提升這些能力,沒有什麼一蹴而就的辦法,得靠日積月累的訓練。比如我一直建議大家學點程式語言,這就像學一門外語 ,學西班牙語能和西班牙人交流,學法語能和法國人溝通,而學電腦語言,是為了和機器對話,是在給機器下達指令。程式語言背後藏著很強的邏輯,怎麼建構合理的指令讓機器完成任務,這個過程本身就是一種思維訓練。可能有人會說,現在有很多可視化程式設計工具,根本不用專門學程式碼,直接用自然語言就能操作機器。但我想說,學程式設計的目的不是為了實操機器,而是為了經歷這個思維錘煉的過程。我自己是法律和金融出身,金融領域裡大家常用電子表格。我也會跟家裡孩子說,一定要學好電子表格 —— 在表格里搭建公式並讓它正常運轉,輸入一個資料就能自動算出結果,這是很精妙的事。能熟練用好電子表格,本質上也是在鍛鍊邏輯思維。所以技能層面,核心就是學會獲取知識、學會分析思考,還有一項重要能力是提出正確的問題。再說說專業領域,我一直跟年輕人推薦兩個方向。第一個是資料科學,這其實就是以前說的統計學,只是換了個更時髦的叫法。未來會迎來資料大爆炸,世界數位化程度越高,個人和企業掌握的資料就越多,學會管理和分析資料會變得至關重要。掌握了資料相關的技能後,還得關注 “人” 的層面,所以心理學也很值得學。心理學和生物學能幫我們理解人腦的運作機制,我始終覺得人腦是目前能耗最低、效率最高的 “機器”,搞懂它的工作原理意義重大。另外我還想到一點,現在很多孩子沒選電腦科學,反而去學材料科學,這在未來會很有前景。當下世界是由數字(位元)主導的,但未來能讓數字傳輸更高效的,會是物理實體(原子)。搞懂原子層面的運作規律會越來越重要,比如半導體領域就需要材料科學的支撐,未來這個領域會有大量創新,所以材料科學會是個很有潛力的專業。主持人:說得真好。總結下來就是材料科學、認知科學、資料科學這幾個方向。而且我們還是得學程式設計,不是因為工作剛需,而是為了培養邏輯思維,搞明白 AI 到底在對我們做什麼。這些建議真的特別實用。七、問答環節主持人:喬(蔡崇信)的日程其實特別滿,而且我知道今天現場來了一千多人。所以我們今天做了個特別安排:本來是有二維碼讓大家掃碼提問的,但現在可能來不及了,因為我已經收到了 10 個問題。大家也不用走到麥克風前,現場其實也沒設移動麥。我會挑幾個優質問題來問,有些問題可能會有點有意思,要是問到你不想答的,可別怪我,你要是覺得不方便,不回答也沒關係,不過我相信你肯定有應對的辦法。先插個小推廣:喬,你知道嗎?我們港大其實和阿里雲合作開了一門課,不是學位項目哈,是一門課程,但修完能拿學分,算入學位考核的。特別感謝阿里雲的支援!有位修這門課的學生提了個問題:阿里巴巴集團一直是各行業變革的推動者,你覺得雲端運算接下來會驅動那一場重大變革,進而影響大眾行為和商業格局?蔡崇信:在我們看來,雲端運算就像水電煤一樣,是一種公共基礎設施,支撐著各類活動和技術的運轉。而云計算領域目前最火的方向,顯然是人工智慧。因為不管是 AI 模型的訓練,還是 AI 的實際應用、推理運算,都離不開雲端運算的支撐。我覺得 AI 領域下一個重大變革,會發生在人們不再只把 AI 當成工具,而是當作朋友的時候。現在的 AI 更多還是工具屬性,大家都想用它提高個人和公司的效率,比如 AI 已經能幫我們寫程式碼,讓企業不用雇那麼多軟體工程師了。但什麼時候 AI 能變成你的夥伴呢?等大多數人都把 AI 當成另一個 “人” 看待時,才會真正顛覆整個世界,改變人們的行為模式。有時候想想還挺讓人覺得後怕的,但我確實能看到這種趨勢正在發生。主持人:我也覺得這一天會來的。蔡崇信:或者說等到通用人工智慧(AGI)實現的時候。傳統的圖靈測試是說,如果 AI 的行為和反應讓你分不清它是人還是機器,就算通過測試。當你和 AI 互動、來回交流時,它給出的回應就像朋友一樣自然,那時候既讓人興奮,也難免有點不安。主持人:好的,第二個問題特別有意思,其實我本來也想問,但因為主題是陳教授牽頭的委員會定的,就沒機會提。這是個職業規劃相關的問題:很多學生,還有像我這樣的職場中年人,都在糾結是創業,還是加入初創公司。聽說 90 年代末你在香港有份很不錯的工作,後來卻跑去杭州見了你的合夥人馬雲,還加入了當時前途未卜的阿里,放棄了高薪。是什麼讓你做了這個決定?另外,對於想加入初創公司的人來說,什麼時候是合適的時機?又該重點考量那些因素?蔡崇信:不管是年輕人,還是我這種 “老年人”,做決策時其實都在權衡風險和收益。如果事情沒成,你得承擔風險;但要是成了,能獲得的回報又是什麼?這雖然沒法完全用數學公式量化,但大體能估算出最壞結果和最好前景。我當年加入阿里時,就覺得下行風險特別小,為什麼?因為我有不錯的大學學歷,還讀了法學院,就算阿里失敗了,我大不了回去當律師,退路是有的。可上行空間卻大到沒法想像,幾乎是無限的。這其實是一種風險收益不對稱的局面,學金融的同學應該懂,就像看漲期權一樣。所以這個決定對我來說其實很容易,核心就是看中了這種不對等的風險回報比。而且這種好機會可遇不可求,刻意去找反而找不到。所以我想對現場年輕人說,最重要的是做好準備,機會來的時候才能抓得住,畢竟你永遠不知道它會在什麼時候出現。主持人:這個問題是關於 AI 會不會成為下一個網際網路泡沫的。大家都經歷過 2000 年初網際網路泡沫的興起和破裂,而且你要是關注過 “七大科技巨頭” 的股價就知道,它們最近漲得特別瘋狂,我就特別後悔太早賣掉了輝達的股票。當然我們不是來要炒股建議的,就是想問問你,你覺得 AI 領域存在泡沫嗎?如果不存在,你覺得這次和當年的網際網路泡沫有什麼本質區別?蔡崇信:其實 “泡沫” 分兩種,一種是真實的行業泡沫,另一種是金融市場層面的泡沫。金融市場有沒有泡沫我不好說,畢竟股票估值這事兒更像一門藝術,  雖然有成熟的估值理論,但你可以因為看好某家公司的高增速,就給它 50 倍的市盈率,這合理嗎?誰也說不準。AI 相關的股市可能確實存在泡沫,但 AI 這個技術浪潮本身是真實存在的。現在大家搭建的各類 AI 基礎設施、投入到模型研發的所有資源,都不會白費,因為這是實實在在的技術變革。就像 2000 年 3 月前後,網際網路泡沫破裂了,但那只是股市的泡沫,網際網路技術本身不僅沒消失,反而發展得越來越壯大,對吧?所以技術本身是造不成泡沫的。主持人:這個問題特別有意思,我們的學生真的很聰明,問的問題比我有水平多了。接下來是關於管理風格的:你既投資了職業體育,不知道你在管理籃球隊、長曲棍球隊上投入了多少精力,同時還得管理科技公司。管理這兩類截然不同的機構,有那些共通之處,又有那些差異?搭建團隊、塑造企業文化這件事,到底有多重要?這算是個比較宏觀的領導力和管理問題,畢竟你同時涉足了兩個差異極大的領域。蔡崇信:我剛買下布魯克林籃網隊的時候,很多人都主動來給我提建議,說職業體育和普通生意完全是兩碼事。他們覺得我懂企業管理,但職業體育圈裡都是明星球員,得用不一樣的方式去管理,還說我根本不懂這行的門道,應該把球隊交給業內人去管。可我後來發現,那些所謂的體育圈 “行家” 其實啥也不懂,他們就只靠人脈吃飯,通訊錄裡存了一堆人的聯絡方式,知道該給誰打電話,和球員經紀人有點交情而已。現在我反而覺得,在優質管理這件事上,體育圈和商界的理念正在趨同。首先第一條,就是得選對人。我在籃網隊就有個很靠譜的總經理,專門負責籃球業務,比如簽球員、做交易、選新秀這些事;還有個 CEO 管商業類股,負責賣門票、拉贊助、做行銷、拓展球迷群體,和企業管理的邏輯一模一樣。說白了,不管是做企業還是管球隊,都得靠團隊,得找那些比你更專業、更有能力、更聰明的人。不然的話,你自己就會變成組織發展的瓶頸。我本身不是籃球專家,更別說打球了,所以就得找最懂行的人,然後和管理團隊建立信任。主持人:所以核心是要做一個有遠見的領導者,能長期帶領團隊朝著同一個方向走。那說到薪酬,你給阿里員工開的工資,是不是得和 NBA 球星一樣高才行?蔡崇信:其實是一個道理。我最操心的就是怎麼留住人才,優秀的人永遠搶手,總有競爭對手會挖牆腳。所以得制定合理的薪酬體系,而且針對公司裡的資深核心人才,還得量身定製薪酬方案。我自己的職責是啥呢?公司董事會有個薪酬委員會,成員都是獨立董事,但這些獨立董事並不瞭解公司的具體營運,也不熟悉每個員工的情況。所以我的工作就是向獨立董事和薪酬委員會說清楚,我們的核心團隊有多重要,說服他們給這些人才開高薪,因為他們確實值這個價。主持人:好的,我們還剩幾分鐘時間,我再問個簡單點的問題。能不能在兩分鐘內,給我們講講阿里巴巴的 AI 戰略?你們現在重點聚焦在那些方面,下一步又有什麼規劃?當然,不用透露太多商業機密。蔡崇信:我們的 AI 戰略其實特別簡單。第一,大語言模型和雲端運算業務兩手抓,靠雲端運算為 AI 和數字時代提供基礎設施來盈利;第二,把大語言模型開源,讓更多人能用上我們的技術。就這麼簡單,這就是我們的核心戰略。主持人:沒想到居然這麼簡單,我都學會怎麼管阿里了!你們在這個領域其實已經是絕對的龍頭了,雖然你沒明說。本來我想收尾了,但按照這個系列講座的傳統,我得先請陳坤耀教授來做總結髮言。 (大咖觀點)
【最新】黃仁勳作客喬羅根訪談:2.5 小時無指令碼猛料!黃仁勳解析 AI 競賽與安全攻防,社會經濟影響,還曝輝達逆襲史
在科技界,輝達(Nvidia)CEO黃仁勳(Jensen Huang)以其標誌性的皮夾克和對未來的敏銳洞察而聞名。然而,他很少進行長時間、無指令碼的深度對話。但就在剛不久,他卻罕見地做客知名播客節目《The Joe Rogan Experience》,與主持人喬羅根進行了一場罕見的、長達2個半小時的交流。這次交流,核心內容如下:一、川普政府的務實主義黃仁勳讚賞川普總統的“常識性”方法,特別是其支援增長的能源政策(“鑽探吧,寶貝,鑽探吧”),他認為這一政策對於支援AI行業所需的基礎設施建設(如晶片工廠和超級電腦)至關重要,實際上“拯救了AI產業”。二、人工智慧競賽與國家安全黃仁勳將當前的人工智慧發展置於持續不斷的技術競賽歷史背景之下,並強調其對國家實力的決定性作用。他認為,從工業革命到曼哈頓計畫再到冷戰,人類始終處於技術競賽之中。AI競賽只是這一歷史處理程序的最新階段,並且可能是“最重要的競賽”。他將技術領導力比作擁有“超能力”,無論是資訊、能源還是軍事領域,技術都是基礎。因此,在AI領域保持領先地位至關重要。三、關於AI的安全問題人們的一個普遍的擔憂是:隨著AI變得越來越強大,它會不會也變得越來越危險和不可控?這幾乎是所有科幻電影的核心情節。但黃仁勳將AI的“安全”定義為功能性和精準性,認為更強大的算力主要被用於提升AI的思考、研究和反思能力,從而產生更可靠的結果,而非科幻電影中的失控力量。他認為AI的發展是漸進的,不會出現某個實體突然獲得壓倒性優勢的“奇點”時刻。對於AI可能失控的擔憂,黃仁勳反覆提出“網路安全論點”。他認為未來不會是單一AI對抗人類,而是“我的AI”對抗“你的AI”。就像網路安全領域一樣,攻防技術會同步發展,形成動態平衡,防止任何一方取得絕對優勢。四、人工智慧的社會經濟影響黃仁勳探討了AI對就業、經濟和全球技術鴻溝的深遠影響。1.對就業的影響:任務替代與價值重塑他引用了放射科醫生的例子。儘管五年前有人預測AI將取代所有放射科醫生,但現實是放射科醫生的數量反而增加了。因為AI接管了研究圖像這一“任務”,讓醫生能專注於“診斷疾病”這一核心“目的”,從而服務更多病人,提升了整個醫療體系的經濟效益。他總結道,如果一個人的工作僅僅是“任務”,那很可能會被自動化取代。但大多數職業的“目的”不會改變,AI將成為增強人類能力的強大工具。2.全民基本收入與富足對於伊隆·馬斯克提出的“全民高收入”願景,黃仁勳認為未來可能介於“資源極度富足,人人富有”和“需要全民基本收入來維持生計”兩種極端情況之間。他傾向於前者,即AI將創造出巨大的資源富足,使得許多今天被視為有價值的東西變得唾手可得。3.縮小技術鴻溝:黃仁勳堅信AI將“顯著縮小技術鴻溝”,而非擴大它。主要原因在於AI是“有史以來最易於使用的應用”,使用者只需通過自然語言即可操作。他指出在過去十年中,NVIDIA將計算性能提升了10萬倍,這意味著未來AI計算所需的能源將變得“微不足道”。因此,即使是資源有限的國家也能負擔得起“昨天的AI”,而“昨天的AI”已經“非常了不起”。五、NVIDIA的傳奇起源黃仁勳詳細回顧了NVIDIA瀕臨破產的早期歷史。公司在選擇了錯誤的技術路線後,憑藉一系列關鍵決策得以倖存和崛起:說服世嘉(Sega)將一筆合同款項轉為救命投資、通過購買教科書從零學習正確的技術、耗盡公司一半資金購買一台停產的模擬器以確保晶片首次流片成功,以及與台積電(TSMC)進行一場豪賭。六、個人經歷與領導哲學作為第一代移民,黃仁勳分享了他從台灣到泰國,再到肯塔基州貧困地區的獨特成長經歷。他的領導哲學深受這些經歷影響,核心驅動力是“對失敗的恐懼”而非“對成功的渴望”。他強調,保持脆弱性和持續的危機感(“公司離倒閉永遠只有30天”)是企業能夠不斷調整和創新的關鍵。 (大咖觀點)
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)
誰將為這場史上最昂貴的AI軍備競賽買單?|大公司
過去數周,輝達股價經歷了一輪高位回呼與震盪。目前市值相較於一個月前的高點已下降15.4%。雖然一周前最新季度財報發佈後,公司超預期的業績表現一定程度上穩定了市場信心,但隔天股價的下跌反映著情緒底色依然是消極的。關鍵的是,這已不僅僅是輝達一家公司的悲歡,它的表現是觀察AI行業的核心風向標。再加上Alphabet、微軟、亞馬遜、Meta、蘋果、特斯拉,這七家技術公司繼承了商業歷史上石油七巨頭的強勢,利益捆綁關係緊密,以驚人的市值集中度成為美股的主心骨。根據中金公司資料,自2022年年底ChatGPT發佈以來,美股「七姐妹」(Magnificent Seven)最高上漲283%,大幅跑贏同期標普500指數扣除M7後的69%。最近一周,美國投資人Michael Burry公開警告AI泡沫,質疑以輝達為中心的技術公司之間的循環交易模式,重申他對輝達的看空立場。輝達對此予以駁斥,聲稱戰略投資在營收中佔比極小,且被投資公司的收入主要來自第三方客戶,以此反駁循環交易製造收入的指控。多家投資機構在三季度選擇買單離場。軟銀集團、Peter Thiel的避險基金清倉了其持有的全部輝達股票。避險基金橋水在三季度末已減持輝達股票,減持比例達65.3%。此外,橋水還減持了53%的Alphabet股票,36%的微軟股票和9.6%的亞馬遜股票。橋水首席投資官Karen Karniol-Tambour等人警告稱,當前的市場穩定性正面臨越來越高的風險。泡沫論頻出反映了資本市場的擔憂。以輝達為代表的技術公司市值高增長、資本高投入的背後,躲不過一個核心問題:這場由AI推動的牛市,究竟擁有堅實的基礎,還是一堆膨脹的泡沫?輝達的超預期業績未能緩解股市擔憂11月20日,輝達2026年第三財季業績發佈,營收創下570億美元紀錄,同比增長62%;淨利潤319.1億美元,同比增長65%,營收與利潤均超出華爾街預期。公司的核心增長引擎——資料中心,同比增長66%至512億美元,創下紀錄。財報發佈後,輝達股價一度漲超6%,不過隔天就又快速跌了回去,市場對於泡沫的擔憂並未緩解。輝達創始人兼CEO黃仁勳在電話會議上表示:「關於AI泡沫的說法很多,但從我們的角度來看,情況截然不同。」他在新聞稿中表示:「Blackwell的銷量遠超預期,雲端GPU也已售罄。訓練和推理領域的計算需求持續加速擴大,且均呈指數級增長。我們已進入AI的良性循環。」上述表態可以視為輝達對市場擔憂的回應。評價公司的業務是否健康,客戶集中度是一項關鍵指標。算力需求帶動輝達營收的增長,按理來說客戶應該更加分散,但輝達的客戶集中度卻不斷上升。2025財年,輝達直接客戶A、B和C的銷售額分別佔總收入的12%、11%和11%,合計34%。到了2026財年二季度,兩家直接客戶貢獻了總營收的39%,比例顯著高於去年同期。名單雖然未披露大客戶是誰,但投資者都知道輝達GPU絕大部分都賣給了微軟、Google、亞馬遜三家雲服務廠商,以及Meta這家自稱「寧願過度投資,也不願因為投資不足而掉隊」的社交巨頭。雲廠商購買輝達晶片是在囤貨還是已實際應用?黃仁勳強調「雲端GPU售罄」,這意味著終端使用者——需要訓練模型或運行AI應用的公司——對AI算力的需求極其旺盛。雲廠商買的輝達晶片沒有閒置在資料中心,雲廠商會持續下訂單,輝達的營收增長亦是可持續的。然而,本周一有媒體報導輝達的大客戶Meta正考慮斥資數十億美元購買Google的自研AI專用晶片。輝達股價在次日下跌超7%,收盤價177.82每股美元,為近一個月內的最低值。與之相對的,Google發佈用自研晶片訓練的Gemini 3模型之後,其母公司Alphabet股價一路上漲,今年迄今為止股價已上漲近70%,市值向4兆美元邁進。就在昨天,輝達少見地在社交平台X發聲,稱對Google在AI領域的巨大進步感到非常高興,將繼續為Google提供產品與服務。同時也強調,相較於專用積體電路(AISC),輝達領先業界一代,是唯一能夠運行所有AI模型,並應用於所有計算廠家的平台。事實上,包括Google、亞馬遜、特斯拉在內,越來越多大客戶都在加大自研晶片的投入。不過輝達還是對未來持樂觀態度,並給出了下一季度的業績預測:收入將達到650億美元,上下浮動2%。下遊客戶研發與資本支出激增,但生成式AI對其主營業務增長作用有限從晶片採購、模型訓練、有關AI的業務場景應用落地,再到自研AI晶片試圖打破輝達壟斷,這條供應鏈的每一個環節都支出不菲。技術公司的研發投入不斷上漲。Google、微軟、Meta、亞馬遜最近三個季度的研發開支累計達1870億美元。而用於建設AI基礎設施的投入增長得更快,上述四家公司截至最近三個季度的資本支出均已超過2024年的全年支出,未來還會持續擴大投入。源源不斷的資金投入是否給公司帶來有效的業績增長?AI給雲業務帶來的增長最直觀。市場研究機構 Synergy Research Group的資料顯示,三季度企業在雲基礎設施服務上的支出較上一季度增長超過75億美元,創下有史以來最大的環比增幅。亞馬遜、微軟與Google位列雲服務市場份額的前三名,它們三季度的全球市場份額分別為29%、20%與13%。自2017年以來,亞馬遜、微軟與Google的雲營收均實現了數倍甚至十倍的跨越式增長。2024年,亞馬遜雲服務營收超過千億美元,微軟雲服務營收接近千億美元規模。Google雲服務在最近三個季度呈現穩健的雙位數環比增長。不過,將雲業務從三家公司的總營收中剔除,其最近三個季度的營收同比增速均呈現不同程度的放緩。這表明技術公司的業績增長主要依賴雲業務驅動,AI對核心業務的滲透尚未體現在整體營收上。以Meta為例,其主要營收源自客戶給社交應用家族投放廣告。自2021年起至今,Meta的應用家族日活躍使用者數增長率維持在8%上下,AI並沒有給日活躍使用者數帶來顯著增長。2022年,蘋果iOS隱私政策重創Meta的廣告業務,致使其平均單次廣告價格下滑16%。後續Meta在財報中表示,公司投入資源在AI(包括生成式AI)上,借助AI最佳化廣告的投放、精準定向與效果評估。2024年,Meta的廣告展示次數同比增長11%,平均單次廣告價格同比增長10%,均重回雙位數增長。借助AI,Meta從2022年的營收危機中恢復,但也僅止於此。無論是通過雲將AI算力轉售給更下游的公司,還是用AI對既有業務降本增效,目前來看,AI對於技術公司帶來的效果還都是間接的、漸進的,它並沒有成為創造新流量的入口。從輝達爆發式的業績,到技術巨頭們激進的資本開支,再到它們平淡的營收增長,增長動能在產業鏈的傳導中出現了明顯的「邊際遞減」。AI資金的結構性風險:技術巨頭正用公共債券加槓桿然而,技術公司們押注生成式AI的熱情絲毫沒有減退的跡象。現在,它們正在競相建設資料中心。今年6月,亞馬遜宣佈將在北卡羅來納州建設資料中心,投資規模100億美元。11月,Google宣佈將投資400億美元,在德克薩斯州新建三個資料中心。Meta為建設資料中心,未來三年將在美國投資6000億美元。掀起AI競賽的OpenAI則在今年9月與甲骨文簽署協議,五年內購買其價值3000億美元的算力。7月,兩家公司還宣佈合作建設總功率達4.5千兆瓦的資料中心,具體費用未披露。與這些大規模投資相呼應的是技術巨頭們在2025年下半年不約而同開啟的「囤錢」模式。Google今年4月、11月兩次在歐洲市場發債,累計55億歐元(63億美元)。甲骨文9月發債規模達180億美元。亞馬遜11月發債規模達到120億美元。Meta 10月發債規模達到300億美元,吸引約1250億美元投資者認購,創下公開公司債發行史上最高紀錄。發債趨勢印證了資本市場有關「AI泡沫論」的擔憂:巨頭們利用大規模公共債券加槓桿,導致市場上的資金從高風險的股市流入低風險的債市。已處於高位的技術股或將面臨更多拋售風險。不止是瘋狂發債,技術公司之間錯綜複雜的投資與交易關係也飽受質疑。9月底,輝達宣佈向OpenAI投資高達1000億美元,幫助其建設10吉瓦算力的資料中心。作為回報,OpenAI承諾在這些資料中心部署數百萬塊輝達晶片。該協議隨即因「循環交易」的性質受到批評。晨星分析師Brian Colello談到該筆交易時表示:「如果一年後AI泡沫破裂,這筆交易可能是早期的蛛絲馬跡之一。」OpenAI預測2025年營收為130億美元,對外投資已累計約3800億美元。而根據彭博社援引知情人士消息稱,OpenAI預計要到2029年才能實現現金流為正,屆時其營收預計將超過1250億美元。伯恩斯坦研究公司分析師Stacy Rasgon在一份投資者報告中寫道:「Altman有能力讓全球經濟崩潰十年,也有能力帶領我們走向繁榮昌盛。目前我們還不知道那種結果會更糟。」 (新皮層NewNewThing)
當歐洲發現自己在人工智慧競賽中選錯賽道
在一場曠日持久的奔跑中,快到人工智慧全球頂級監管的終點了,歐盟發現選錯賽道了——當裁判豈有未來,當選手才是王道。當中美人工智慧發展得如火如荼時,歐洲扔掉脖子上掛了多年的裁判哨,精準上場比賽了。19日,歐盟委員會公佈了名為 “數字綜合計畫”(以下簡稱“綜合計畫”)的改革方案,將《人工智慧法》的全面實施推遲至2027年。除了針對人工智慧,該方案還包括簡化歐盟《通用資料保護條例》和非個人資料規則。代表著歐盟在人工智慧監管上雄心壯志的《人工智慧法》在剛剛落地、尚未全面實施的情況下,雖表面上只是遭遇簡化和推遲,但實際影響卻相當於遭遇滑鐵盧。兩年前,在歐洲議會和歐盟理事會就《人工智慧法》達成政治協議的那一天,歐盟委員會主席馮德萊恩稱,《人工智慧法》這部全球首部全面的人工智慧法律框架將歐洲價值觀帶入了一個新時代,“這是一個歷史性的時刻。” 當時的重心還是“可信賴的人工智慧”,而現在,重心和視角都發生了重大轉變,用歐盟委員會科技事務負責人維爾庫寧的話來說,就是“提升歐盟競爭力”。曾經,歐盟委員會引以為傲的還是,《人工智慧法》是全球首部禁止一些用於不可接受用途的人工智慧法。維爾庫寧曾稱讚該法律既能“保護公民”,又能“促進創新”。而現在,“促進創新”已惡化為“遏制創新”。當然,歐委會的官員們並不會正面承認這一點,但數次綜合計畫所作的大調整足以表明,歐委會在認知上出現了重大轉變。背後的邏輯其實就是,通過鬆綁監管的方式來提升歐盟企業的競爭力。按照歐委會的估算,一旦生效,數字綜合計畫每年至少可為企業、公共管理部門和公民節省10億歐元。早在2021年,歐委會就公佈了《人工智慧法》草案。該法律基於人工智慧風險評級方法,將不同的人工智慧分為最低風險、低風險、高風險和不可接受的風險四個等級,比如,該法律明確禁止八類不可接受的風險行為,包括基於人工智慧的有害操縱與欺騙、社會信用評分、為建立或擴充人臉資料庫而進行的非針對性網路抓取及監控影像採集和在公共空間為執法目的進行的即時遠端生物特徵識別等。簡單說來,這部法律規定什麼是好AI,什麼是壞AI,什麼是可能向好、可能向壞的AI。而這部法律的原本使命就是,讓好AI造福人類社會,將壞AI關進牢籠,讓可能可壞AI一路向善。《人工智慧法》已於2024年8月1日生效,按照原計畫本將於2026年8月2日全面實施,而一些具體規則分階段逐步實施:被禁止的人工智慧實踐以及人工智慧素養義務自 2025 年 2 月 2 日起適用;關於通用人工智慧(GPAI)模型的條款自 2025 年 8 月 2 日起適用;高風險人工智慧系統的相關規定將於2026年8月與2027年8月分兩階段生效,等等。而按照新的綜合計畫,針對"高風險"人工智慧系統的監管措施將推遲16個月實施,從原定的2026年8月延至2027年12月執行,這意味著相關企業將獲得更長的合規準備期。高風險人工智慧系統包括教育機構中的考試評分系統、招聘簡歷篩選軟體和拒絕公民貸款申請的信用評分系統等。而且,歐委會不僅僅只是鬆綁人工智慧法監管本身,還打算以削弱個人資料保護的方式,為人工智慧開發者處理歐洲公民資料創造便利。綜合計畫中有一細則稱,人工智慧系統及其基礎模型在開發使用過程中,其生命周期多個階段均依賴於資料,其中可能涉及個人資料,且在某些情況下這些資料可能被留存於人工智慧系統或模型之中。因此,若情況適用,在此背景下處理個人資料的目的可視為《歐盟條例2016/679》第6條含義內的“合法利益”。擁有《通用資料保護條例》的歐盟原本有著在全球範圍最嚴格的個人資料保護,而根據綜合計畫,企業在訓練人工智慧系統時,若已盡合理努力剔除敏感資訊,即被允許使用包含健康資料和生物特徵資料等敏感內容的龐巨量資料集。總之,這樣的改革會削弱對個人資料和隱私的保護,但有利於企業更便利地獲得個人資料,且在未經資料主體同意的情況下來進行人工智慧訓練。其實,如何平衡監管與創新,一直是歐盟立法者追求的境界。只是以前,在立法者眼中,兩者並不矛盾,而今,兩者已經站在了對立的兩邊。綜合計畫的反對者和批評者認為,這是歐盟在科技企業的壓力之下做出的妥協,是歐盟價值觀遭遇的重大的挫折。科技公司遊說力量電腦與通訊行業協會(CCIA)10月份在一份立場檔案中稱,當前的《人工智慧法》實施時間表並不可行。關鍵的法律細則以及必要的技術標準在2026年年中之前無法完成,然而核心條款卻需自2026年8月起生效。這造成了高度的法律不確定性,因為企業缺乏基於必要指引和法律細則進行合規準備的時間。為解決上述問題,首要舉措應是推遲《人工智慧法》的實施時間,至少待相關指南、行為規範或技術標準出台12個月後再生效。該行業協會成員包括亞馬遜、Google、Meta和Waymo等。而歐盟成員國中,德國和法國均公開表示支援暫停一年。瑞典、丹麥和波蘭等國也均呼籲暫停或給予寬限期。雖然該綜合計畫還須得到歐盟成員國和歐洲議會的通過,但改革方案本身足以說明,在競爭力削弱的壓力之下,歐盟被迫妥協。這就好比,在一場曠日持久的奔跑中,快到人工智慧全球頂級監管的終點了,歐盟發現選錯賽道了:當裁判豈有未來,當選手才是王道。然而,現實的殘酷在於,裁判確實懂規則,但不一定擁有作為參賽選手的應有實力。但是,早一天上場,總比不上場好。 (FT中文網)
輝達最新財報,有望重燃AI牛市
晶片巨頭輝達(NVIDIA,股票程式碼:NVDA)將於11月19日股市收盤後公佈第三季度財報。由於輝達被視為人工智慧行業的領軍企業,這份財報被視為對整個人工智慧市場的關鍵考驗。兩年半前的財報引發AI狂歡兩年半前,輝達財報曾引爆了AI競賽並引領了科技股狂歡,而最新財報或許將具備同樣深遠的影響力。回顧歷史,2023年春季,在OpenAI推出ChatGPT幾個月後,輝達發佈的財報讓整個市場開始意識到人工智慧可能帶來的深遠影響。在接下來的兩年半里,人工智慧競賽為輝達的市值帶來了超過3.5兆美元的增長,同時也推動納斯達克綜合指數上漲逾88%,並在10月底創下歷史新高。如今,輝達最新的財報產生的市場振動會非常大,很少有公司能像它一樣對市場或與其相關的ETF產生如此巨大的影響。輝達是先鋒標普500指數ETF(VOO)的最大持倉,權重高達8.1%,在幾乎所有美國股票型ETF中也佔據著類似的高權重。今年以來,輝達的股票一直是推動市場上漲的最大動力。其2025年40%的漲幅約佔標普500指數15.7%漲幅的2.8個百分點。蘋果、微軟、Alphabet和亞馬遜位列指數前列,但它們對市場回報的貢獻遠不及輝達。目前,市場對AI相關交易的質疑,達到了2023年以來的最高點。投資者一方面質疑科技公司為搶佔這一新技術領域投入的數千億美元能否帶來回報,另一方面也愈發擔憂這些投資何時才能切實提升盈利能力。美國銀行分析師Vivek Arya表示:“輝達正面臨一項艱巨任務 ——既要滿足市場對盈利的高預期,又要化解外界對AI資本支出的強烈質疑,這種局面可能只有在更廣泛的市場波動趨於平穩後才能得到緩解。”市場預期極高,股價預計大幅波動市場對輝達的期望極高,容錯空間極小;該公司必須拿出強勁的業績,尤其是在未來銷售預測方面,並確保企業將繼續在人工智慧領域投入巨資。鑑於此,股市預計會出現大幅波動,財報公佈後股價可能立即出現6%至8%的波動。輝達第三季度的財務預期面臨著一個獨特的挑戰:市場普遍預期已經高於該公司自己的官方預期。市場對輝達第三季度營收的普遍預期(548億美元)表明,市場實際上已經低估了該公司此前給出的預期中值(540億美元)。分析師普遍認為,要使股價出現積極反應,營收至少需要達到550億美元,而接近560億美元的目標則更有利於驗證當前的增長勢頭。即使公司最終實現了預期目標,但如果營收未能超過普遍預期,也會被解讀為增長放緩,並可能引發股價回呼。倫敦證券交易所集團(LSEG)調查的分析師預計,輝達每股收益為1.25美元,銷售額為549億美元,同比增長56%。他們還預計該公司明年1月季度的營收將達到614.4億美元,這將表明其增長速度將再次加快。黃仁勳關於公司銷售積壓和2026年展望的任何言論都將受到密切關注,不僅關乎輝達自身的業績,也關乎整個科技行業的前景。倫敦證券交易所集團(LSEG)調查的分析師目前預計,輝達2026年的銷售額將達到2867億美元。與OpenAI的交易細節成焦點輝達在本季度也積極開展併購活動,分析師們將希望從黃仁勳那裡瞭解這些合作的細節。其中最大的一筆交易是輝達同意向OpenAI投資高達100億美元的股權,以換取這家人工智慧初創公司在未來幾年內購買400萬至500萬塊GPU。輝達還同意向其前競爭對手英特爾投資50億美元。這項協議將促使這兩家晶片製造商合作,使英特爾晶片能夠更好地與輝達GPU協同工作。花旗分析師阿提夫·馬利克在11月份的一份報告中表示,與OpenAI的交易尤其將成為周三投資者關注的焦點。“儘管人們對人工智慧資本支出泡沫相關的債務和循環融資組合存在擔憂,但我們從根本上認為人工智慧的供應低於需求,”馬利克寫道。他對該股的評級相當於買入。“我想我們可能是歷史上首家對累計價值達半兆美元的Blackwell晶片以及Rubin晶片早期上量具有明確預判的科技公司,”黃仁勳上個月在華盛頓特區輝達主辦的一場科技活動中表示。黃仁勳同時暗示,到明年年底,輝達或許能賣出價值大約5000億美元的Blackwell晶片以及即將發佈的Rubin晶片。將成為驗證AI革命的重要時刻當然,輝達在AI投資熱潮中的角色,與那些提供AI服務或試圖搭建基礎設施的公司截然不同。它的盈利模式不存在爭議,僅今年一年就有望輕鬆創造超700億美元的淨利潤。不過,要想提振輝達股價並恢復市場對AI交易的信心,他可能需要給出更為樂觀的展望。投資者並不確定白宮是否會允許輝達向中國出售其下一代晶片。另一個擔憂是,如果輝達部分最大規模的超大型客戶要麼削減其資料中心容量計畫,要麼選擇從超威半導體(AMD)等競爭對手那裡購買更廉價的解決方案,那麼對輝達產品的需求增長可能會放緩。不過,知名投行Wedbush的分析師Dan Ives仍然相信,輝達的業績展望能夠緩解市場的緊張情緒。“輝達的財報將成為驗證AI革命的又一個重要時刻,並可能成為推動科技股在年底前持續走高的積極催化劑,因為投資者仍然低估了AI支出的規模和範圍,” Ives在上周五發表的一份報告中表示。 (北美商業見聞)
白宮連夜指控!為何阿里千問讓美國害怕?
再一次,美國對中國科技公司下手了!就在11月14日,阿里的千問APP上線當天,據英國《金融時報》報導稱,白宮連夜緊急拋出“國家安全”備忘錄,指控阿里巴巴協助中國軍方威脅美國。隨後阿里巴巴和中國駐美使館相繼闢謠和駁斥。科技戰烽煙再起。在《金融時報》看來,白宮的指控反映出了美國對中國雲服務、人工智慧以及中企相關技術發展的擔憂日益加劇。而在這場美國精心策劃的指控背後,我們需要重點瞭解幾個問題:為什麼美國在當下這個節點對阿里發起指控,美國在害怕什麼?為什麼是阿里千問讓美國生出了緊迫感,阿里又是如何應對?在這場中美AI競賽的背後,更深層次的邏輯我們又該如何看待?美國,在害怕什麼?美國對阿里“下手”這件事,很多不瞭解的人會覺得突然。但事實上,真正關注AI界的人士就知道這不是美國的心血來潮,因為阿里Qwen(ps:阿里千問APP正是基於阿里Qwen最強模型打造)已經在矽谷乃至全球掀起了一波又一波的風暴:先是在今年10月份,輝達CEO黃仁勳在2025GTC大會上表示在全球開源模型中,輝達與Qwen斷層領先,並且來自中國的Qwen已佔據開源模型的大部分市場份額,這一領先優勢還在持續擴大中。緊接著,在10月22日,愛彼迎Airbnb CEO布萊恩·切斯基在媒體採訪中公開表示,公司正“大量依賴阿里巴巴的Qwen模型”,並直言“比OpenAI更好更便宜”。這一言論更是在美國引發熱議,美國AI知名專家Nathan Lambert甚至表示:矽谷看起來是建立在Qwen之上的?此外,還有馬斯克、推特創始人傑克·多爾西、李飛飛等美國一眾科技大佬紛紛點贊通義千問的開源大模型。並且,更值得一提的是,一眾科技大佬不光是口頭點贊,更是直接將Qwen應用到了企業當中,如亞馬遜在加速佈局的人形機器人領域採用了阿里Qwen模型;多家日本新興AI企業和阿聯穆罕默德·本·扎耶德人工智慧大學均以Qwen為基礎模型進行了二次開發。從矽谷到日本、阿聯等國,可以說,Qwen已在AI領域展現出了強悍的“統治力”。而這就觸犯到了美國當前最重要的“命脈”——在AI這件事情上,美國政商兩界,尤其是美國矽谷正進行著一場價值超1兆美元的世紀“豪賭”。早在今年1月份,由美國川普政府牽頭,OpenAI、軟銀集團和甲骨文公司聯合主導推出了“星際之門”計畫,在未來四年內投資5000億美元建設下一代AI基礎設施,確保美國在AI領域的領導地位。而在今年9、10月份,短短幾周時間內,OpenAI、輝達、AMD、甲骨文和英特爾等矽谷科技企業更是砸下天文資金,開啟了“抱團”內循環模式,並且美國政府也默許這種巨頭間的“聯盟”。這背後很重要的原因就是美國政商界達成了一個共識,美國當下的困境想要得到解決,很大程度上依賴美國AI領域帶來的大爆發。但商業社會中有一個不變的鐵律,同樣成本下的更高品質,或者同等品質下的更低價,永遠是具有第一競爭力的。這是經濟學的基本規律,也是全球化的基本規律。過去這套邏輯對美國最有利,所以美國堅持;但當這套邏輯對美國不利時,美國就開始搞雙標路線:在AI領域,Qwen的闖入,無疑打破了美國的AI內循環,讓美國真真切切感受到了危機,甚至美國擔心自己的AI投入最終淪為他人的“嫁衣”。於是美國對阿里下手了,所以,也就出現了文章開頭那一幕,高舉“安全“之旗,使一些損招、壞招。阿里千問今天的遭遇,不過是現代版的“君子無罪,懷璧其罪”。千問大模型橫掃矽谷後,千問APP上線能夠預見,白宮連夜緊急拋出“國家安全”備忘錄,指控阿里巴巴協助中國軍方威脅美國,只是美國對阿里“使壞招”的第一步,後續顯然還會有更多手段出現。回顧過去美國針對日本東芝、法國阿爾斯通等境外企業的打壓手段,你會發現總是那麼幾樣:設定貿易壁壘,提高關稅,壓榨企業的利潤;限制本國供應商對你的原材料供應、技術支援,從產業鏈上游遏制你的發展;通過扣上莫須有的罪名,企圖通過威逼利誘,讓對方“認罪就犯”……總結來看,美國對外採用的,是一種“規則霸權”,即:先制定一套對美國有利的規則,並要求全世界按照這套規則來,但如果有人能在這套規則下依然能對美國形成挑戰(或者當下的規則不符合美國的利益了),那麼他們就改變規則(或者說,重新定義規則)。但美國忽略了一點,中國企業不是日本東芝,也不是法國阿爾斯通,不會任人宰割。曾經美國想用晶片卡我們的脖子,以為鎖住了我們的硬體,就能鎖住我們的未來。但他們沒想到,我們的晶片產業在短短幾年就追趕了上來,儘管還有差距,但已經不擔心“斷供”的問題了。並且要知道,今時已不同往日,過去面臨科技戰,我們是被壓著打,沒有還手之力,只能臥薪嘗膽。但今天在AI競賽上,中國是能夠和美國抗衡的,其中阿里的Qwen又是佼佼者,這裡再列幾組資料:1.全球下載量及衍生模型雙第一。從2023年至今,Qwen已開源300多款模型,囊括文字、程式設計、圖像、語音、視訊等「全模態」,覆蓋0.5B到480B等「全尺寸」,在全球主要模型社區的下載量已經突破6億,衍生模型突破17萬個,Qwen超越Llama成為全球第一的開源模型家族。過去三年,阿里保持穩定敏捷的研發節奏,堅持最大力度的全面開源策略,推動Qwen為代表的中國開源模型實現對美國頂級模型的追趕乃至反超。如今,Qwen穩居全球AI大模型第一梯隊。2.全球貢獻第三。根據史丹佛大學人工智慧研究所《2025年人工智慧指數報告》指出,中美頂級AI大模型性能差距大幅縮至0.3%,接近抹平,阿里Qwen重要模型貢獻度位列全球第三。3.持續屠榜。Qwen大模型屢次斬獲Chatbot Arena、司南OpenCompass等權威榜單“全球開源冠軍”、“國產模型冠軍”,多次登頂HuggingFace、Github的最熱趨勢榜單。4.最多企業接入。目前,Qwen已經服務了超100萬家客戶,包含寶馬、西門子、星巴克、歐萊雅、渣打集團、萬豪、LV等全球頭部品牌。據國際權威調研機構沙利文(Frost&Sullivan)最新報告顯示,在2025年上半年的中國企業級大模型呼叫市場中,Qwen佔比位列第一,是中國企業選擇最多的大模型。越到難時,越做難事。可以說,阿里Qwen上演了一個在中國AI領域需要領軍者時,主動站出來持續向上突破,向下紮根的故事。還值得一提的是,無懼美國的壓力,阿里的Qwen在橫掃矽谷後,更是直接上線了千問APP。作為基於Qwen最強模型打造的一款同名個人AI助手,千問APP全面對標ChatGPT,加入到全球AI應用的頂級競賽。並且,千問APP的價值,不僅僅只是個人AI助手這一功能,其最大的價值是在於借助Qwen的開源技術優勢,在全球範圍內建構一個以Qwen為底層、以中國開源生態為核心的AI系統入口。當中國AI以“基礎設施”的形式嵌入到世界技術版圖時, 這也正是阿里千問大模型開放原始碼的價值所在。開源,就意味著全世界的科技企業都可以基於Qwen進行開發。這不再是中美兩家公司的競爭,而是中國引領的‘開放生態’和美國主導的‘封閉生態’的競爭。他們築起高牆,我們打開大門。世界AI的牌桌上,曾經只有一個玩家在制定規則。但現在,另一個玩家帶著最強的開源模型和億萬使用者的場景落座了。過去三年時間裡,千問大模型已經贏得了全球開發者。而當千問APP國內版和國際版相繼上線後,新的AI牌局,才剛剛開始。除了勝利,我們別無選擇縱觀歷史,我們從來不惹事,但也從來不怕事。我們始終敞開懷抱,期待在良性競爭中,尋求合作與共贏。但是這一次,當阿里千問以開源之姿登上世界舞台,當中國技術的力量開始重新定義全球AI格局時,美國又坐不住了。商場如戰場,雖無硝煙,卻早已刀光劍影,情勢永遠比你我目光所及的要洶湧澎湃。這不是普通的商業競爭,阿里千問被美國指控這件事,本質上是一場關係著中國有沒有發展高科技、發展AI的權利,有沒有資格參與制定未來規則的根本性較量。這不是某個企業的難題,而是我們所有國人都要面臨的難題;這也不僅是科技和經濟的角逐,更是關乎我們每個人的未來。某種程度上來說,千問的命運其實就是國家命運的一部分。也因此,除了前進,我們別無選擇。除了突破,我們別無選擇。除了勝利,我們別無選擇!面對即將到來的風浪,阿里從來都不孤獨,千問不是唯一一個,也不會是最後一個。但是,在一波又一波的風浪中,我們看到,中國正在走得更加從容;而中國的科技企業們在面臨美國和其他強敵打壓時,也在不斷迎難而上,開創出更加廣闊的天地和未來。 (正和島)