#AI開發
黃仁勳:全球 50% AI 開發者在中國,中美兩國在產業鏈中相互依存,中國是對手而不是敵人
Special Competitive Studies Project(SCSP)是一個成立於 2021 年,由前 Google CEO Eric Schmidt 發起的美國非營利、跨黨派智庫組織,其使命為研究和應對 AI 及其他新興技術對國家安全、經濟與社會的深遠影響,並向美國政府提供戰略性政策建議。NVIDIA 創始人& CEO 黃仁勳在近期參加 SCSP 旗下播客採訪時表示,當前對公司所取得的階段性成果仍“難以完全消化”,但這一時刻本身承載著非凡意義。黃仁勳指出,過去幾十年裡,全球電腦產業基本沿襲 IBM System 360 所確立的藍圖,涵蓋系統架構、軟硬體分離、相容性規範、應用開發模式等方面。這一框架支撐了整個資訊化時代的崛起。然而,當前 AI 帶來的技術轉變,正推動計算產業邁入一個全新的平台時代,而 NVIDIA 正是在推動這一變革的核心角色。他回憶道,2012 年 AlexNet 的出現是轉折點。當時團隊看到了這項技術的潛力,也意識到這不僅是電腦視覺的突破,更可能是 AI 領域的關鍵飛躍。AlexNet 的訓練依賴 NVIDIA GPU 和 CUDA 平台,使得深度學習模型在視覺任務上超越了人類專家四十年來的積累。黃仁勳表示,正是這一次突破,讓他認識到,AI 並非只是一個應用分支,而是整個平台範式的更迭。深度學習之所以具有變革性,是因為它不再依賴人工設計的特徵工程,而是借助大規模資料和計算資源,學習解決那些難以用規則形式化的問題。在他們看來,這預示著整個計算棧——從處理器架構到軟體方法論,再到網路連線方式,甚至整個產業生態——都將被重新定義。為此,NVIDIA 在隨後數年中重構了幾乎所有技術堆疊,從基礎的深度學習庫 cuDNN,到支援 AI 訓練和推理的 Megatron Core,再到硬體側的 NVLink 和 Tensor Core,再到 AI 超算系統 DGX1。這套完整平台的首次應用對象之一,便是當時位於舊金山、仍屬初創階段的 OpenAI。▍AI 三波發展浪潮從 2012 年至今,AI 技術經歷了清晰的三波發展浪潮。黃仁勳將第一階段定義為“感知智能”,即通過深度學習,電腦在圖像識別、語音識別、語言理解等方面達到了超越人類的水平。第二階段是“生成式智能”,AI 不再只是理解資訊,而能夠生成文字、圖像、音訊與視訊。如今我們正處於第三階段——“推理智能”,AI 已能夠通過鏈式思維、樹狀邏輯等方法對問題進行分解、分析和多步求解,甚至能在答題前自主進行資料查閱與學習。正是由於這類推理能力的顯現,外界才會開始討論通用智能的臨近。他表示,下一波浪潮將是“物理智能”。這類智能將理解並掌握物理世界的基本常識,包括物體恆常性、摩擦力、慣性、因果關係等——即人類孩童與小動物天然具備的常識性認知能力。一旦 AI 掌握這些能力,便可進入機器人等具身智能系統的發展階段。▍AI 工廠,專注 token 的資料中心對於“AI 工廠”,黃仁勳指出,傳統資料中心主要以資料儲存與分發為主,而 AI 工廠則是“一個只專注於生成 token 的全新類型的資料中心”。這些 token 可能被轉化為文字、符號、數字,未來甚至是化學結構、蛋白質配方,或機器人動作訊號。為了支撐如此規模的推理任務,AI 工廠需要持續消耗巨量電力,美國在能源政策上的積極推動正恰逢其時,為 AI 工廠建設打下基礎,也將形成一個全新產業。回顧歷次技術革命的就業走勢:從電力時代到資訊化時代,每次技術提升都伴隨著新產業的誕生與整體就業規模的上升。生產力提升本身不會自動導致失業,關鍵在於一個組織是否有創新意願與增長野心。以 NVIDIA 為例,企業擁有大量尚未實現的好想法、未進入的新市場、未建構的應用場景,如果擁有更強的生產力,就能推進更多工作,反而需要更多人力。他認為,這種樂觀並非盲目,而是歷史經驗的真實體現。AI 的普及也將成為前所未有的“平權力量”。這是第一次,技術如此先進卻又如此容易被每一個人使用。無論是否會寫程式碼,無論是否懂英語,甚至不會打字也能通過語音與 AI 對話。只要願意開始,每個人都可以向 AI 學習如何使用它。他鼓勵所有人“立即參與 AI”,因為這是一種前所未有的賦能工具。▍中國是對手而不是敵人對於美國政府應當採取的政策,美國在電腦行業具備全球唯一的領先地位,這是國家級的戰略資產。黃仁勳坦言,“我們已經失去了 5G”,無論從技術、政策還是戰略決策層面,美國都未能保住那一波通訊浪潮。而 AI 是新的機會,“我們不能再輸”。為了維持全球領先,美國必須在 AI 生態中贏得開發者。他指出,“任何平台的第一要務,是贏得全世界開發者”。當前全球大約 50% 的 AI 開發者位於中國,而 AI 開發者遍佈非洲、拉美、東南亞、中東等地,每個國家、每個產業都想接入 AI。他主張,美國不應限制 AI 技術擴散,而應確保全球開發者建構在美國技術堆疊之上,從晶片、系統、框架、工具到模型,讓“美國技術堆疊成為全球通用標準,像美元一樣具有全球影響力”。儘管 OpenAI、Gemini 等通用模型全球可用,但每個國家都應有能力建構本地 AI 系統。因為語言、歷史、文化、價值觀具有不可替代的本土特徵,任何西方技術企業都無法全面代表全球多樣性。因此他倡導“主權 AI”,即每個國家都有建設本土模型的能力,同時這些模型依然運行在美國主導的通用技術堆疊上。談及全球競爭格局時,黃仁勳重申,中國是競爭對手,但不是敵人”。兩國在產業鏈中相互依存,美國的計算產業擁有無與倫比的技術領導力,而中國也有製造能力強、工程技能深、國家榮譽感驅動下崛起的科技公司,例如華為和比亞迪。“這不是關於低成本勞動力,而是技術、工藝與規模的融合。”他認為,美國需要正視製造能力的缺失,重燃對“製造”的熱情,因為現在的製造早已高度技術化,不再是體力勞動主導的產業。川普提出的“再工業化”戰略是非常及時的政策調整,只有將 AI、製造、能源等關鍵領域的能力結合,美國才能真正減少依賴、緩和地緣風險、實現國家安全與產業持續領先。黃仁勳還呼籲,美國在制定 AI 政策時,不應止於限制與監管,更應認識到自身在 AI 與計算產業上所擁有的獨特能力與歷史成就 —— “戰略的第一步是認清自己”,只有在對自身能力充分理解之後,才能制定有效的對外策略。而在 AI 領域,這種自信、開放與全球主導力,正是美國繼續領先的根基。 (有新Newin)
剛剛!英國某頂級避險基金官宣,全面使用AI開發量化策略
全球最大的上市避險基金Man Group,正在用“人工智慧體”(Agentic AI)開發量化交易訊號。這種技術正成為金融科技領域的最新趨勢。近日,全球知名量化避險基金 Man Group 宣佈,其量化股票部門 Man Numeric 已經開始使用一種名為 AlphaGPT 的全新人工智慧系統。這種被稱為“智能代理AI”(Agentic AI)的技術,可以獨立完成挖掘投資思路、自動編寫程式碼並進行歷史資料回測等複雜任務,大幅提高了研究效率和交易訊號的產出速度。AlphaGPT如何幫助量化研究?Man Numeric 開發的 AlphaGPT 系統旨在模仿研究人員設計投資訊號的全過程,具體工作包括:資料探勘:從海量資料中自動提取投資思路; 策略編碼:自主生成交易策略程式碼; 歷史回測:自動在歷史資料中測試策略表現。儘管系統的產出仍需人工稽核以防止錯誤,但目標是儘可能實現量化研究流程的自動化,加快高品質、規則化交易策略的發現速度。截至目前,由 AlphaGPT 生成的數十個交易訊號,已經成功通過Man Group內部的投資委員會稽核,即將投入實際交易中。為什麼量化基金需要“智能代理AI”?高級投資經理 Ziang Fang 強調,“智能代理AI”的出現解決了量化研究員當前面臨的最大挑戰之一:“作為量化研究人員,我們面臨的難題之一就是資料氾濫(information avalanche)。資料集、研究論文的數量巨大,我們希望借助智能代理AI的自動化工作流,高效利用這些資源,完成過去不可能實現的複雜任務。”傳統上,華爾街的量化基金已經在使用大語言模型(LLM)來提升生產力,幫助處理程式碼編寫、財報分析、新聞文字轉換為交易訊號等相對簡單的任務。然而,Man Numeric 此次探索的核心問題是,人工智慧究竟能在多大程度上自主完成複雜的研究任務,從而加速量化策略的生產。人類 vs AI:AlphaGPT 展現巨大潛力Man Numeric 在引入該技術之初,曾用過往的資料集測試 AlphaGPT 的能力,結果發現AI不僅能夠重現人類研究員開發出的策略,還能給出此前從未被人類想到的新思路。Fang表示:“由於大語言模型的知識廣度極其豐富,它能夠提出許多我們人類由於各種原因沒有想到的策略。AI 每兩三秒鐘就能產生新的交易思路,而這種速度對人類來說是不可能實現的。”人機協作,守住風險邊界儘管“智能代理AI”具備自主性,但 Man Numeric 在現階段依然採取審慎的人工稽核方式。這是由於AI系統目前仍存在“幻覺”(hallucination,即編造事實)等問題,同時可能出現相同指令下的不同輸出結果。因此,Man Numeric 設定了嚴格的“檢查點”,讓AI通過交叉驗證確保輸出的程式碼和原始的策略思想保持一致,以逐步減少人工干預,提升系統的自我糾錯能力。對此,Fang表示:“我們不會稱之為‘自動駕駛’,因為我們建立了許多檢查點,確保投資流程的安全性。但我們的根本目標仍是建立一個強大的流程,使AI產生的想法與假設保持高度一致,最大程度地降低人為干預。”總結與前景展望Man Group 此次大膽啟用 AlphaGPT 系統,標誌著量化金融領域正邁向一個全新的時代。未來,隨著技術的進步,“智能代理AI”可能會在更大程度上改變華爾街的研究與投資決策方式。量化投資的競爭,正在演變為技術實力與AI能力的比拚。Man Group 的這次嘗試,為行業提供了寶貴的經驗,也引發了市場對量化交易未來演進方向的廣泛關注。 (LLMQuant)
【Computex】黃仁勳最新專訪:50%的AI開發者都是中國人,《AI擴散規則》或反噬美國
5月20日消息,在台北Computex 2025電腦展上發表主題演講後,輝達首席執行官黃仁勳接受了科技部落格Stratechery博主本·湯普森(Ben Thompson)的專訪。在本次訪談中,黃仁勳探討了輝達近期與沙烏地阿拉伯和阿聯簽署的一系列AI合作協議、針對中國的H20晶片出口禁令,並坦率表達了對美國當前晶片出口管制政策的擔憂,認為這一策略可能會在未來削弱美國,包括輝達在內的技術領導地位。黃仁勳還闡述了自己對全球經濟格局的看法,認為AI技術不僅有可能大幅推動全球GDP增長,還可能在一定程度上幫助美國緩解貿易逆差問題。訪談中,黃仁勳介紹了“輝達全端”解決方案的核心優勢——通過軟硬體深度整合,最大化AI效能。他解釋稱,模組化設計可為客戶帶來更高靈活性,客戶可根據自身需求選配系統元件,而無需全部打包購買。同時,他還提到了Dynamo系統在提升推理性能方面的關鍵作用。輝達通過全面佈局,建構一個貫穿從晶片到軟體、從訓練到推理的AI基礎設施平台。以下為黃仁勳最新專訪全文:AI自身構成完整全新產業由AI工廠驅動問:在過去幾次訪談中,我能感受到你非常希望世界能夠理解GPU的潛力。那時候,ChatGPT還沒有問世,而現在,整個市場彷彿都懸掛在你們的財報表現之上。我知道你們現在正處於財報靜默期,我不會問財報相關的問題。但我想知道,被推到這樣一個位置,成為全球技術關注的焦點。你是什麼感受?黃仁勳: 老實說,這件事對我個人而言沒有太多情緒上的觸動,但有一點我始終非常清楚:在不斷重塑輝達的過程中,推動技術進步、引領行業發展,始終是我們工作的核心使命。我們立志走在最前沿,攻克最具挑戰性的技術難題,為整個生態系統持續創造價值。今天的輝達,已經不再僅僅是一家晶片設計公司,而是一家以資料中心為核心,提供全面計算平台的企業。我們不僅建構了一個覆蓋訓練與推理的全端AI平台,還首次實現了軟硬體架構的深度整合與模組化解耦,為生態系統的廣泛參與提供了靈活性和可擴展性。在今年的Computex主題演講中,我特別強調:我們現在所打造的,不只是“科技行業”所需的電腦系統,而是在為“人工智慧”這一全新產業形態搭建基礎設施。AI不僅是一場技術革命,更是一場勞動力革命——它明顯增強了人類的工作能力,尤其在機器人等新興領域中,這種增強將在未來展現得更加深刻。更重要的是,AI不只是一個技術突破,它本身就是一個龐大且全新的產業體系。而這個產業,將由我們稱之為“AI工廠”的基礎設施來驅動——其核心正是以超大規模算力為基石的資料中心。我們才剛剛開始意識到,時代的重心正在轉移:未來,資料中心不再只是雲端運算的承載體,而將成為真正意義上的AI工廠,其規模和重要性,將遠超我們今天的想像。問: 微軟CEO薩蒂亞·納德拉在最新的財報電話會議上提到,他們報告了一個 token 處理量的資料——我記得是上個季度的。這個是不是你最關注的財報細節?黃仁勳: 實際上,真實的 token 生成數量遠遠超過那個數字。微軟公佈的資料,只涵蓋了他們為第三方客戶生成的部分。而他們內部自用的 token 處理量,實際上比那還要大得多。此外,這個數字還不包括 OpenAI 所產生的 token 總量。所以,僅憑微軟報告中的數字,你就可以想像整個生態系統中實際生成的 token 數量究竟有多麼龐大。《AI 擴散規則》或反噬美國問:最近你們與沙烏地阿拉伯和阿聯達成了一系列AI合作協議。從你的角度來看,這些合作為何重要?你為何親自到場?這對你來說意味著什麼?黃仁勳: 他們親自邀請我出席,而且我們此行也是為了宣佈兩項相當龐大的 AI 基礎設施建設計畫:一項在沙烏地阿拉伯,另一項在阿布扎比。這兩個國家的領導人都已經意識到,他們必須參與到這場AI革命中來,也認識到自己國家擁有獨特的戰略優勢,即豐富的能源資源。不過,這些國家在勞動力方面存在短板。他們的國家發展長期受到勞動力與人口規模的限制。而AI的出現,為他們提供了歷史性機遇:實現從“能源經濟”向“數字勞動力”和“機器人勞動力”經濟的轉型。我們在沙烏地阿拉伯參與創立了一家新公司,名為 “HUMAIN”,他們的目標是登上世界舞台,建設面向全球的AI工廠,吸引包括OpenAI在內的國際企業參與合作(OpenAI 的代表也出席了現場)。這是一個意義重大的項目。問:從某種程度上說,這似乎也意味著對《AI擴散規則》(AI Diffusion Rule)的一種挑戰?我理解這項規則對這些國家尤其嚴格,比如規定了晶片出口數量限制、必須由美國公司控制、在某些方面必須依賴美國本土製造等。和以往相比,這次你們對該規則的反對聲音更為堅定。你過去較少直接參與政府政策層面事務,而如今輝達已成為全球科技核心企業之一。你能迅速適應這一角色轉變嗎?黃仁勳: 並不是我不願意參與,而是過去確實沒有這個必要。輝達發展的大部分時間裡,我們都專注於研發技術、建設公司、培育行業生態,並在競爭中不斷前行。我們時刻都在建構供應鏈、搭建生態系統,這本身就已非常龐大複雜。但《AI 擴散規則》一出台,我們立刻表明了態度。如今大家也能看清楚——這項政策完全是錯誤的。它對美國來說是一項根本性的戰略錯誤。如果《AI 擴散規則》的初衷是確保美國在 AI 領域的領先地位,那麼它實際上可能適得其反,讓我們失去原本的優勢。AI 不是某一個模型、某一層軟體這麼簡單,它是一個完整的技術堆疊。這就是為什麼大家在談論輝達時,談的不僅是晶片,還有系統、基礎設施、AI 工廠,甚至整個部署框架。AI是多層整合的:從晶片層,到工廠層、基礎設施層、模型層、應用層,每一層都至關重要——真正的競爭力來自這個完整堆疊。如果美國希望在全球AI競賽中保持領先,就必須在每一層都領先。而眼下,正值競爭對手迅速追趕、加速佈局的關鍵時刻,我們卻選擇限制自身技術在全球的擴散——這無疑是“搬起石頭砸自己的腳”。事實上,從一開始,我們就已經預見到了這種結果。不可能阻止中國參加AI革命DeepSeek堪稱傑出代表問: 你說的“國際競爭對手”,你指的是其他模型開發者?黃仁勳: 中國在AI領域的表現非常出色。全球大約50%的AI研究人員是中國人,你不可能阻止他們參與這場技術變革,也不可能讓他們停止前進。坦白講,像 DeepSeek 這樣的項目就是非常傑出的代表。如果我們連這點都不願意承認,那是一種自欺欺人,我完全無法接受。問: 針對他們的限制是否刺激了他們在某些領域(如記憶體管理和頻寬效率)的技術突破?黃仁勳: 競爭本就是推動進步的引擎。企業需要競爭來激勵自我,國家也一樣。毫無疑問,我們確實刺激了他們的技術進步。但就我個人而言,我原本就預見到,中國會在AI的每一個階段都快速發展。比如華為是一家非常強大的公司,是世界級的科技企業。中國的AI研究人員和科學家也是世界一流的。如果你去過 Anthropic、OpenAI或DeepMind 的辦公室,會發現那裡有很多來自中國的頂尖人才。這一點不令人感到意外。並且,《AI 擴散規則》旨在限制其他國家獲取美國的技術,這個政策從一開始就已經錯了。我們真正應該做的,是加速美國技術在全球範圍內的普及——趁現在還來得及。如果我們的目標是讓美國在 AI 領域保持全球領先地位,那現在這套規則恰恰在起反作用。《AI 擴散規則》還忽略了 AI 技術“堆疊”的本質。AI 堆疊就像一個計算平台:平台越強大、基礎越廣泛,吸引的開發者就越多,所產生的應用也會越強,平台的價值也就越高。反過來,開發者越多,生態越繁榮,平台裝機量越大,會進一步吸引更多開發者。這種“正向反饋循環”(positive feedback loop)對任何計算平台的發展都是至關重要的,也正是輝達今天取得成功的根本原因。你不能說:“美國不需要參與中國市場競爭。”那裡可是全球一半開發者的聚集地。從計算架構和基礎設施的角度來看,這種脫鉤是完全站不住腳的。我們應該給予美國企業在中國市場參與競爭的機會——縮小貿易逆差、為美國創造稅收、發展產業、提供就業。這不僅有利於美國,也有利於全球技術生態的健康發展。如果我們選擇放棄參與,讓中國建構出一個完整而繁榮的本土生態系統,而美國企業又完全缺席,那麼未來主導這個新平台的就將不再是美國。AI技術正在全球快速擴散。如果我們不主動參與競爭,最終擴散出去的將是別人的技術和領導地位。問:我非常同意你的觀點。在我看來,現在這種試圖限制晶片銷售、卻又允許對方獲取所有晶片製造裝置的政策邏輯,簡直本末倒置。我們很清楚,追蹤晶片比追蹤裝置要難得多。有一種說法是,在華盛頓,一些半導體裝置製造商已經深耕多年,擅長遊說,而輝達在那邊影響力相對較小,所以在政策博弈中處於劣勢。你覺得這個說法成立嗎?你是否也覺得讓華盛頓理解你們的立場,是一件特別難的事?黃仁勳: 過去幾年,我們確實花了很大力氣,才逐步在華盛頓建立起一些存在感。我們的確只有一小支團隊在那裡,而與我們體量相當的公司,通常在華盛頓都有上百人的公關和政策團隊,我們只有那麼幾個人。但我要說,這幾個人非常出色。他們不僅在努力講述輝達的故事,更在幫政策制定者理解晶片是如何工作的、AI 生態系統如何運轉,以及某些政策將帶來那些意想不到的連鎖後果。我們真正想要的是美國在競爭中獲勝。每一家公司都應該希望自己的國家贏,每一個國家也應希望自己的公司能贏。這並不是錯誤的願望,而是一件好事。人們渴望贏,是好事;有志於卓越,是好事;競爭也是好事。如果一個國家渴望偉大,我們不應因此心生嫉妒;如果一家公司渴望卓越,我同樣不會嫉妒。這種動力會激勵所有人不斷向前、做出更優秀的成績。我喜歡看到那些渴望卓越的人。毫無疑問,中國渴望成為強國,這沒有錯,他們本就應當追求偉大。而我所認識的AI 科學家和研究人員,正是因為有這種志向,才取得了今天的成就,他們確實非常優秀。我們要做的,不是試圖絆倒別人,而是自己跑得更快。輝達能有今天的成就,從來不是因為我們獲得了什麼特殊待遇,而是因為我們一直在拚命奔跑。我認為你提到的那種“通過限制對手來保護自己”的思維模式,只會促使對方變得更強——因為他們本身就已經很了不起了。問:川普政府禁止你們向中國出口H20晶片,而這款晶片其實是你們根據前一屆政府的政策框架,專門定製設計出來的。結果後來又被告知“這也不行”。現在他們還在研究新的限制規則。你覺得政策制定者是否終於意識到,這個世界是高度互聯的,在一個地方的行動,會在另一個地方引發連鎖反應?他們是不是終於開始意識到,“徹底脫鉤”是不現實的,也許是時候回歸一種更務實的、以管理為導向的思路?你對此感到樂觀,還是已經做好最壞的準備?黃仁勳: 美國總統有他想達成的願景。我支援他,也相信他最終會以一種尊重的方式,帶領美國走向積極的結果。他會以競爭為導向,同時也會努力尋找合作的機會。當然,我並不在白宮,不知道他們內部具體怎麼想,但我對此是這樣理解的。關於H20晶片的禁令,我們已經按照 Hopper 架構所能做到的最大限製做了設計,能砍的都砍掉了。我們已經為此進行了大規模核銷,我記得是55億美元。在歷史上,還沒有那家公司核銷過這麼大的庫存。所以這項針對 H20 的額外禁令,對我們來說極為沉重,代價巨大。不僅是這55億美元的直接損失,更是我們主動放棄了 150億美元的潛在銷售額,以及約30億美元的稅收收入。你要知道,中國市場的AI晶片年需求規模大概是500億美元。注意,不是5000萬,是 500億美元。這是什麼概念?相當於整個波音公司的年營收。讓我們放棄這樣的市場——不僅僅是利潤、營收,還有隨之而來的生態建設、全球影響力,這代價是無法忽視的。問:如果中國最終建構出CUDA的替代方案,那是否會對輝達構成長期威脅?黃仁勳: 沒錯。任何人天真地認為,僅僅靠下一步出口管制、禁止中國使用H20晶片,就能阻止他們在AI領域的發展,這種想法都是極其無知的。AI將推動全球GDP大幅增長問:你真正意識到輝達將成為一家“基礎設施公司”是什麼時候?黃仁勳:如果你回看我過往的主題演講,其實你會發現,今天正在發生的很多事,我在五年前就已經開始談了。也許那時候我講得還不夠清楚,語言沒有現在這麼精準,但我們前進的方向一直非常明確、一貫而堅定。問:所以說,你現在在每次演講結尾都會談到“機器人”,那其實就是我們要高度關注的“五年預告”了?也就是說,這不是遙遠的未來,而是幾年內就會成真的現實?黃仁勳:沒錯,我認為它真的就快來了,就在未來幾年內會發生。在整個行業中,一件深遠而意義重大的事是:過去 60 年,我們一直屬於 IT 行業,也就是一個為人類提供工具與技術的產業。但現在,我們正在首次走出 IT 範疇——我們原本賣的產品全都是IT裝置,現在我們開始進入製造與營運兩個全新領域。所謂的製造領域,是指我們正在製造機器人,或用機器人系統製造其他產品;所謂營運領域,是指我們正在提供“數字員工”。全球的營運支出與資本支出總和大約是50兆美元,而整個IT行業的規模也就約為1兆美元。現在,得益於AI,我們即將從那個1兆美元的行業,跨入一個50倍規模的新市場。我相信,雖然一些傳統工作會被替代,也確實會消失,但與此同時,也會湧現大量全新的工作機會。尤其是隨著“智能體”這一新形態的普及,機器人系統可能會直接推動全球 GDP 的實際擴張。背後的邏輯其實很簡單:我們正面臨勞動力短缺的窘境。美國的失業率處於歷史低點,走遍全國你都能看到:餐館招不到服務員,許多工廠也難以招到工人。在這種背景下,“每年花十萬美元雇個機器人”這個概念,很多人會毫不猶豫地接受,因為這能顯著提升他們的收入與產出能力。所以我判斷,在未來五到十年內,我們可能會經歷一次實質性的GDP擴張,也會見證一個全新產業的誕生。這個產業的核心,就是以“生成 token”的系統為基礎來生產數字成果——這一點,公眾現在開始慢慢理解了。問:你在 Computex 2025 和上個月 GTC 的兩場演講,其實風格截然不同。我的理解是:GTC 是面向超大規模雲服務提供商的,而 Computex 2025 則是講給企業 IT 市場的。所以你現在的目標重點,是企業 IT 嗎?黃仁勳:可以這麼說——企業 IT,以及“智能體與機器人”。企業 IT的核心載體是智能體,而製造業的核心應用是機器人。為什麼這點這麼重要?因為這就是未來生態系統的起點。Dynamo將成為AI工廠作業系統?問:在你最近的 GTC 演講中,你提到了傳統資料中心存在的一些侷限,並解釋了為什麼輝達的方案是更合適的選擇。我把這理解為你對“專用晶片”(也就是 ASIC)的某種反對立場。一方面,你展示了輝達完整的產品路線圖,說明我們有長期清晰的技術方向;另一方面,你講到“延遲和頻寬”的平衡問題,指出 GPU 因為具備可程式設計性,可以靈活適應不同類型的 AI 工作負載,不像 ASIC 那樣只能做單一任務。而這些專用 ASIC 晶片,正是由一些超大規模的雲服務商自己打造的。相比之下,輝達提供的是一個通用、可擴展的解決方案,更適合一個快速變化的 AI 世界。黃仁勳:你的理解沒錯,我確實傳遞了這些觀點,但我的本意並不是反對 ASIC,而是想幫助人們理解:下一代資料中心應該如何設計。我們已經在思考這個問題很多年了。關鍵挑戰在於:資料中心的能源是有限的。所以如果你把它看作是一座“AI 工廠”,首要任務就是:如何讓每一瓦電產生儘可能多的計算吞吐量。而我們衡量這種吞吐量的單位,就是 token。你可以生產極其廉價的token,比如開源模型的免費推理;也可以生產高品質、高價值的token,使用者可能會為此支付每月1000美元,甚至1萬美元。問:你在演講中還提到一個“價值10萬美元的智能體”。黃仁勳:是的。你問我願不願意每年花10萬美元雇一個AI助手?我的答案非常願意。我們每天都在僱傭年薪幾十萬、甚至上百萬美元的人才。如果花10萬美元就能提升一個年薪50萬美元員工的生產力,當然是值得的。關鍵在於,你在 AI 工廠中生產的token質量是多種多樣的。你需要大量廉價的,也需要高附加值的token。如果你建構的晶片或系統只能處理某一類 token,那麼它在大多數時間裡都會被閒置,導致計算資源浪費。因此,問題的本質是:如何設計一個平台,既能處理高吞吐量的免費 token,又能勝任高品質的任務?如果你的計算架構太分散,不同類型任務在不同晶片間遷移時效率會很低。如果你只專注於高 token 速率,它的整體吞吐通常反而會下降。你若追求高吞吐性能,系統互動性就會受限,使用者體驗下降。“在 X 軸或 Y 軸上做最佳化很容易”,但“填滿整個二維空間”非常困難。而這,正是輝達試圖通過Blackwell 架構、FP4 低精度計算格式、NVLink 72 高速互聯、HBM 高頻寬記憶體,以及核心的 Dynamo 解耦式推理系統來解決的問題。問:Dynamo是不是你所說的“資料中心作業系統”?黃仁勳:可以這麼說。它的設計出發點,是因為大語言模型的推理過程並不是一個統一的、恆定的過程,而是分階段、因任務而異的。我們將這個過程拆解成兩個主要階段:Pre-fill(預填充)階段:處理上下文,相當於“理解你是誰”、“你關心什麼”這一類背景工作;Decode(解碼)階段:生成實際 token 的過程,常涉及鏈式思維(chain-of-thought)、檢索增強(RAG)等複雜計算。解碼階段對計算資源的需求是高度動態變化的——有時幾乎不需要太多浮點運算,有時則需要大量。Dynamo 的意義就在於,它能把推理任務自動拆解、分發、調度到整個資料中心中的最優資源節點。問:從架構角度看,Dynamo 是不是就是那個把整個資料中心當成一個 GPU 來調度的軟體系統?黃仁勳:沒錯。它本質上就是 AI 工廠的作業系統。問:你如何看待推理型模型的未來?它們會更多用於智能體工作流?還是主要用於生成訓練資料,幫助模型自我最佳化?黃仁勳:我認為這取決於成本。但從趨勢看,推理型模型將成為 AI 的“默認計算單元”。隨著硬體和軟體的進步,我們處理推理的速度會快得驚人。比如說:Grace Blackwell 平台的性能是前一代的40倍;下一代又提升40 倍;模型本身也越來越高效。所以,從現在起未來五年內,推理速度提升10萬倍,對我來說是完全有可能的。現在的 AI 系統,其實在你看不見的地方,已經完成了一座“高山般龐大的思考”。它只是沒有表現出來讓你看到它“正在思考”。這是一種“快思考”的系統——那怕是原本需要深度推理、屬於“慢思考”的任務,在它這裡也已經變得極為迅速。問:你提到美國電力基礎設施建設困難重重,但像一些海灣國家、中國等地,電力獲取和建設速度快得多,是不是輝達所解決的問題在這些地區就不是那麼迫切?黃仁勳:你這個角度很有趣,我之前確實沒這麼想。但無論在那個國家,資料中心的規模總是有限的,所以性能功耗比(efficiency per watt)始終非常關鍵。我們可以做個簡單計算:一個1吉瓦的資料中心,其殼體、電力、土地和營運成本大約是 300 億美元;加上計算、儲存、網路等部分,大約是 500 億美元;如果因為系統效率很低,你就必須建兩套系統以達到相同的性能,那麼前期建設成本就從 300 億美元膨脹到 600 億美元。所以你必須用極其高效的架構來抵消額外成本。在這個世界裡,“免費的計算”有時也不夠便宜。輝達的全端戰略問:你曾多次提到“希望你們(客戶)購買輝達的全套產品,但只要你們購買其中的任何一部分,你也會很高興”, 這句話聽起來非常務實,像是一位企業軟體公司的 CEO。如果客戶需要建構完整的 AI 工廠,按照你的說法,輝達的全端解決方案無疑會帶來最大收益。但許多客戶並不需要“全端”,他們只購買其中的一部分。但一旦他們開始使用輝達的某個部分,通常就會繼續使用下去。所以從戰略角度來看,覆蓋這些客戶也非常有價值,對吧?黃仁勳:服務客戶,這就是聰明的做法。你看看輝達的市場策略,我們一直以來都是在打造端到端的完整解決方案。因為軟體和硬體必須緊密結合,才能發揮最大效能,而我們能夠很好地將軟體和硬體“解耦”,讓客戶可以根據自己的需要選擇部分元件。如果客戶不想使用我們的軟體——沒問題。我們的系統設計得足夠靈活,如果客戶想替換某些元件,我們也可以做到。現在,Grace Blackwell 架構已經在全球不同的雲服務中得到了部署,每家雲服務提供商都基於我們的標準進行整合,但他們的實現方式各不相同。我們能夠非常順暢地融入到他們的系統中。這其實就是輝達商業模式的真正優勢所在,但也正是我們作為“計算平台公司”定位的體現。我們最看重的,是客戶至少能在我們的技術堆疊中使用一部分:如果他們選擇了我們的計算堆疊,那太好了;如果他們選擇的是我們的網路堆疊(我對網路的重視程度不亞於計算),也很好;如果兩者都選了,那就更棒了!我始終堅信:輝達能夠建構出最好的整體系統。如果我都不相信我們做得更好,那說明我們那裡出了問題,我們必須改進並找回信心。我們的公司有 36,000 到 38,000 名員工,每個人都在齊心協力地做一件事:打造全球領先的加速計算平台和 AI 計算平台。所以,如果有那家公司只有 14 個人,卻能做得比我們更好,那對我來說會非常痛苦,我們就必須加倍努力去追趕。問:但你也相信規模的力量,而要實現規模的最大化,就必須按照客戶希望的方式銷售產品。黃仁勳:完全正確,這就是關鍵。我們有自己的偏好,但我們會根據客戶喜歡的方式來服務客戶。遊戲:GeForce的多重角色問:在你的GTC演講中,僅有10%的內容是關於 GeForce的,但對我們來說,它依然非常重要。這種“重要”是因為我們在做GPU,且一切都可以擴展嗎?怎麼解釋輝達與遊戲的關係呢?黃仁勳:我很希望我能這樣說,RTX PRO 如果沒有GeForce是不可能的,Omniverse 如果沒有GeForce 也無法實現,所有我們看到的每一個像素,沒有 GeForce也無法呈現出來。機器人如果沒有 GeForce 也無法運作,Newton也是如此。GeForce本身並不是GTC的核心主題,因為後者主要側重高性能計算、企業和 AI 等領域,我們還有專門的遊戲開發者大會。所以在GTC上,GeForce的產品發佈並不會像其他領域那樣成為核心焦點,但大家都清楚,GeForce 在我們所做的一切中扮演著至關重要的角色。問:這是不是意味著,遊戲玩家可能沒有完全意識到,GeForce 的作用已經遠遠超出了單純的圖形渲染引擎?黃仁勳:確實如此。我們只渲染了每十個像素中的一個,這是一個令人震驚的數字。假設我給你一幅拼圖,給你十個拼圖中的一個,剩下的九個我根本不交給你,你必須自己想辦法補全它們。問:我試著把遊戲跟你剛才提到的那些其他領域聯絡起來。你說過,輝達在設計上非常嚴謹地把不同模組區分開來,軟體管理得也很清晰,並實現瞭解耦。這讓我一下子聯想到Windows上的驅動程式問題。說實話,這種能力本身就是你們的一項核心技術優勢。黃仁勳:驅動程式確實屬於非常底層的技術,涉及的內容極其複雜。實際上,驅動程式的“抽象”本身就是一個革命性的概念,而微軟在推動這一體系中發揮了關鍵作用。可以說,如果沒有驅動這一抽象層的設計,就不會有今天的 Windows 生態。正是通過建立 API 抽象層,使得硬體層可以不斷演進和變化,而不會影響到上層軟體的相容性和穩定性。目前我們的驅動程式是開放原始碼的,但坦率地說,我並沒有看到太多人能夠真正參與其中。原因在於,每當我們推出一款新的 GPU,之前在舊驅動上所做的大量工作幾乎都要被重寫或替換。只有像輝達這樣擁有龐大工程能力的團隊,才能持續推動這一系統演進——這對大多數公司來說幾乎是不可能完成的任務。但正是因為我們能為每一代 GPU 提供深度最佳化的專屬驅動,才建構起一個穩定而強大的抽象層和隔離層。無論是基於 CUDA,還是 DirectX,開發者都可以放心地在這些平台上進行開發,而無需擔心底層硬體的變化。 (騰訊科技)
輝達重磅官方宣佈:Python成CUDA原生語言,AI開發迎來大變革!
近期科技圈迎來了一個足以讓開發者們熱血沸騰的消息:在2025 年GTC 大會上,輝達正式宣佈Python 成為CUDA 的原生程式語言!這個消息如同一顆重磅炸彈,瞬間在開發者社區掀起了驚濤駭浪,要知道,這意味著全球數百萬Python 開發者,終於可以告別繁瑣的C/C++ 學習,直接用最熟悉的Python 在GPU 上高效執行演算法任務,AI 開發的門檻被大大降低,彷彿一夜之間,人人都有機會成為AI 創造者!一、什麼是CUDA 、 Python在深入探討這次變革之前,先來先給大家科普一下CUDA 和Python 這兩位「主角」 。(1)CUDACUDA,全稱Compute Unified Device Architecture,是輝達推出的平行計算平台和編程模型,它賦予了GPU 處理複雜計算任務的能力,就像是給GPU 裝上了“超級引擎”,並行讓它在深度學習、科學計算、圖形渲染等領域大顯身手,發揮出遠超CPU 的平行讓它計算性能。以往,開發者想要利用GPU 的強大算力,往往需要掌握複雜的C/C++ 程式設計,學習成本極高。但CUDA 的出現,在一定程度上降低了門檻,使得GPU 計算變得更容易實現。(2)Python再來看Python,在現今的AI 時代,它是當之無愧的「明星程式語言」。 Python 以其簡潔易讀的語法、豐富強大的庫(像用於深度學習的TensorFlow、PyTorch,數據處理的Pandas,科學計算的NumPy 等),以及龐大活躍的社區支援,成為了眾多開發者,尤其是AI 開發者的心頭好。從資料預處理到模型建構、訓練、評估,Python 都能輕鬆應對,幫助開發者快速實現自己的創意和想法,是AI 開發中不可或缺的得力助手。二、為什麼輝達引進Python 開發為什麼輝達要做出如此重大的決策,將Python 引入CUDA 開發呢?這背後其實有著多方面的深思熟慮。(一)Python 的優勢首先,Python 自身的魅力實在難以抵擋。它簡潔的語法就像是為開發者量身定製的“快速通道”,讓代碼編寫變得高效又輕鬆,大大提升了開發效率。舉例來說,使用Python 進行資料處理,幾行程式碼就能完成複雜的資料清洗和預處理任務,而換成其他語言,可能需要數倍的程式碼量。而且Python 擁有龐大豐富的庫,這些庫就如同一個個“百寶箱”,涵蓋了數據分析、機器學習、深度學習等眾多領域。例如在機器學習領域,Scikit - learn 庫提供了豐富的機器學習演算法和工具,開發者只需呼叫相應的函數,就能輕鬆實現模型的訓練和評估;在深度學習中,PyTorch 和TensorFlow 更是讓模型搭建和訓練變得簡單易懂。活躍的社區也是Python 的一大“法寶”,全球數百萬開發者在社區中交流、分享經驗,遇到問題時,能迅速在社區中找到解決方案。 這使得Python 在AI 開發領域的地位愈發穩固,輝達引進Python,無疑是搭上了這股AI 發展的「高速列車」。(2)CUDA 發展需求從CUDA 自身發展的角度來看,Python作為AI時代絕對的王者語言,輝達與天鬥與地鬥,唯獨不敢逆潮流而動。輝達如果想分到AI的蛋糕,必然要引進Python,此乃順勢而為。先前,CUDA 主要依賴C/C++ 進行開發,這對許多開發者來說,門檻頗高。 C/C++ 語言本身較為複雜,學習成本高,開發過程中還需要處理大量底層細節,這讓不少對GPU 計算感興趣的開發者望而卻步。而Python 的加入,就像是為CUDA 打開了一扇全新的大門,讓更多開發者能夠輕鬆踏入GPU 計算的領域。如今AI 發展迅猛,對GPU 計算的需求呈現爆發式增長,擴大開發者群體成為CUDA 持續發展的關鍵。透過支援Python,CUDA 能夠吸引全球數百萬Python 開發者,為自身生態注入源源不斷的活力,更好地適應AI 時代的發展需求。三、引進Python 開發的影響輝達這一決策,猶如一顆投入湖面的巨石,激起層層漣漪,對AI 開發乃至整個科技領域都產生了深遠影響。(1)降低開發門檻Python 成為CUDA 原生語言後,最大的受益者就是廣大開發者。以往,想要利用GPU 的強大算力進行開發,開發者們必須花費大量時間和精力去學習複雜的C/C++ 語言。 C/C++ 語言雖然強大,但語法複雜,開發難度高,對於許多初學者和非專業開發者來說,猶如一道難以跨越的鴻溝。就像在一場艱難的攀爬中,開發者們需要背負沉重的裝備,艱難地向上攀登,稍有不慎就可能滑落。但現在,Python 的加入改變了這個局面。它以簡潔的語法、豐富的資料類型和強大的庫,讓開發者們能夠輕鬆上手。就好比給開發者們換上了輕便的裝備,還提供了一條便捷的登山路徑,讓他們能夠更輕鬆地利用GPU 算力,將更多的精力投入到演算法設計和創新中。(2)提升開發效率從實際開發角度來看,Python 與CUDA 的結合大大提升了開發效率。以深度學習模型訓練為例,在傳統的開發模式下,使用C/C++ 進行CUDA 開發,從搭建環境、編寫程式碼到調試,每個環節都需要耗費大量時間。而現在,借助Python 的豐富庫和簡潔語法,開發者可以快速建立模型框架,並呼叫相關函數進行資料處理和模型訓練。例如使用PyTorch 庫,幾行程式碼就能完成模型的搭建與初始化,再結合CUDA 的GPU 加速,模型訓練速度大幅提升。曾經需要數小時甚至數天才能完成的模型訓練任務,現在可能只需要幾個小時就能完成,大大縮短了開發周期,讓創新的想法能夠更快地轉化為實際成果。(3)就業市場變化這項變革也在就業市場上掀起了波瀾。隨著AI 開發門檻的降低和需求的成長,AI 相關崗位的人才需求持續攀升。據麥肯錫報告預測,到2030 年,全球AI 相關人才缺口將達到500 萬。企業為了爭奪稀缺的AI 人才,紛紛開出高薪,AI 工程師、資料科學家等崗位的薪資水準持續走高,成為職場新貴。例如,智聯招聘發布的《2025 年春招市場行情周報》顯示,AI 工程師平均招聘月薪為21319 元,在細分職業中,機器人、大模型、自動駕駛等新興領域的技術崗位工資更高。這對於從業者來說,既是機遇也是挑戰。一方面,更多的人有機會進入AI 領域,憑藉自己的技能獲得豐厚的回報;另一方面,也意味著競爭更加激烈,只有不斷提升自己的技術能力,才能在這個快速發展的領域中站穩腳跟。四、輝達基於Python 開發的成果與未來(1)已有成果輝達基於Python 開發已經取得了一系列令人矚目的成果。 cuPyNumeric 庫便是其中的典型代表,它作為NumPy 的GPU 加速替代品,為科學研究人員和資料科學家帶來了極大的便利。以往,科研人員在處理大規模資料集時,常常受到CPU 計算能力的限制,分析一個PB 等級的天文觀測資料,使用傳統的NumPy 在CPU 上處理可能需要數小時甚至數天,但有了cuPyNumeric 庫,只需修改一行import 語句,大幅將代碼從CPU 遷移到GPU,利用了加數分鐘在洛斯阿拉莫斯國家實驗室,科學研究人員運用cuPyNumeric 加速資料科學、計算科學和機器學習演算法,為有效利用新推出的Venado 超級電腦提供了更多工具。(2)未來展望輝達在CUDA 與Python 結合的道路上還有更宏偉的藍圖。隨著技術的不斷髮展,CUDA 預計將支援更多的程式語言,如Rust、Julia 等,進一步擴大其多語言生態,讓更多不同背景的開發者能夠參與GPU 計算的開發中。在AI 行業,CUDA 與Python 的深度融合將繼續推動技術的創新和突破。在自動駕駛領域,利用Python 的簡潔語法和豐富庫,結合CUDA 的GPU 加速,能夠更有效率地處理大量的傳感器資料,實現更精準的環境感知和決策;在醫療影像分析中,也能快速處理醫學圖像,輔助醫生進行疾病診斷,為患者提供更及時的治療方案。Python 成為CUDA 原生語言,無疑是AI 開發領域的重大變革,它打破了語言障礙,降低了開發門檻,提升了開發效率,為AI 技術的發展注入了新的活力。對於廣大開發者而言,這是一個充滿機會的時代,AI 技術的快速發展,為我們提供了廣闊的舞台。如果你對AI 開發感興趣,不妨抓住這個機會,學習Python 和CUDA 相關知識,提升自己的技能,在AI 領域中實現自己的價值。從CUDA擁抱Python,到AI重塑千行百業,技術浪潮從未如此澎湃。選擇AI,就是選擇未來十年的「金飯碗」! ! ! (工業小愛同學)