#AGI
全球第一!中國世界模型超越Google輝達,AGI邁入物理世界新里程碑
AI領域再傳重磅喜訊,極佳視界GigaWorld-1具身世界模型,在全球權威評測基準WorldArena強勢登頂,擊敗Google、輝達、阿里等頂尖團隊,成為榜單唯一綜合得分突破60分的具身世界模型。這項評測由清華、普林斯頓、北大等8所頂尖機構聯合打造,覆蓋16項核心指標與3大真實任務,是世界模型領域最嚴苛的“試金石”。GigaWorld-1實現三大維度斷層領先:物理遵循度超第二名16%,3D精準度逼近滿分,視覺質量遙遙領先。技術上,GigaWorld-1創新融合顯式動作建模+可微分物理引擎,保障幾何一致性與真實物理互動,搭配上萬小時機器人實操資料訓練,泛化能力與動作精度大幅提升。項目堅持開源賦能,核心程式碼與資料集已開放,半月下載量破1.6萬次,並作為官方基準支撐CVPR 2026挑戰賽,助力全球具身智能生態發展。從GigaWorld-0里程碑驗證,到GigaWorld-1全球登頂,再到GigaWorld-Policy實現效率10倍飛躍、任務成功率提升30%,系列產品持續引領行業突破。極佳視界是國內首家佈局世界模型的科技企業,核心團隊匯聚全球頂尖人才,以閉環生態為AGI走進物理世界築牢基石。GigaWorld-1的登頂,是中國在具身智能領域的關鍵突破,標誌著世界模型從實驗室走向產業應用,為通用人工智慧打開全新大門。 (靈動數上科技)
繞開禁令!Arm CEO:AGI CPU可對華銷售!
4月2日消息,據《中國日報》近日報導,總部位於英國的Arm公司首席執行長Rene Haas在接受線上採訪時表示,其最新發佈的資料中心中央處理器Arm AGI CPU將可在中國市場銷售,並且該公司也正打算這樣做。Rene Haas進一步指出:“我們今天沒有任何可以公開談論的客戶。但我們預計這種產品在中國的需求與世界其他地區一樣強勁。”3月24日,Arm公司首次突破了其原有的產品矩陣和商業務模式,將產品矩陣延伸至量產晶片產品領域,正式發佈了一款由 Arm 自主設計、面向人工智慧 (AI) 資料中心的CPU——AGI CPU,旨在滿足日益增長的代理式 AI (agentic AI) 工作負載需求,網際網路巨頭Meta已經確認將是AGI CPU的首批客戶。據介紹,AGI CPU基於台積電3nm製程,由兩個小矽片組合而成,整合了 136 個 Arm最新的Neoverse V3 核心,每個核心配備 2 MB 二級快取,主頻3.2 GHz,最高頻率3.7 GHz,每線程獨立核心,可在持續負載下提供確定性性能,避免降頻與線程閒置。在記憶體和介面支援方面,AGI CPU支援 12 通道 DDR5 記憶體,最高可達 8800 MT/s,可提供超過 800 GB/s 的總記憶體頻寬,或每核心 6GB/s的頻寬,延遲低於100ns。I/O包含96條PCIe Gen6通道,並原生支援CXL 3.0以實現記憶體擴展和池化。整個晶片的TDP在300瓦左右。Arm表示,基於AGI CPU每個伺服器機架的性能超過x86平台的兩倍,並且每1吉瓦基於Arm AGI CPU的AI 資料中心算力的資本支出 (CAPEX) 相比x86 CPU平台可節省高達 100 億美元。需要指出的是,Arm公司曾在2023年8月披露的IPO招股書中表示,其Neoverse 系列處理器當中的高端處理器IP對華出口需要美國和英國的許可,但這種許可證可能很難獲得。Arm指出,其“Neoverse 系列處理器中性能最高的處理器IP達到或超過了美國和英國出口管制制度下的性能閾值,從而在出口和交付給中國客戶之前觸發了出口許可證要求。” “鑑於對運往中國的 HPC 技術的國家安全擔憂更高,而且政府的響應時間表尚未確定,獲得此類出口許可證可能具有挑戰性且不可預測。”當時Arm Neoverse 系列處理器中性能最高的處理器IP則是Neoverse  N2/V2,顯然Arm隨後推出的Neoverse  N3/V3 IP也是會受到英國的出口管制,使得其無法對華出口。但是,Arm最新推出的ArmAGI CPU雖然也是基於高端的Neoverse  V3 IP,但是它是一個完整的CPU晶片,因此該晶片對華出口並不會違反針對Arm Neoverse IP的出口禁令。這或許也是為什麼Arm CEO Rene Haas說,AGI CPU將可在中國市場銷售的原因。 (芯智訊)
既當裁判又當選手,Arm推出136核CPU給輝達氣瘋了
既當裁判,又當選手的現實上演了。就在前兩天,一直穩坐幕後的架構大佬 ARM 終於拋出了一枚震撼全球的重磅炸彈:他們不再只賣設計圖紙了,而是歷史上首次親自下場造晶片,推出了首款專為資料中心設計的 Arm AGI CPU。Arm 大夥兒應該不陌生了,作為掌控著全球 90% 以上移動處理器 CPU 的架構基座,一直靠著賣架構和指令集授權賺得不亦樂乎。那為何要從「包租公」轉化為「實業家」呢?答案很簡單,眼紅。根據 Arm 2026 財年(Q4 為官方指導值)的收入來看,全年營收 49 億美元(約合人民幣 338 億元)。看起來不少了是吧?來看看隔壁 NVIDIA,其 2026 財年的營收已經衝到了恐怖的 2159.38 億美元(約合 1.56 兆元人民幣),毛利率更是飆到75.5%,這已經跟印錢沒啥區別了。這意味著辛辛苦苦設計了一年,還不到人的 2%。更扎心的是,NVIDIA 賣得火熱的 Grace CPU 裡面用的還是 ARM 的技術。這讓 Arm 實在是有點想不通,不過在 AI 大模型競賽時期,主要依靠 GPU 平行算力為主導的。在這個行業,NVIDIA 可以說是隻手遮天,並且隔壁 AMD 和 intel 也不是吃素的,Arm 壓根擠不進去。但火遍全網的龍蝦(OpenClaw)AI 智能體讓 AI 行業的風向開始發生改變了。大夥兒逐漸意識到,縱使大模型再強,也只能動動嘴皮子,它沒有綜合性的執行能力,所以 AI 智能體就這麼火了。這個大家也熟悉,如果把大模型當做大腦,那 AI 智能體(Agentic AI)就是腦幹和肢體。讓 AI 能開始擁有自主生產力了。所以這種變化也就對硬體要求發生了改變,以前 AI 只需要 GPU 的「暴力計算」,但現在的「龍蝦們」需要頻繁地做邏輯判斷、任務編排、多系統呼叫——這些都是 CPU 的強項。看到這,Arm 表示,機會來了。正式推出了咱們開頭的提到的 AGI CPU。簡單過一下參數。AGI CPU 採用台積電 3nm 工藝製造,採用 Neoverse V3 核心,單顆晶片可以整合最多 136 核。單顆核心之間記憶體頻寬達 6 GB/s,延遲低於 100ns,最高 6 TB 的單芯記憶體容量,支援 DDR5-8800 規格。具備 96 條 PCIe Gen 6 通道,支援 CXL 3.0 和 AMBA CHI 互連。TDP 為 300W。看不懂沒關係,咱們做個簡易表把隔壁 intel、AMD 都拉過來簡單對比一下核心數和功耗。雖然性價比和核心性能都不是最突出的,但它有兩個優點,一是專門針對SVE2單元,在處理 Agentic AI(代理式 AI) 常見的決策樹、輕量化推理和多工編排時,其每瓦特性能表現極佳。第二點就是 TDP,雖然 300W 對於 Arm 來說是非常高了,但對比隔壁的 intel 和 AMD 動輒 500-600W,還是要涼快不少。稍微瞭解的同學就知道,散熱和電力對於資料中心來說,是佔營運支出的大頭,一般要佔到 60% 以上(含電力運轉)。所以 Arm 官方也囂張地喊出其方案每機架的性能比傳統 x86 高出 2 倍以上,因為能塞下更多的處理器。這意味著對於像 Meta 這樣規模的巨頭,建設一個吉瓦級的 AI 資料中心,改用 ARM 方案能省下整整 100 億美元(約合人民幣 723 億元)。當然了,除了 x86,最受傷的莫過於是基於 Arm 的 Neoverse V3 開發的「友商們」了,這其中就有 NVIDIA。拿 NVIDIA 剛發佈深度定製的 Vera CPU(88核心)來說,核心規模上就要壓上一頭,雖然不敵 NVLink 以 1.8 TB/s 的速度和 GPU 交換資料,但 NVIDIA這個屬於「閉源」,意味著你買了它的 CPU,就得買它的 GPU,消費選擇給限制了。而Arm支援CXL 3.0 和通用 PCIe Gen 6,這意味著它能和 Meta 的 MTIA 加速器、OpenAI 的自研晶片相配合。如果單看規模的話,亞馬遜的 Graviton5 擁有 192 個 Neoverse V3 核心,似乎更大,但人壓根不賣,你只能在它的雲伺服器裡租著用。同樣用著同款核心微軟的 Azure Cobalt 200,不過是定製款,是專門為 Azure 雲服務最佳化。所以,大夥兒能看出來,之前的 Neoverse V3 被雲巨頭拿過去後都是放在自己的「後花園」用,現在 Arm 直接把圍牆拆了,大家都可以買。算是給自家盟友來了一刀。看到這可能有同學要說了,那跟咱們普通人有什麼關係?當然也有。首先是對傳統 x86 CPU 的衝擊,在市場一定的前提下,AGI CPU 勢必也會吃掉一部分傳統通用計算 CPU 市場,從而倒逼 intel、AMD 進行快速的技術迭代和工藝升級,而這些技術也會輻射到消費級 CPU 領域,例如 AMD 的 3D V-Cache 技術。其次就是「養龍蝦」會變得更便宜、更聰明。當雲巨頭們或者更多的入局者大規模部署這種 AGI CPU 後,我們使用的模型、國內的各類智能體工具,響應速度會成倍提升。那些複雜的「個人私人秘書」功能將從雲端下放到更廉價的伺服器甚至你的個人裝置上。不過這一切都建立在AI持續爆火並有大廠不斷投入和內卷的基礎上。至於什麼時候能實現「養蝦自由」,還很難說。咱們就拭目以待吧。 (電手)
毛利率98%的ARM,想換個姿勢“躺著賺錢”
一切跟算力有關的產品,產能都遭遇到了AI需求的擠佔,過去是儲存,現在輪到CPU。目前,英特爾、AMD都在推動產品漲價,漲幅在10%-15%之間。“聽說CPU的提貨周期已經延長到8個月了。”一位長期跟蹤儲存產業的研究員援引知情人士的消息說。在這種背景下,ARM決定入局CPU晶片自研,注意不是GPU自研。“我要明確表態——我們現在進入了一個對ARM而言全新的業務領域,我們正在供應CPU。”當地時間3月24日,ARM CEO雷內·哈斯(Rene Haas)在一場官宣的發佈會上說。ARM首顆AGI CPU晶片。圖片由AI生成根據ARM提供的資料,其首顆自研AGI CPU搭載136個ARM Neoverse V3核心,每核心提供6GB/s記憶體頻寬、低於100納秒的訪問延遲,熱設計功耗為300瓦;單個風冷機櫃最高可容納60顆CPU,即8160個核心,若採用液冷方案,總核心數可以突破45000個。ARM AGI CPU採用台積電3奈米工藝製造,由兩塊芯粒封裝而成,作為一顆完整晶片協同運行。ARM強調,相較於同類x86晶片,每機櫃性能功耗比提升超過兩倍,每吉瓦AI資料中心容量可為客戶節省高達100億美元的資本支出。目前晶片已完成測試,計畫於2026年下半年進入量產。01 98%毛利率不香了?ARM的“IP授權”模式鏈路清晰,設計晶片架構,將智慧財產權授權給蘋果、輝達、高通等公司,然後坐收授權費和版稅。不要工廠,不需要生產線,毛利率高達98%,屬於全行業最高水平之一。有分析師將這種模式稱為“躺著印錢”——每一顆搭載ARM架構的晶片出貨,這家公司都能分到一筆錢,全球迄今出貨量超過3250億顆。那麼,哈斯為什麼要放棄這個近乎完美的模式?財報裡已有訊號。ARM最新一個財季的營收達到創紀錄的12.4億美元,同比上漲26%,連續四個季度單季破10億美元,其中版稅收入(晶片出貨分成)增長27%,但由於5.05億美元的許可收入(IP授權)低於分析師預期的5.19億美元,市場立即作出負反饋——其股價盤後下跌超過5%。晶片出貨分成相關的版稅收入屬於滯後指標,許可則是領先指標,反映客戶願意為下一代技術預付多大的賭注。許可收入的波動,讓投資者很難為ARM的AI故事建立穩定的估值模型。ARM必須回答一個問題:增量訂單在那裡?所以,被動等待IP授權許可,不如直接下場自研出售晶片,將收入結構從“等單上門”轉變為持續的硬體銷售流水,創造可持續、規模化、可預測的硬體收入。當然,代價則是98%這種超高毛利率被侵蝕。可以這樣理解,ARM的轉向是在IP授權模式觸及天花板之前,主動規劃第二增長曲線。02 ARM伺服器CPU“站起來了”ARM架構的伺服器CPU,靠譜嗎?輝達已給答案。2021年GTC,輝達就推出了ARM架構的Grace CPU,並搭配Blackwell GPU在大量資料中心部署,新一代的Vera CPU也已經量產。此次ARM的發佈會上,黃仁勳親自發視訊祝賀,稱雙方合作近二十年,ARM的適應性使輝達得以將其整合至“全平台、全AI階段”。之所以請黃仁勳來站台背書,ARM也就是想強調其解決方案已經被市場上最成功的AI晶片公司用實際銷售額反覆驗證。現在自己下場,某種程度上只是“去掉了輝達這個中間商”,將原本版稅分潤的收益,以硬體利潤的形式收入囊中,在自己的商業模式中完成了閉環。事實上不僅是輝達,全球主流雲廠幾乎都在轉向ARM架構伺服器CPU:亞馬遜AWS的Graviton 5搭載192個ARM核心,2025年AWS新增算力中大多數由其驅動;微軟Azure的Cobalt 200擁有132個核心。這些公司已在ARM架構上投入了數十億美元的研發資源,建構了龐大的軟體生態。ARM對伺服器CPU市場的影響,剛剛正在從專利,轉向生態。03 GPU為CPU“帶貨”站在市場的邏輯,GPU的暴增和AI晶片自研的陣營越來越大,不僅加大了對HBM記憶體的需求,也帶來了CPU需求的增長。騰訊科技此前給了一個資料——2026年台積電的CoWoS晶圓產能是1150000片。按雙Die晶片總面積1500mm²、80%良率估算,全年可產出約4324萬顆GPU晶片。若按每8顆GPU搭配2顆CPU的比例,4324萬顆GPU共需要1081萬顆CPU。注意,這1000多萬顆對應的是AI伺服器的需求,不包含通用伺服器,由於英特爾、AMD已經供不應求了,所以這是文章開頭提到的漲價的邏輯,也是提貨周期變長的原因。行業研究機構Futurum Group將這一現象稱為“悄然而至的供應危機”,並預測到2028年CPU市場增速將超越GPU。ARM下場做AGI CPU,著重強調了自己與x86架構的優勢——每機櫃性能功耗比是同類晶片的兩倍,並表示每吉瓦AI資料中心容量可節省高達100億美元的資本支出。這對於Meta、微軟、Google這些正在大手筆建設資料中心的超大規模雲廠商而言,存在巨大的吸引力。Creative Strategies預測,資料中心CPU需求將從2026年的250億美元增長至2030年的600億美元;若疊加AI智能體的需求,這一數字將接近1000億美元。即便ARM只能拿下其中一個零頭,也足以支撐哈斯描繪的財務藍圖。04 先和Meta抱團“造芯”祖克柏和他的Meta雖然在這一代模型上掉進了大坑,但一直在算力市場玩的風生水起,又是賣卡又是自研,不久之前也公佈了新一代MTIA晶片。ARM下場做AGI CPU,也選擇了和Meta抱團:一方面當客戶,一方面作為聯合開發者。Meta軟體工程師保羅·薩阿布從2023年項目啟動之初便全程參與晶片設計。他解釋了Meta入局的動機:“在當今世界,真正的玩家屈指可數。這為我們的生態系統又增添了一個新選擇。”根據財報電話會議的資料,Meta今年資本支出高達1350億美元,正在路易斯安那、俄亥俄、印第安納等地大規模建設AI資料中心,僅路易斯安那州的“Hyperion”超級資料中心裝機容量就達5吉瓦。不過,在此前,Meta的CPU幾乎完全依賴英特爾和AMD。多一個ARM可選項,就多一條供應鏈、多一個議價籌碼。薩阿布直言:“我們不是晶片公司,我們希望它能面向全世界開放。”Meta之外,OpenAI、Cloudflare、SAP、SK電信、Cerebras也相繼確認為早期客戶。AWS、Google、微軟、輝達、三星電子、台積電等超過50家公司為ARM站隊。資深晶片行業研究員穆爾黑德強調:如果ARM能拿到Meta未來年度資本支出的5%,就已經是“改變遊戲規則”的量級,而Meta只是其客戶名單中的第一個。05 五年250億美元下場自研AGI CPU,在哈斯的財務藍圖中:ARM預期五年內,年營收達到250億美元,約為當前的五倍,其中AGI CPU貢獻約150億美元,傳統IP授權業務翻倍貢獻約100億美元。雖然在CPU漲價潮下官宣自研,但ARM早在2023年就已秘密啟動晶片研發。外媒報導顯示,當時ARM拿出了7100萬美元在德克薩斯州奧斯汀建立專屬晶片實驗室,從一支曾經規模極小的團隊壯大至逾1000名工程師。只不過,雖然有IP護城河以及輝達等在ARM伺服器CPU市場的驗證,硬體業務要面臨包括供應鏈管理、客戶服務、競爭響應等在內的諸多問題,每一項都是ARM從未系統性面對過的挑戰。另外,作為對手,英特爾和AMD也不會坐視增量市場份額被搶走,x86陣營數十年積累的軟體生態和客戶慣性,依然是ARM需要逐步攻克的壁壘。好在整個市場的需求不斷地被AI推高,只要產品被客戶驗證可靠,再加上它還沒有GPU這樣的出口管制,最終產品可以在全球市場裡“暢通無阻”。現在的ARM,最在意的可能是台積電的量產交付能力了。 (騰訊科技)
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?/月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的Meta 一邊裁700人一邊獎高管,祖克柏這把AI賭得有多狠?我看到這條時,第一反應就是:Meta 對 AI 的執念,已經開始直接拿人開刀了。3月25日,Meta 在美國啟動新一輪裁員,涉及數百名員工,核心波及 Reality Labs,也包括 Facebook、全球營運、招聘和銷售團隊;紐約時報給出的數字更狠,僅 Reality Labs 一線就約700人被裁。公司嘴上說是“組織重組”,部分人還能轉崗,甚至要搬城市,但背景誰都看得懂——祖克柏還在往 AI 裡繼續砸錢,要追 OpenAI、Anthropic 和 Google。(CNBC 紐約時報)更擰巴的是,裁員消息傳出的前後,Meta 又給核心高管準備了新的股票激勵計畫,說是為了在 AI 豪賭期穩住關鍵人物。我看著都覺得刺:前腳砍掉 Reality Labs 和業務線員工,後腳給高層加“留任籌碼”,而且公司 1 月才在 VR 部門裁過 1000 多人。Meta 現在像在公開宣佈,舊戰略可以繼續流血,新戰場只能是 AI——可問題是,這場加注最後燒掉的,究竟是成本,還是公司內部的信任?(CNBC 紐約時報)Reddit 終於對機器人動手了!可你上網發言,先要證明自己是人?我最先注意到的,不是 Reddit 要打擊機器人,而是它終於把“誰像人、誰不是人”這件事擺上檯面了。3月25日,Reddit 宣佈,今後會給為使用者提供服務的自動化帳號打標籤,同時要求被懷疑是機器人的帳號完成人類驗證。平台說這不是全站普查,只有在發帖速度、操作模式等訊號“看起來不對勁”時才觸發;過不了驗證,帳號可能直接受限。驗證手段也很現實,點名了 Apple、Google、YubiKey 的 passkeys,甚至 Face ID、World ID。(TechCrunch)這事最有意思的地方在於,Reddit 沒打算禁止 AI 寫帖或評論,只是不想讓機器人假裝成真人混進社區。我一邊覺得它說得很克制,一邊又覺得這幾乎是在承認:今天的社交平台,已經很難單靠內容本身判斷“誰在說話”。同一時間,Reddit 還說自己平均每天移除約10萬個帳號,繼續清理垃圾和可疑 bot。平台想保匿名,又得證明你是人,匿名社區這張老王牌,到了 AI 時代還撐得住嗎?(TechCrunch)Harvey 又融2億美元,法律AI不只是風口,已經開始吞行業了?我看到 Harvey 這輪融資,腦子裡冒出的不是“又一家獨角獸”,而是:律師行業真的開始被 AI 改寫了。3月25日,法律 AI 公司 Harvey 宣佈完成 2 億美元融資,估值達到 110 億美元,這輪由 新加坡主權基金 GIC 和 Sequoia 領投;更誇張的是,它去年 12 月的估值還只有 80 億美元,幾個月就又抬了一截。公司給出的營運資料也很硬,產品已覆蓋 1300 多家機構、超過 10 萬名律師,服務場景包括合同審查、合規、盡調和訴訟。(CNBC)更刺激的是,Harvey 講的已經不是“輔助工具”故事了。公司披露,今年1月年經常性收入已到1.9億美元,客戶裡還有 NBCUniversal 和 HSBC 這種大企業,新增資金則會繼續砸向 AI agents 和全球嵌入式法律工程團隊。我看這已經不是“律師用不用 AI”的問題,而是大所和法務團隊還要不要繼續按舊人海模式運轉。OpenAI、Anthropic 在天上卷模型,Harvey 這種垂類公司,已經開始在地面上直接收行業門票了。(CNBC)川普科技顧問委員會 幾乎半個矽谷都進白宮了,誰還敢說AI只是商業戰?我看到名單時有點恍惚,這那是普通顧問團,簡直像把美國科技權力中樞直接搬進白宮。3月25日,川普任命首批24名總統科學技術顧問委員會成員,名單裡包括 Meta 的馬克·祖克柏、輝達的黃仁勳、甲骨文的拉里·埃裡森、Google聯合創始人謝爾蓋·布林、AMD 的蘇姿丰等重量級人物;委員會由 David Sacks和白宮科技政策辦公室主任 Michael Kratsios共同牽頭,任務是給總統提供科學、技術、教育與創新政策建議。(美國之音 華爾街日報中文網)更有張力的是,這個委員會討論的不只是 AI 本身,白宮明確點到了勞動力市場、國家安全、國土安全和美國科技領導地位。我會覺得這事危險又真實:以前科技公司是去華盛頓遊說,現在更像被請進來一起寫規則。前腳美國還在爭論 AI 該不該被嚴管,後腳最有資源、最有晶片、最有平台的人已經坐到了桌邊——政策是要約束巨頭,還是乾脆由巨頭定義下一輪政策?(美國之音 華爾街日報)PDD 營收還在漲,利潤卻先掉頭,Temu 的低價神話開始疼了?我看到拼多多母公司這份財報,最戲劇化的不是數字差,而是節奏變了。PDD Holdings 3月25日披露,2025年第四季度營收 1239.12 億元,同比增長 12%,折合約 180 億美元;但歸母淨利潤只有 245.41 億元,同比下滑 11%,約合 35.1 億美元,低於市場大約 40 億美元的預期。管理層嘴上講的是“高品質發展”和下一個十年的供應鏈投入,我看到的卻是一個靠效率著稱的平台,開始用利潤給增長續命。(Yahoo Finance 華爾街日報)更微妙的是,外部環境和競爭壓力,PDD 自己也沒再掩飾。財報裡明確說,為了滿足消費者變化、維持生態穩定,公司必須持續投資,而這些投入“不可避免會影響財務表現”;華爾街日報的說法更直接,PDD 正在努力留住平台商家。前腳 Temu 還在全球用低價沖城略地,後腳利潤已經被成本和生態壓力咬了一口。問題來了,平台能一直讓消費者便宜、讓商家留下、還讓股東滿意嗎?(Yahoo Finance 華爾街日報)Arm 不只賣設計了,自己下場做晶片,Rene Haas 這是要掀桌子?我看到 Arm 這一步,真的有種“供應商突然坐上牌桌”的感覺。Arm 不再滿足於給別人授權架構,這次直接推出首款自研資料中心 CPU——Arm AGI CPU,目標非常明確,就是盯著 agentic AI這種持續推理、規劃、行動的工作負載來打;而且它不是概念稿,由 TSMC 用 3nm 工藝代工,官方還給出很硬的參數:最多 136 個 Arm Neoverse V3 核心,主打高密度、高頻寬和低時延。(Arm Newsroom WIRED)更刺激的是,Arm 明知道這會得罪一批老夥伴,還是往前走了。官方宣稱,AGI CPU 單機架性能可達 x86 平台的兩倍以上,早期系統已經可用,2026 年下半年會更大範圍鋪開;WIRED 對 Rene Haas 的訪談則把這層衝突說透了——Arm 一邊談文化轉向,一邊在 SoftBank 支援下自己做晶片,這對過去依賴 Arm IP 的客戶來說,幾乎等於“合作方親自下場競爭”。以前 Arm 是裁判,現在它想當選手,生態還會像以前那樣安靜嗎?(Arm Newsroom WIRED)快手 財報穩住了,真正搶戲的卻是可靈AI開始自己賺錢了!我看快手這份成績單,最扎眼的已經不是短影片主業,而是 AI 終於開始像生意了。快手 3月25日披露,2025 年第四季度總營收 396 億元,同比增長 11.8%,和市場預期基本一致;經調整淨利潤 55 億元,同比增長約 16%。但真正有戲劇性的,是它親手把“可靈 AI”從講故事階段拽進了收入表:Kling AI 單季收入達到 3.4 億元人民幣,說明這類文生視訊產品,終於不只是在刷存在感。(PR Newswire Bloomberg)更猛的是速度。公司還披露,2025年12月,可靈AI單月收入已經超過 2000 萬美元,折算成年化收入跑速約 2.4 億美元。我會覺得這很像一個訊號:平台公司過去總說“AI 會提高效率”,現在終於敢把 AI 單獨拉出來談變現。同一時間,國內大模型和視訊生成都在卷價格、卷效果、卷生態,快手卻先把收入做出來了。問題是,可靈接下來會成為新增長曲線,還是只是財報裡最亮的一塊反光?(PR Newswire Bloomberg)OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?我看到這條內部備忘錄消息時,最先愣住的不是模型進展,而是 OpenAI 的語氣已經像在提前宣佈新時代。Alex Heath 援引內部備忘錄稱,Sam Altman 告訴員工,OpenAI 下一代模型已完成預訓練,內部代號叫 “Spud”,並且他直接放話,“幾周內”會有一個“非常強”的模型,足以真正加速經濟。同時,公司還調整組織架構,把 Safety 併入 Research,把 Security 調整到 Scaling 體系。(The Decoder The Information)更耐人尋味的是,Fidji Simo 負責的產品組織被改名為“AGI Deployment”。我讀到這兒的時候,幾乎能感覺到 OpenAI 想傳遞的情緒:它不只想做模型,還想把“AGI 如何落地”先佔個名字。同一時間,外界看到的是 Sora 被收縮、算力往新模型傾斜,內部看到的卻是安全、擴展、產品重新排兵佈陣。前腳還在解釋安全治理,後腳已經把“部署 AGI”寫進組織名裡,OpenAI 這是領先的自信,還是把壓力直接攤在檯面上了?(The Decoder The Information)Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢路透 3 月 25 日援引英國《金融時報》稱,Manus 聯合創始人、CEO 肖弘和首席科學家季逸超,本月在北京被監管部門約談後,被告知在審查期間不得離境,但仍可在境內活動。被審查的核心,是 Meta 對 Manus 的收購是否違反外商投資相關規則;這筆交易去年 12 月公佈,路透此前引述消息稱,估值大約在 20 億到 30 億美元。(Reuters Financial Times)需要說說明的是,目前審查是完全遵循相關的法律法規,並非所謂的「違法」審查,也並不意味著該筆收購交易就此終止。Meta 這邊的回應很平靜,直接說交易“完全符合適用法律”,並預計會有“適當結果”;而 Manus 則被曝正在積極尋求法律和諮詢支援。(Reuters Financial Times)蔡崇信 說CEO永遠安全!AI都快變虛擬員工了,他還這麼篤定?我看到蔡崇信這句“CEO 崗位永遠安全”時,第一反應不是輕鬆,反而是更刺耳了。3月23日西門子 RXD 大會上,阿里巴巴集團主席蔡崇信和西門子全球 CEO 博樂仁對話時表示,智能體不會取代 CEO,因為 CEO 最稀缺的不是執行力,而是時間和精力。他的邏輯很直接:以前 CEO 得嚴控直屬匯報人數,避免被管理事務拖垮;有了智能體後,CEO 反而能管更多事,把時間騰給戰略和未來。(新浪科技)可我覺得這句話真正的衝擊,不在“CEO 安全”,而在它默認了大量中間層和執行層會先被 AI 重構。同一場對話裡,蔡崇信還強調,阿里的核心戰略是**“未來一切都將由 AI 驅動”**,阿里要靠雲基礎設施支撐所有想用 AI 的企業。前腳說 AI 不會替代 CEO,後腳又說企業未來一切都由 AI 驅動,這種表態聽上去像是在安慰塔尖,可塔身已經開始搖了,不是嗎?(新浪科技)月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的我讀到楊植麟這段發言時,最強烈的感覺是:研究員的位置,可能也要被重新定義了。3月25日,在2026中關村論壇年會上,月之暗面創始人楊植麟表示,從今年到明年乃至未來若干年,AI 的研究和研發方式會發生重大變化,越來越多研究將由 AI 主導完成。他說得很具體,未來每位研究員都會配備大量 AI Token,這些資源能幫助合成新任務、新環境、定義獎勵函數,甚至探索新的網路架構。(新浪科技 東方財富)更有張力的是,他不是在談一個遙遠想像,而是在給時間表。從今年開始,研發會逐步加速,人與 AI 的分工會被重新切開。我看這句話真正刺痛人的地方在於:過去大家還在爭“AI 能不能幫研究員提效”,現在頭部創業者已經直接把 AI 放到“主導研發”的位置上。前腳行業還在追參數、追訓練卡數,後腳討論已經變成“誰先讓 AI 參與設計下一代 AI”,那研究員接下來到底是在做研究,還是在管理研究?(新浪科技 鳳凰網科技)飛豬 把旅行外掛塞進一堆AI應用裡,訂票這件事真要交給助手了?我看到飛豬這次發 skill,最直接的感受就是:旅行平台終於不甘心只做“被搜尋到”的那一端了。3月25日,飛豬發佈首個全品類出行旅遊技能外掛“flyai”,已經上線 ClawHub、GitHub等平台,開發者和使用者可以在 OpenClaw、悟空、Kimi Claw等數十個“龍蝦”應用裡安裝使用。意思很明白,飛豬不想等使用者打開 App 再下單,它要先鑽進各類 AI 助手的工作流裡,把訂機票、訂酒店、做行程這套動作提前佔住。 (AI Daily Insights)
黃仁勳回應一切:中國工程師天生熱愛開源、希望死在工作崗位、AGI 已到來
如果要找一個人來解釋這場 AI 大爆發究竟是怎麼發生的,黃仁勳無疑是最合適的人選。三十年前創立輝達、押注圖形處理器,把 CUDA 強行裝進遊戲顯示卡,市值從 80 億跌至 15 億,然後用十年爬回來。在所有人還在爭論推理晶片會不會只是低端市場時,他已經在為智能體時代設計機架架構。這種提前預判,顯然不只是靠運氣,更離不開他幾十年如一日做的一件事:在所有人相信之前,先把那個未來講給所有人聽。今天,知名播客主持人 Lex Fridman 公開了他與黃仁勳長達兩小時的深度專訪。對話涵蓋 CUDA 護城河、中國科技生態、程式設計的未來,DLSS5、乃至意識與死亡。這是黃仁勳近期最完整的一次公開表達,也是迄今為止最接近他思維方式的一次真實記錄。附上黃仁勳採訪文字版實錄 🔗:https://lexfridman.com/jensen-huang-transcript一個問題,60 個專家同時在場,這就是輝達開會的方式採訪開篇,Fridman 指出輝達已將設計重心從單晶片擴展至機架等級,涵蓋 GPU、CPU、記憶體、網路、NVLink、光纖與銅纜互聯、供電、冷卻、軟體以及機架本身。他問黃仁勳:在如此多變數的協同設計中,最難的部分是什麼?黃仁勳首先解釋了極致協同設計為何從工程邏輯上不可迴避。他說,問題的根源在於規模:當你把一個任務分佈到一萬台電腦上,你期望的結果是獲得遠超線性疊加的加速效果,比如一百萬倍的提升,而單純增加電腦數量只能帶來線性收益。阿姆達爾定律(Amdahl's Law)由電腦科學家 Gene Amdahl 於 1967 年提出,指的是「短板效應」在平行計算中同樣存在——系統的整體性能提升受限於無法平行的那部分程式碼。這就是阿姆達爾定律的約束,也就是說,如果計算只佔總工作量的 50%,即便把計算速度提升到無限快,整體也只能加速兩倍。「一旦你把問題分佈出去,所有東西都會成為瓶頸。CPU 是問題,GPU 是問題,網路是問題,交換機是問題。分散式運算在我們這個規模下,每一個環節都必須同時攻克。」在組織層面,黃仁勳透露自己的直接匯報超過 60 人,幾乎涵蓋所有技術學科的頂尖專家:記憶體、CPU、光學、GPU 架構、演算法、設計,無一缺席。他刻意放棄一對一匯報制度,改為讓所有人同時在場討論任何一個具體問題。「因為我們在做極致協同設計,所以任何一次討論都不可能只有一個人在場。我們呈現一個問題,所有人一起攻。當我們討論冷卻,網路專家在聽;當我們討論供電,記憶體專家在聽。誰要是對本該關注的事情沒有關注,我會直接點名。」他將公司架構比作作業系統,認為公司的組織結構應當直接反映它所處的環境和它要生產的產品,而非套用統一的「漢堡式」或「軟性」組織圖或者「汽車公司」組織圖。把 CUDA 塞進遊戲顯示卡,是最痛苦也是最關鍵的決定在講述輝達的戰略演進時,黃仁勳也詳細梳理了從圖形加速器到計算平台的轉型路徑。他說,輝達最初是一家加速器公司,專注於圖形處理。專業化的好處是極致最佳化,問題在於市場邊界天然受限,而市場規模直接決定研發投入能力,研發能力又決定了一家公司在計算領域能發揮多大的影響力。於是輝達必須拓寬邊界,向通用計算邁進,但通用性和專業性之間往往存在天然的矛盾:越向通用計算靠攏,專業加速能力就越被稀釋。「我把這兩個本質上矛盾的詞硬連在一起,公司必須一步一步走那條極其狹窄的路,在擴展計算邊界的同時,守住最重要的專業化能力。」第一步是可程式設計像素著色器,第一次向可程式設計性邁進。第二步是在著色器中加入 IEEE 標準相容的 FP32 浮點運算,這一步吸引了那些此前在 CPU 上做流處理和資料流計算的研究者。他們發現,GPU 的計算密度極高,又能相容他們原有的軟體邏輯。這直接促成了 Cg 語言(為 GPU 程式設計設計的高級著色器語言),再到 CUDA。將 CUDA 搭載到 GeForce 消費級顯示卡是整個歷史中最關鍵也最痛苦的決策。黃仁勳說,計算平台的價值完全取決於裝機量,而不是架構的優雅程度。他舉 x86 為例:這是歷史上被批評最多的架構,遠沒有同期那些被頂尖電腦科學家精心設計的 RISC 架構優雅,但 x86 活下來了,RISC 大多失敗了。原因只有一個:裝機量。「當時 GeForce 每年出貨數百萬塊顯示卡。我們說,不管使用者用不用 CUDA,都把它裝進每一台 PC 裡,用這個作為培育裝機基數的起點。同時我們去大學裡寫教材、開課程、到處推廣 CUDA。在那個年代,PC 是主要的計算載體,沒有雲,我們等於把超算塞進了每一個在校學生和研究人員的手裡,總有一天會有驚喜發生。」代價是慘烈的。CUDA 讓 GeForce 的成本大幅上升,將輝達的毛利率徹底壓垮,公司毛利率本已只有 35%,成本增加 50% 之後,全部利潤蒸發。市值從約 80 億美元一路跌至 15 億美元,在底部徘徊了相當長的時間。「但我們一直扛著 CUDA,一直搭載在 GeForce 上。輝達是 GeForce 建起來的家,是 GeForce 把 CUDA 送到了所有人手裡。研究人員和科學家在大學裡發現了 CUDA,因為他們本來就是遊戲玩家,他們自己攢電腦,他們拿 PC 元件搭叢集。」後來,這成為深度學習革命的基礎設施。對於如何作出這類賭注式決策,黃仁勳說,他的決策過程始於好奇心,然後是推理。當推理系統在內心足夠清晰地呈現出「這件事一定會發生」時,他便開始相信它,而一旦相信,就會去實現。但更重要的是他管理集體信念的方式:他從不等到決策那一天才宣佈,而是通過每一次外部資訊、工程里程碑、行業新發現,持續向董事會、管理團隊、員工、合作夥伴一點一點地鋪設認知基礎。「到了宣佈的那一天,我希望所有人的反應是:『Jensen,你怎麼現在才說?』收購 Mellanox 是這樣,全力押注深度學習是這樣,現在 Groq 也是這樣,我已經鋪墊了兩年半。」他把 GTC 大會描述為向全行業塑造未來認知的工具,不只面向員工,也面向合作夥伴和整個生態。「我們不生產電腦,也不搭建雲。我們是計算平台公司,任何人都無法直接購買我們的產品,但我們向所有層級開放平台。在我的產品準備好之前,必須先讓所有人相信它將要到來。」Ilya 說資料耗盡了,黃仁勳說他搞錯方向了對於 Scaling Laws(縮放定律/擴展定律),黃仁勳提出了一個系統性框架,包含四個相互咬合的層次。第一條是預訓練擴展定律。模型越大,訓練資料越多,AI 越聰明。當 Ilya Sutskever 表示「預訓練資料耗盡」時,業界一度恐慌,認為 AI 到了天花板。黃仁勳認為這個擔憂搞混了方向:人類生產的資料確實有限,但合成資料的比重會越來越高,而且這並不奇怪,人類知識本來就是「合成」的,知識在人與人之間流轉、被重新詮釋、再創作、再消費。AI 現在已經能夠以真實資料為基礎大量生成合成訓練資料,預訓練的瓶頸從資料量轉移到了算力。第二條是後訓練擴展定律。通過指令微調、強化學習等方式持續精煉模型能力,這個空間仍然廣闊。第三條是測試時擴展定律(test-time compute),也就是推理階段的計算投入。黃仁勳說,當初很多人預判推理是「簡單的」,認為推理晶片只需要小而廉價,完全不需要輝達那樣昂貴複雜的產品,將來推理市場會是一個被商品化的低端市場。「這在邏輯上就說不通。預訓練是記憶和歸納,是閱讀;推理是思考、推理、規劃、搜尋、嘗試、分解陌生問題。思考怎麼可能是計算輕量級的?」事實證明他是對的,測試時擴展的計算消耗遠超市場預期。第四條是智能體擴展定律。一個大語言模型變成一個智能體,在測試時去查資料庫、使用工具、分配子任務,同時派生出大量子智能體。「擴充輝達規模最簡單的方法是多僱員工,而智能體的分裂速度比僱人快多了。」這些智能體在運行過程中積累大量有價值的經驗和資料,其中的精華會反哺預訓練,再經後訓練精煉,再經測試時增強,形成完整的閉環飛輪。「歸根結底,智能的擴展取決於一件事:算力。」對於如何在硬體設計層面預判 AI 模型的走向,黃仁勳坦言這是最難的部分之一,因為 AI 模型架構每六個月就會迭代一次,而系統和硬體架構的迭代周期是三年。輝達的應對策略包括三條:內部做基礎研究和應用研究,自己訓練模型,獲得一手體感;作為全球唯一與所有 AI 公司同時合作的平台公司,廣泛傾聽行業前沿的挑戰;以及保持架構的靈活性,讓 CUDA 能隨演算法演進而演進。他舉了混合專家模型(MoE)的例子:正是預判到 MoE 的崛起,輝達才將 NVLink 從 8 路擴展到 72 路,使一個完整的 4 兆乃至 10 兆參數模型能夠在單一計算域內運行,行為上如同一塊巨大的 GPU。而 Vera Rubin 一代機架相較於 Grace Blackwell 機架,最顯著的變化在於增加了儲存加速器,引入了全新的 Vera CPU,還有專為智能體任務設計的 Rock 機架,因為智能體工作時需要頻繁訪問檔案系統、呼叫工具、執行程式碼,這與單純運行 LLM 推理是完全不同的工作負載。為什麼在 Claude Code、Codex、OpenClaw 出現之前,我們就設計好了這一代架構?因為推理根本不需要等到具體產品出現,你只需要坐下來認真思考:一個大語言模型要成為真正的數字工人,它必須做什麼?它必須訪問檔案系統獲取真實資料,必須能上網查資料,必須會用工具,必須能派生子任務。這些都不是玄學,就是基本邏輯。他還用了一個生動的思想實驗:想像十年後最強的 AI 智能體是一個人形機器人,進入你家幹活,更可能的情形是它使用你家裡現有的工具,比如微波爐,還是它的手指會隨時變成錘子、手術刀或者微波發生器?答案顯然是前者。「我描述的,其實就是 OpenClaw 幾乎所有的核心特性。」黃仁勳眼中的馬斯克:一個把自己變成所有人最高優先順序的人Fridman 提到黃仁勳曾高度稱讚馬斯克以四個月時間建成 Colossus 超算,目前已達 20 萬塊 GPU 的規模。黃仁勳闡述了他從中看到的工程與管理哲學。他說,馬斯克是一個能在多個高深領域同時保持深度的人,同時又是出色的系統思考者。他習慣性地對每一件事追問三個問題:這是必要的嗎?必須這樣做嗎?必須花這麼長時間嗎?層層追問之後,系統會被剝離到最小必要形態,但能力卻完整保留。「他也會親自出現在問題發生的現場。有問題,他就去現場,『把問題給我看』。這種做法能打破大量『這就是我們一貫的做法』的慣性。每個供應商都有很多客戶和項目,他的做法是讓自己成為所有人項目裡的最優先順序,而且他是靠親身示範做到的,不是靠嘴說。」他描述了 Fridman 也同樣經歷過的一個細節:馬斯克曾蹲在機架旁邊和工程師一起研究如何插拔線纜,目的是減少出錯機率。「從每一個細節積累起來的直覺,讓你能同時看清微觀的低效和宏觀的系統性問題,然後你才有資格說『讓我們換一種完全不同的方式來做這件事』。」為什麼中國科技圈天然傾向於開源談及最近訪問中國之行,黃仁勳表示,全球約 50% 的 AI 研究人員是中國人,其中大多數仍在中國國內工作。中國科技行業崛起的時間節點,恰好與移動網際網路時代高度重合,使他們能夠以軟體為突破口進入全球競爭。他認為,中國科技生態之所以能持續輸出大量頂尖公司,有幾個結構性原因。第一是競爭烈度。中國並非一個統一的大市場,而是由無數個省和城市組成的競爭體系,這導致每個垂直領域都出現了數量驚人的競爭者,電動車如此,AI 公司亦然,最終在激烈競爭中存活下來的必然是極其優秀的企業。第二是開放共享的文化。中國工程師圈子高度依賴於學校、公司之間的人際網路,同學就是終身兄弟,朋友就是同行。黃仁勳說,中國工程師的優先順序排序是:家人第一,朋友第二,公司第三。這個排序直接決定了他們對待知識的態度。他們的工程師,兄弟在那家公司,朋友在那家公司,大家都是同學。同學這個概念,在中國意味著一輩子的兄弟。所以他們分享知識的速度極快,根本沒有理由把技術藏著掖著,放到開源上就好了。正因如此,中國科技公司對開放原始碼的貢獻力度遠超外界預期,而開源社區反過來進一步放大、加速了整體創新節奏。第三是崇尚工程的社會文化。這是一個崇尚建造的國家。他也由此延伸到輝達的開源戰略,特別提到 Nemotron 3,這是一個 1200 億參數的開放權重混合專家模型,架構上融合了 Transformer 與狀態空間模型(SSM)。輝達推進開源有三重動機:其一,自己訓練模型是極致協同設計的一部分,能讓硬體團隊直接感知模型架構的走向;其二,專有模型和開源模型各有必要,開源是讓 AI 真正擴散到每個行業、每個國家、每個研究者和學生手中的必要條件;其三,AI 遠不只是語言,生物學、物理、氣象、流體等領域都需要專門訓練的模型,每個行業都能獲得世界級的 AI 基礎模型。43000 個人和數百萬開發者,共同撐起輝達護城河被問及輝達最重要的競爭護城河,黃仁勳給出了一個清晰的排序。第一是 CUDA 的安裝基數。他說,即便二十年前有人做出了一個技術上更出色的替代架構,比如 GUDA 或 TUDA,也很可能失敗。因為決定架構成敗的從來不只是技術,而是有多少開發者將自己的軟體建立在這個平台上。CUDA 今天的地位,來自 43000 名輝達員工數十年的持續投入,也來自數百萬開發者將他們的軟體棧壓注在這個平台上的信任。他還強調了輝達執行速度的重要性:任何一個開發者只要選擇了 CUDA,幾乎可以確定六個月後它會變得更好十倍;他開發的軟體能觸達幾億台裝置、覆蓋所有主要雲服務商、所有主要行業、所有主要國家;而且他能確信輝達會在可預見的未來持續維護和改進 CUDA。「把這幾點加在一起,如果我是一個開發者,我會首先選 CUDA,並且把最多的資源投入到 CUDA 上。」第二護城河是生態系統的橫向覆蓋。輝達將極其複雜的系統縱向整合,但同時向每一家公司的計算平台橫向開放接入,從Google雲、亞馬遜 AWS、微軟 Azure,到 CoreWeave、Nscale 這樣的新興算力公司,到製藥企業的超算,再到電信基站邊緣裝置、汽車、機器人、衛星。一個架構覆蓋了全球幾乎所有行業。對於輝達未來能否達到 10 兆美元市值,黃仁勳的推演從兩個根本性變化出發:計算從檢索式轉向生成式,意味著算力需求量級躍升;電腦從倉儲單元轉變為生產工廠,意味著它從成本中心變成了直接與企業營收掛鉤的利潤中心。他預計世界 GDP 增速將會加快,而計算佔 GDP 的比例將達到過去的 100 倍以上。他提到輝達的 3 兆美元收入路徑在他看來是「當然可能」的,並沒有任何物理定律約束這一數字的實現,更重要的是,輝達的增長不依賴於從現有競爭對手手中奪取份額,而是依賴於一個幾乎從零開始生長出來的全新市場。「當輝達是 100 億美元的公司時,你沒法說『如果他們從誰那裡拿到 10% 份額就能增長多少』。他們的想像力需要從零建構。但我有的是時間,每一次 GTC 都會讓這件事變得更加真實。」談及智能體時,他將 OpenClaw 比作「Token 的 iPhone」:「消費者直接能用到了。iPhone 等級的產品到了,它是有史以來增長最快的應用,一飛衝天,就這樣。」玩家對 AI 糊感的憤怒,其實是一面鏡子黃仁勳說,GeForce 至今仍是輝達最重要的品牌行銷策略:人們十幾歲時因為遊戲認識輝達,進入大學和職業生涯後自然轉向 CUDA 和專業工具。被問及史上最重要的遊戲,他給出兩個答案:從文化與行業影響力看是 Doom,它把 PC 從辦公工具變成了家庭娛樂裝置;從遊戲技術看是 Virtua Fighter。近年的代表作則是完整實現光線追蹤渲染的《賽博朋克 2077》。談及 DLSS 5 引發的玩家爭議,他理解那種對「AI 糊感」的反感,承認這是真實存在的審美問題。但他解釋,DLSS 5 的工作前提是三維幾何資料的嚴格約束,每一幀都完全忠實於藝術家定義的空間結構和紋理風格,做的是增強而非覆蓋。「玩家以為 DLSS 會在成品遊戲上做後處理,這個理解是錯的。它嵌入在創作流程裡,藝術家決定用還是不用。」系統也完全開放,工作室可以自行訓練模型、指定卡通或水彩等任意風格。他隨後作出一個更宏觀的觀察:玩家對 AI 糊感的敏感,恰恰說明人類真正在乎的是創作者留下的那些不完美的印記。「只要 AI 是輔助藝術家的工具,它就是好的。」此外他還提到輝達為遊戲開發者提供的次表面散射皮膚著色器,這項技術模擬光線穿透皮膚淺層後散射的物理現象,讓遊戲人物皮膚呈現出更接近真實的半透明質感。「這些都是工具,由藝術家決定怎麼用。我們只是提供工具箱。」AGI、程式設計的未來與人類的位置在 AGI 定義問題上,Fridman 以「能夠從零創立並營運一家市值超十億美元的科技公司」作為測試標準,黃仁勳的回答是:這個門檻,我認為 AI 現在已經達到了。他設想一個 AI 建立了某款應用,短時間內吸引數十億使用者,完成商業化後退出,這和網際網路時代那些曇花一現的爆款網站並無本質差異,而那些網站的技術複雜度遠低於 OpenClaw 今天能生成的東西。「我不知道具體會是什麼,但我在網際網路時代也沒有預測到任何那些公司。」他同時強調,100000 個智能體建立一個持續營運的輝達的機率是零,但建立一個短暫的爆款應用並從中獲利,完全可能已經在發生了。關於程式設計的未來,黃仁勳認為程式設計的定義本身需要改寫。程式設計的本質是規格說明,即告訴電腦要建構什麼。在這個定義下,能做到這件事的人數量將從 3000 萬擴展到 10 億。每一個木匠、水管工、會計師都將成為自己行業裡的創新者,因為 AI 讓他們能夠以自然語言表達意圖,並將其轉化為實際產品。「如果我是一個木匠,我看到 AI,我會非常興奮。如果我是一個水管工,我會完全瘋狂。」他用輻射科醫生的案例回應了「AI 會消滅職業」的擔憂:電腦視覺在 2019 年前後達到超人水平,曾被普遍預測輻射科醫生將消亡。結果是所有輻射科平台都整合了 AI、輻射科醫生數量不降反升,現在全球還出現了輻射科醫生短缺。原因很簡單:能更快讀片,就能讀更多片,就能服務更多病人,醫院營收增加,需要更多輻射科醫生。「那個預警走得太遠,嚇跑了很多本該進入這個行業的人,這是真實的傷害。輝達的軟體工程師數量只會增加,不會減少。他們的職業目的是解決問題,而解決問題這件事的每一個組成部分,評估結果、團隊協作、診斷問題、創新、連接不同領域,這些都不會消失。」在工作中倒下,是最好的結局被問及是否思考自己的死亡,黃仁勳的回答十分誠實。「我真的不想死。我有很好的家庭,有非常重要的工作。這不是『一生難得一次的體驗』,而是整個人類文明難得一次的體驗,我正在其中。輝達是歷史上最重要的科技公司之一,這件事我非常認真。」對於繼承人規劃,他的回應讓人出乎意料:他說他「不相信繼任規劃」,但原因恰恰是認真思考了這個問題。如果你真的關心自己離開後公司的命運,那麼你今天應該做的,是把你所學、你所理解、你所積累的全部知識、洞察和判斷,以最高頻率傳遞給周圍所有人。「每一次會議都是推理會議。我學到的任何東西,沒有在我桌上停留超過一秒鐘的,立刻就指向某個人:去研究這個,這個東西很了不起,你會想瞭解它的。我在持續地賦能周圍所有人,讓他們的能力不斷提升。」他說自己希望的結局是在工作中倒下,而且是瞬間的,沒有漫長的痛苦過程。對於人類未來 100 年的希望,他說他一生都對人性的善意保有高度信心,儘管偶爾會被辜負,但結果一次又一次證明他是對的,而且往往超出預期。 (APPSO)
黃仁勳最新訪談:我們已經實現了 AGI,領導力、心理學、生命、意識、死亡和人性
黃仁勳最新一期 Lex Fridman 播客,2.5 小時深度對話,覆蓋了從晶片設計到人類意識的幾乎所有話題。概要1. CUDA 差點毀了 NVIDIA。 當年把 CUDA 塞進 GeForce 的決定,讓公司成本暴漲 50%,市值從七八十億美元直接跌到 15 億美元。黃仁勳扛了十年才緩過來,但正是這步棋奠定了今天 CUDA 的統治地位。2. 60 個直接匯報,不搞一對一。 黃仁勳的管理團隊超過 60 人,涵蓋 GPU、CPU、光學、記憶體等各領域專家。所有問題都是群體推理,沒有一對一談話,因為 NVIDIA 本質上就是在做「極致協同設計」。3. 四層 Scaling Law。 預訓練、後訓練、測試時推理、Agentic,四層 scaling law 環環相扣。黃仁勳認為,智能的擴展最終只取決於一件事:算力。4. OpenClaw 是 token 的 iPhone。 黃仁勳多次稱 OpenClaw 為「token 的 iPhone」,認為它對 agentic 系統的意義,就像 ChatGPT 之於生成式 AI。5. 「我認為我們已經實現了 AGI。」 按照「建立一家價值 10 億美元以上公司」的標準,黃仁勳認為 AGI 已經到來。當然,讓 10 萬個 Agent 來造一個 NVIDIA,成功率是零。6. 程式設計師會變多。 程式設計的定義正在改變。從 3000 萬程式設計師變成 10 億,因為未來每個木匠、會計、農民都能用自然語言「程式設計」。7. NVIDIA 不搶份額,創造市場。 黃仁勳說 NVIDIA 的挑戰在於「沒有人可以搶份額」,幾乎所有增長都來自全新的市場。8. 與台積電三十年沒簽過合同。 黃仁勳曾被張忠謀邀請擔任台積電 CEO,他婉拒了。三十年來雙方做了數百億美元的生意,沒有一紙合同,全憑信任。9. 智能是大宗商品,人性才是超能力。 黃仁勳團隊裡 60 個人都比他聰明,但他坐在中間協調所有人。他的觀點是:別讓「智能的商品化」帶來焦慮,該被抬高的詞是「humanity」。10. 希望死在崗位上。 黃仁勳不信「接班人計畫」,他的方式是每一天都在把知識、判斷、經驗傳遞給身邊每一個人。下為訪談對話全文:CUDA 賭命Lex:CUDA 最終成了一個極其輝煌的決定。但當時做這個決定的時候,是什麼樣的?黃仁勳:那可能是我做過的最接近「存亡級威脅」的戰略決策了。CUDA 擴大了我們能加速的應用範圍,但問題來了:怎麼吸引開發者?開發者來一個平台,跟技術炫不炫酷沒關係,關鍵是裝機量大。裝機量才是定義一個架構的關鍵,其他都是次要的。沒有那個架構比 x86 挨過更多罵,但它活下來了。同時期那些漂亮的 RISC 架構,反而大多失敗了。我們當時的想法是:GeForce 已經每年賣幾百萬塊了,乾脆把 CUDA 裝進每一塊 GeForce,不管使用者用不用。同時去大學裡推,寫書,開課,培育生態。問題是,CUDA 大幅增加了 GPU 成本。我們當時毛利率只有 35%,成本一下漲了 50%,利潤全被吃掉了。公司市值從七八十億跌到了 15 億。在那個區間裡……扛了很長一段時間,靠著 GeForce 一點一點爬回來。我常說,NVIDIA 是 GeForce 蓋起來的房子。正是 GeForce 把 CUDA 送到了每一個研究者、科學家、學生手裡。Lex:那種存亡時刻,你是怎麼做出這種決定的?黃仁勳:說到底還是好奇心驅動。到了某個時刻,我的推理系統會如此清晰地告訴我「這件事一定會發生」。一旦我在腦海中堅信了,你知道的,你會去 manifest 一個未來,那個未來如此有說服力,不可能不發生。中間會有大量痛苦,但你得相信你所相信的。而我在領導上從不搞那種「年底大改革」。不搞一次性大裁員、大重組、新 logo 什麼的。我學到一樣新東西,會立刻開始跟身邊的人分享。一步一步地塑造每個人的認知體系。等到我真的宣佈「我們要 all in 深度學習」的那一天,其實所有人心裡都在想:你怎麼現在才說。極致協同設計Lex:你把 NVIDIA 推入了一個新時代,從單晶片設計到了整機櫃設計。什麼是極致協同設計(extreme co-design),最難的部分是什麼?黃仁勳:問題已經裝不進一台機器了。你加了 1 萬台電腦,但你希望它快 100 萬倍。這時候你得重構演算法、切分流水線、切分資料、切分模型。一切都會成為瓶頸。這就是 Amdahl 定律的問題:如果計算只佔總工作量的 50%,你就算把計算加速一百萬倍,總體也只快了兩倍。所以我們得把所有技術都用上,CPU、GPU、網路、交換機、電力、冷卻……否則就只能線性擴展,或者靠已經放緩的摩爾定律。Lex:你的團隊有多大?黃仁勳:我的直接匯報有 60 多人。群體推理 vs 傳統管理Lex:那怎麼溝通?黃仁勳:我不搞一對一。我們把一個問題拿出來,所有人一起攻。因為我們在做極致協同設計,公司本身也是在做極致協同設計。就算在討論冷卻方案,做網路的人、做記憶體的人、做電力的人也在旁邊聽著。誰想退出就退出,但如果有人應該參與卻沒參與,我會把他揪過來。Lex:Vera Rubin 的 Pod 是怎樣的規模?黃仁勳:7 種晶片,5 種機架,40 個機架,1.2 千兆個電晶體,將近 2 萬顆 NVIDIA Die,1100 多顆 Rubin GPU,60 exaflops,10 PB/s 的頻寬。這只是一個 Pod。我們大概每周要產出 200 個這樣的 Pod。Lex:這麼複雜,簡潔還是你追求的目標嗎?黃仁勳:我最常說的一句話是:複雜度要剛好夠用,同時儘可能簡單。四層 ScalingLex:你還相信 Scaling Law 嗎?黃仁勳:相信,而且現在有更多 scaling law 了。Lex:你列了四個:預訓練、後訓練、測試時推理、Agentic。你最擔心那個瓶頸?黃仁勳:回頭看看大家以為的瓶頸吧。預訓練階段,Ilya Sutskever 說了句「資料用完了」之類的話,行業慌了,覺得 AI 到頭了。當然這是錯的。我們會繼續擴大訓練資料量,大量資料將是合成的。很多人不理解合成資料,但其實我們教彼此用的大多數資料本來就是「合成的」,它又不是從自然界長出來的,都是人創造的。AI 現在能拿真實資料,增強它,合成生成海量新資料。所以訓練的瓶頸不再是資料,變成了算力。然後是測試時推理。我還記得當時有人說「推理嘛,簡單的,推理晶片可以做得又小又便宜,不用 NVIDIA 那種大傢伙。」這個想法一直讓我覺得不合邏輯。推理就是思考,思考比閱讀難得多。預訓練本質是記憶和泛化,就是在讀。而推理是在想,在做推理、規劃、搜尋、分解問題……怎麼可能……計算量小呢?然後是 Agentic 層。一個 Agent 可以呼叫工具、查資料庫、做研究,最重要的是,它可以生成一大批子 Agent。擴展 NVIDIA 靠招更多員工,比擴展我自己容易多了。所以下一個 scaling law 就是 Agentic Scaling,本質上就是「AI 乘以 AI」。這四層循環下來,智能的擴展最終歸結為一件事:算力。四層 AI Scaling Law 循環OpenClaw 的 iPhone 時刻Lex:從去年 12 月起,人們好像突然覺醒了,Claude Code、Codex、OpenClaw,是不是有什麼特別的事情在發生?黃仁勳:OpenClaw 對 agentic 系統的意義,就像 ChatGPT 之於生成式 AI。它之所以火,是因為普通使用者也能用到了。OpenClaw 就是 token 的 iPhone。它是歷史上增長最快的應用。直線上升。Lex:我得承認,來的路上在機場,我……公開對著筆記型電腦說話程式設計了。挺尷尬的,因為我在假裝跟一個人類同事對話。黃仁勳:未來更可能的情況是,你的 AI 一直在煩你。因為它幹活太快了,一直跟你匯報「搞定了,下一步呢?」以後跟你聊天最多的人,應該就是你的 Claw,或者說你的🦞了。Agent 的安全邊界Lex:安全問題呢?這麼強大的技術,怎麼確保使用者資料安全?黃仁勳:我們立刻派了一批安全專家過去,搞了一個叫 OpenShell 的東西,已經整合進 OpenClaw 了。我們還發佈了 NemoClaw。核心原則是這樣的:agentic 系統有三種能力,訪問敏感資訊、執行程式碼、對外通訊。我們保證任何時刻最多開放其中兩種,但絕不同時開三種。在這兩種能力之內,再加上企業級的存取控制和策略引擎。這樣既能讓 Agent 幹活,又不至於失控。從加速器到計算平台Lex:NVIDIA 是怎麼從一個 GPU 加速器公司,一步步變成計算平台公司的?黃仁勳:加速器的問題在於,應用領域太窄。市場規模決定了你的研發能力,研發能力又決定了你在計算領域能產生多大影響。所以我們得擴大射程,但又不能丟掉專業化。這兩個詞之間有天然的張力:越通用,越不專業;越專業,越不通用。我們得在中間找到一條極窄的路。第一步,我們發明了可程式設計像素著色器。這是走向可程式設計性的第一步。第二步,我們在著色器裡放了 IEEE 相容的 FP32。這一步意義重大,因為之前在 CPU 上跑科學計算的人突然發現:這個 GPU 算力巨大,而且現在符合 IEEE 標準了,我的程式碼可以遷過來。然後是在 FP32 上面放 C 語言,我們叫 Cg。Cg 一路演進到了 CUDA。每一步都是在擴大計算的「光圈」,同時保住最核心的加速能力。一步一步走了十幾年。電力與供應鏈Lex:AI 擴展最大的瓶頸是什麼?黃仁勳:電力是個問題。但也是我們拚命搞極致協同設計的原因,我們要讓每秒每瓦產出的 token 數每年提升一個數量級。過去 10 年摩爾定律讓算力提升了 100 倍,我們提升了 100 萬倍。有一件事我特別想借你的平台呼籲一下。我們的電網,是按最壞情況設計的。 但 99% 的時間都不會出現最壞情況,電網通常只跑到峰值的 60%。剩下的容量就那麼閒著。我想做的是,跟電力公司簽一種新的協議:平時用它們的閒置容量,極端天氣時資料中心自動降功耗。我們可以把工作負載轉移到別的地方,或者讓電腦跑慢一點,少用能源,服務質量降一點點而已。Lex:什麼阻礙了這件事?黃仁勳:三方的問題。終端客戶要求資料中心永遠線上。資料中心營運商的合同談判人員在簽六個九的 SLA,CEO 可能根本不知道。然後電力公司也只提供一種承諾等級。如果三方都調整一下……電網裡就有大量現成的閒置電力可以用,這才是最唾手可得的資源。Lex:供應鏈呢?ASML 的 EUV、台積電的 CoWoS 封裝、SK 海力士的 HBM,這些瓶頸讓你睡不著覺嗎?黃仁勳:我一直在處理。我飛到每一家供應商那裡,跟 CEO 們解釋我們的增長邏輯。幾年前,我說服了幾家 DRAM 公司的 CEO 投資 HBM,當時 HBM 還只用在極少數超算上,聽起來瘋狂得很。又說服他們把手機用的低功耗記憶體適配到超算上。他們都創了 45 年公司歷史的營收記錄。這也是我工作的一部分,去塑造和啟發整個上下游。Lex:你擔心嗎?黃仁勳:不擔心。Lex:為什麼?黃仁勳:因為我告訴了他們我需要什麼,他們理解了,他們告訴我他們會做什麼,我相信他們會做到。馬斯克與 ColossusLex:你怎麼看馬斯克和 xAI 在孟菲斯用 4 個月建成 Colossus 超算這件事?黃仁勳:馬斯克在很多領域都有很深的涉獵,同時他又是一個出色的系統思考者。他質疑一切:第一,這件事有必要嗎?第二,必須這樣做嗎?第三,必須花這麼長時間嗎?他把一切壓縮到不能再少的最低必要量,同時保留了產品所需的全部能力。極度的極簡主義,系統等級的極簡。而且他會親自到現場。有問題,他就去了。「讓我看看問題在那。」當你親自展示出那種緊迫感,所有人都會跟著緊迫起來。Lex:我見過他那些會議。他會跟工程師一起蹲在地上,研究怎麼把線纜插進機架……黃仁勳:對。在 NVIDIA 我們有一個類似的方法論,叫「光速」。這不只是關於速度,它是我對「物理極限在那」的簡稱。每件事我們都要拿來跟光速對比。記憶體速度、算力、功耗、成本、時間、人力、製造周期。先搞清楚物理極限,再去做工程。我不喜歡「持續改進」的思路。別跟我說「現在要 74 天,我們能縮到 72 天」。我寧願從零開始問:「憑第一性原理,最快幾天能搞定?」答案可能是 6 天。剩下的 68 天可能都有道理,是各種妥協和成本最佳化。但至少你知道差距在那。知道了 6 天是可能的,從 74 到 6 的對話就會有效得多。中國是建設者國度Lex:你最近去了中國。中國過去十年是怎麼建立起這麼多世界級科技公司的?黃仁勳:全球大約一半的 AI 研究者是華人,大部分仍在中國。他們的科技行業恰好趕上了移動雲時代,他們的貢獻方式是軟體。這個國家的孩子數學和科學教育極好,對現代軟體相當熟悉。中國不是一個單一經濟體。各省各市的市長們互相競爭,所以才有這麼多電動車公司、這麼多 AI 公司。競爭極其激烈,活下來的都了不起。另外,他們的社會文化是家人第一、朋友第二、公司第三。工程師們的兄弟在那家公司、同學在這家公司,知識傳播極快。他們本質上一直是 open source 的。所以他們對開源社區貢獻大,完全合理,因為他們心想:「我們有什麼好藏的?」這是當今世界創新最快的國家。Lex:而且在中國,做工程師是件挺酷的事。黃仁勳:他們是一個建設者國度。我們國家的領導人都相當出色,但大多是律師。他們的國家是從貧困中建設起來的,所以領導人大多是傑出的工程師。開源與 NemotronLex:NVIDIA 發佈了開放原始碼的 Nemotron 3 Super,120 億參數的 MoE 模型。你對開放原始碼的願景是什麼?黃仁勳:要做好 AI 計算公司,我們必須理解 AI 模型是怎麼演進的。Nemotron 3 有個特別的地方:它不只是純 Transformer,還融合了 SSM(狀態空間模型)。我們很早就在做條件 GAN、漸進式 GAN,一步步走到了擴散模型。在模型架構上做基礎研究,能讓我們看清未來的計算系統該怎麼設計。這也是極致協同設計的一部分。開源有三個層面的原因。第一,我們確實需要世界級的模型作為產品,這些應該是專有的。但同時,我們也希望 AI 擴散到每一個行業、每一個國家、每一個研究者和學生手裡。如果一切都是閉源的,研究和創新就很難在上面展開了。第二,NVIDIA 有規模、有技能、也有動力去持續做這件事。我們能啟動每一個行業加入 AI 革命。第三,AI 遠不只是語言。這些 AI 會使用工具、呼叫子模型,而那些子模型可能是訓練在生物學、化學、物理學、流體力學上的。我們不造車,但我們要確保每家車企都能用上最好的模型。我們不做藥物發現,但我想確保禮來(Eli Lilly)能擁有世界最好的生物 AI 系統。Lex:而且你們是真正的開源,權重、資料、方法全部公開。黃仁勳:對,模型開源,權重開源,資料開源,連怎麼做的都開源了。這一點確實應該被更多人知道。台積電:信任Lex:你跟台積電的關係是什麼樣的?黃仁勳:對台積電最大的誤解是:覺得他們只有技術。好像有人做出了一個一樣好的電晶體,台積電就完了。他們真正了不起的地方,是那套製造管理系統。協調全球幾百家公司動態變化的需求,晶圓啟動、停止、緊急追加,客戶在變、產能在變,整個世界在不斷變化,而他們始終保持高吞吐、高良率、低成本、交付準時。然後是文化。他們同時做到了兩件通常矛盾的事:頂尖的技術前沿和頂尖的客戶服務。最後是信任。三十年,幾百億美元的生意,沒有合同。 這份信任了不起。Lex:2013 年張忠謀邀請你去當台積電 CEO?黃仁勳:是真的。我深感榮幸。張忠謀是我見過的最受尊敬的高管之一,也是我的好朋友。但 NVIDIA 的工作太重要了,我在心中已經看到了 NVIDIA 會變成什麼樣。這是我的責任,唯獨我的責任。所以我婉拒了。不是因為那個機會不夠好。那是一個不可思議的機會。但我沒辦法接受。NVIDIA 的護城河Lex:NVIDIA 最大的護城河是什麼?黃仁勳:CUDA 的裝機量。這是我們最重要的資產。CUDA 不是三個人做成功的,是 43000 人做成功的,加上幾百萬信任我們的開發者。他們把自己的軟體棧建在了 CUDA 上。從開發者的角度想:如果我支援 CUDA,明天它就會快 10 倍,平均只要等半年。而且我的程式碼能跑在幾億台裝置上,每個雲、每個行業、每個國家。我 100% 信任 NVIDIA 會一直維護和改進 CUDA。你把這些加在一起,如果我是開發者,我會 CUDA first。太空裡的 GPULex:你怎麼看在太空建資料中心這個想法?黃仁勳:NVIDIA 的 GPU 其實已經在太空了。我當時知道的時候還挺意外的,本來想高調宣佈一下,給 GPU 穿個小宇航服什麼的。那些衛星上有高解析度成像系統,在持續掃描地球,要做到釐米級的即時遙感。這些資料量是 PB 等級的,沒法全傳回地球。所以 AI 必須在邊緣端就地處理,把不需要的、沒變化的全扔掉,只留關鍵資訊。如果放在極地軌道,24 小時都有太陽能。但太空裡沒有傳導、沒有對流,散熱只能靠輻射。好在太空足夠大,搞幾個巨大的散熱板就行了。Lex:這個想法離落地有多遠?5 年?10 年?黃仁勳:我比較務實。我先去抓眼前最大的機會,同時派工程師去研究太空的問題:怎麼應對輻射?怎麼處理性能退化?怎麼做冗餘和容錯?怎麼讓電腦在太空裡不會壞,只是變慢?但眼下我最想做的事,還是把電網裡那些閒置的電力先用起來。那才是最唾手可得的。Token 工廠Lex:NVIDIA 可能價值 10 兆美元嗎?黃仁勳:讓我解釋一下為什麼 NVIDIA 的增長幾乎是必然的。計算經歷了一次本質變化。過去的電腦本質是一個「倉庫」,我們預先錄製內容,存成檔案,然後用檢索系統找出來。現在 AI 電腦是「工廠」,它即時理解上下文,即時生成 token。倉庫 vs 工廠:計算範式轉變倉庫不怎麼賺錢,工廠的產出直接跟收入掛鉤。而且這個工廠生產的商品,token,正在分層,就像 iPhone 一樣:有免費的 token、有中檔 token、有高級 token。有人願意為每百萬 token 付 1000 美元,這不是「會不會」的問題,只是「什麼時候」的問題。NVIDIA 面臨的挑戰在於想像力。我沒有人可以搶份額。幾乎我們說的所有增長都來自一個尚不存在的市場。外界確實不太容易想像。但我有的是時間,我會持續推理、持續講述,每一次 GTC 都會讓它變得更加真實。遊戲與 DLSS 5Lex:DLSS 5 引起了一些爭議。玩家們擔心遊戲會變成 AI slop(AI 氾濫內容)。你怎麼看?黃仁勳:說實話,我也不喜歡 AI slop。AI 生成的內容越來越多,看起來越來越像,都挺漂亮,但缺少個性。我理解玩家的感受。但 DLSS 5 做的事情不一樣。它是 3D 引導的、地面真實資料約束的。藝術家決定了幾何形狀,我們百分百忠於每一幀的幾何結構。它受紋理約束,受藝術家意圖約束。增強,但不改變。而且因為系統是開放的,你可以訓練自己的模型,未來甚至可以用 prompt 來控制風格:「我要卡通渲染風格」,「我要這種畫風」。所有這些都是為藝術家提供的工具,他們可以選擇用或者不用。玩家們可能以為我們是在遊戲出廠後強行做後處理。但實際上 DLSS 是跟藝術家整合的,是給創作者的 AI 工具。Lex:你覺得史上最偉大的遊戲是那個?黃仁勳:Doom。從文化影響力和行業意義來說,Doom 把 PC 從一個辦公自動化工具變成了一個遊戲裝置,這個轉變的意義太大了。從遊戲技術的角度,我會說 Virtua Fighter。Lex:我個人特別喜歡《上古捲軸:天際》,雖然是很久以前的遊戲了,但一直有人出 Mod……黃仁勳:我們做了 RTX Mod,這是一個 modding 工具,能讓社區把最新的渲染技術注入到老遊戲裡。而且別忘了,GeForce 到今天仍然是我們排名第一的行銷手段。人們在十幾歲的時候就通過玩遊戲認識了 NVIDIA。後來上了大學,開始用 CUDA,再後來用 Blender、用 Autodesk。AGI 已來?Lex:用一個定義來問:一個 AI 系統,能夠建立、發展並營運一家價值超過 10 億美元的科技公司。離這個 AGI 有多遠?黃仁勳:我認為已經實現了。Lex:什麼?黃仁勳:你說的是 10 億美元,而且沒說要永遠經營下去。完全有可能一個 Claude 建立了一個 Web 服務,某個小應用,幾十億人用了一下,每人 50 美分,然後很快就倒閉了。網際網路時代那些爆款網站,大多數都沒有比今天 OpenClaw 能生成的東西更複雜。Lex:你這話會讓很多人激動的。黃仁勳:你去中國看看,已經有一大幫人在教自己的 Claude 去找工作、做活、賺錢了。我不意外某個數字網紅、某個 Tamagotchi 養成類應用突然爆火幾個月然後消失。但讓 10 萬個 Agent 來造一個 NVIDIA……成功率是零。程式設計師會更多Lex:你覺得程式設計師數量會增加還是減少?黃仁勳:會增加。程式設計的定義變了。今天的程式設計就是寫規格說明。多少人能做到「告訴電腦去造什麼」?我覺得我們剛從 3000 萬擴大到了 10 億。未來每一個木匠都是程式設計師。而一個有 AI 的木匠,同時也是建築師。 他能給客戶提供的價值翻了幾倍。每個會計同時也是財務分析師和理財顧問。所有職業都被拉高了。Lex:放射科醫生的例子呢?黃仁勳:AI 研究者最早說會消失的職業就是放射科醫生。電腦視覺確實在 2019、2020 年就超越了人類。但放射科醫生數量反而增加了,現在全球還短缺。因為你搞清楚了,放射科醫生的「目的」是診斷疾病、幫助病人,而不是「看片子」這個任務本身。AI 讓看片子變快了,所以能看更多片子,診斷更多病人,醫院賺更多錢,需要更多放射科醫生。你的工作的目的和你用來做這份工作的工具,是相關的,但不是同一件事。NVIDIA 的軟體工程師也一樣。我要他們解決問題,不在乎他們寫了多少行程式碼。別怕,就去用Lex:很多人對自己的工作有焦慮。黃仁勳:我對焦慮的處理方式,剛才其實已經講過了:分解問題,想清楚那些能做,做了就不焦慮了。如果今天要招一個新畢業生,兩個人選,一個不懂 AI,一個精通 AI,我選後者。木匠、電工、農民、藥劑師,都應該去用 AI,看看它能怎麼提升你的工作。Lex:而且你可以直接問 AI:「我不知道怎麼用 AI。」黃仁勳:對,這就是 AI 最厲害的地方。你沒法走到 Excel 面前說「我不會用 Excel」。你完了。但 AI 會說:「好的,讓我來教你。」領導力與痛苦Lex:你說過你的成功來自比任何人都能吃苦。你怎麼應對這麼大的壓力?黃仁勳:我完全意識到 NVIDIA 的成功對美國的重要性。我們貢獻了大量稅收,建立了技術領先地位,這關乎國家安全的方方面面。我也知道有很多普通投資者,老師、警察,因為買了 NVIDIA 的股票成了百萬富翁。我的應對方式就是分解。發生了什麼?變了什麼?什麼難?我能做什麼?把大問題拆成小塊,然後一個一個解決,或者分配給能解決的人。凡是讓我擔心的事,我都會告訴一個能做點什麼的人。 說出來了,負擔就分攤了。然後就是遺忘。你得學會忘記。不能什麼都記著、什麼都扛著。分解問題、分享負擔、然後忘掉它。這跟頂級運動員一樣。上一分已經過去了,只關心下一分。Lex:你說過如果提前知道有多難就不會創辦 NVIDIA,但……黃仁勳:所有值得做的事情應該都是這樣。有一種超能力叫「孩子心態」。我面對幾乎所有事情的第一反應是:能有多難?沒有人做過,規模巨大,要花幾千億美元。你就這麼想:「能有多難呢?」你不要提前模擬所有的挫折和羞辱。你應該帶著「一切都會順順利利」的心態走進新體驗。等挫折真的來了,它們會讓你意外,但你得有韌性,得能忘掉,得繼續走。只要我對未來的假設沒變,我對輸出的判斷就不會變。那就繼續走。智能與人性Lex:你覺得人類意識中有什麼是晶片永遠無法複製的嗎?黃仁勳:我不確定晶片會不會緊張。AI 可以識別和理解情緒,但我的晶片不會「感受」到那些東西。而那些感受,焦慮、興奮、恐懼,深刻地影響著人的表現。兩個拿到完全相同資訊的人,可能產生截然不同的結果,並非某個演算法不同,純粹是因為「感覺不同」。Lex:那你怎麼看智能這個詞?黃仁勳:智能這個詞被抬得太高了。我身邊 60 個人,每一個在各自領域都比我聰明,他們學歷更高、學校更好、研究更深。但我坐在他們中間,協調所有人。你得問自己:一個洗碗工……憑什麼坐在一群超人類專家的中間?智能是功能性的東西。人性不是。人性是一個大得多的詞。我們的社會把太多東西塞進了「智能」這一個詞裡。但人的一生遠不止一個詞。我的經歷表明,在智能曲線上比身邊所有人都低,並不妨礙你成為最成功的那個。別讓智能的民主化、商品化給你帶來焦慮。你應該受到鼓舞。死在崗位上Lex:你想過自己的死亡嗎?黃仁勳:我真的不想死。我有很好的家庭,很好的生活,還有極其重要的工作。這不是「一生一次」的經歷,因為那暗示很多人都經歷過。這是「人類歷史一次」的經歷。我不相信接班人計畫。這並非因為我覺得自己不朽。如果你真擔心接班,那你現在該做什麼?答案是:每時每刻都在傳遞知識。任何學到的東西,在我桌上停留不超過一秒。我還沒完全消化完,就已經在指給別人看了。我希望的結局是,死在崗位上,最好是瞬間的,沒有漫長的痛苦。Lex:什麼給你希望?黃仁勳:我一直對人類的善良、慷慨和同理心有極大的信心。有時候比應有的還多,偶爾被佔便宜,但這從沒改變過我。期待疾病的終結,是合理的。期待污染大幅減少,是合理的。期待以光速旅行,也是合理的。不是遠距離,是短距離。怎麼實現?我很快就會把一個人形機器人送上太空飛船。它會在飛行途中不斷改進。等時機到了,我的意識,我的收件箱裡的一切,我說過的一切,我做過的一切,都已經上傳到網上了。到時候以光速發過去,追上我的機器人。Lex:這真精彩。理解生物機器,你覺得還要多久?黃仁勳:就在眼前了。大概五年。Lex:然後是人類大腦,理論物理……黃仁勳:解釋意識。那個就太酷了。 (AGI Hunt)
1100億美元史詩級融資!OpenAI估值狂飆7300億,對賭AGI就在今年
奧特曼笑瘋了!今天,OpenAI狂攬1100億美金融資,估值飆至7300億美元。亞馬遜、輝達、軟銀三巨頭排隊送錢,對賭AGI的成敗就在今年。一夜狂攬千億美金!就在今天,奧特曼官宣:OpenAI從輝達、軟銀和亞馬遜手中,拿下了1100億美元融資。與此同時,OpenAI估值再創神話,直飆7300億美元。此次融資三大巨頭領銜:亞馬遜狂砸500億美元,成為最大的金主,輝達與軟銀各出資300億美元。Epoch AI稱,OpenAI這一輪融資規模驚人,幾乎是此前融資總額的三倍。這一刻標誌著,OpenAI完成了史上最大單筆融資,對賭AGI的成敗,就在今年了。一夜捲走千億 OpenAI創史上最大融資紀錄在官博中,OpenAI直言,「AGI正從實驗室研究,邁向全球規模的日常應用」。未來誰將成為「領頭羊」,取決於誰能以最快速度擴展基礎設施,並將算力轉化成實際的產品。為此,OpenAI與亞馬遜、輝達、軟銀達成了深度合作關係。預計到2028年,OpenAI燒錢「規模」將達到1570億美元,融資的1100億再加上手頭的400億美金現金,剛好覆蓋這一預期的缺口。值得一提的是,這筆交易還在開放狀態,預計後續還有更多投資者入場。那麼,這筆巨額合作,將為OpenAI,以及金主爸爸帶來了什麼?三巨頭排隊送錢與亞馬遜的合作中,OpenAI將開發全新的「有狀態執行階段環境」,讓模型直接運行在Amazon Bedrock平台上 。除了給錢,他們達成了深度戰略合作:雙方將共同開發定製化模型,用於各項客戶端應用。同時,OpenAI 將此前與AWS的380億美元協議,擴大到1000億美元,租期長達八年。這意味著,AWS將成為OpenAI企業級平台「Frontier」的獨家第三方雲分發商。亞馬遜CEO Andy Jassy表示,這種獨特的協作模式,將徹底改變開發者建構AI智能體的方式。對於輝達,OpenAI將使用3GW推理容量,以及2GW Vera Rubin系統訓練的容量。這是建立在已經在微軟、OCI和CoreWeave投入運行的Hopper和Blackwell系統之上的。在接受採訪時,奧特曼興奮地表示,AI正重塑全球經濟,世界需要龐大的集體算力來支撐這一變革。當然,OpenAI的老盟友微軟也沒有被冷落。雙方發佈聯合聲明稱合作夥伴關係依然「穩固且核心」,且微軟仍保留了參與本輪融資的期權。矽谷AI進入「核競速」如此瘋狂籌錢的背後,是OpenAI對算力近乎貪婪的渴求。為了支撐到2030年6000億美元的計算支出,OpenAI正進一步鎖死輝達的產能。如前所述,他們將分別使用3GW推理和2GW訓練容量,全部跑在最新的Vera Rubin系統上。與此同時,OpenAI正在為一場史詩級IPO鋪路,其估值目標直指1兆美元大關。在剛剛過去的2025年,OpenAI交出了一份亮眼的成績單:全年營收達到130億美元,遠超此前100億美元的預期;在支出方面,80億美元的實際開銷,也低於90億美元的預算目標。這種「超額增收、預算節流」的狀態,無疑為其激進的擴張增添了底氣。不僅如此,自今年年初以來,ChatGPT周活躍使用者超過9億,訂閱人數超5000萬,付費企業使用者超900萬。此外,Codex的周活躍使用者增長了2倍多,達160萬。OpenAI副總官宣:ChatGPT每周使用者破9億OpenAI預測2030年營收將突破2800億美元,但實際上,眼下的日子並不太平。在C端,GoogleGemini步步緊逼,將最強AI強行塞進每一個人的口袋。最新一代旗艦Gemini 3.1 Pro,在多項基準測試中力壓GPT-5.2,甚至是最新程式碼模型GPT-5.3-Codex。在B端,Anthropic已經搶佔了先機。在企業級市場中,Claude憑藉更強的程式設計能力,正在攻入各行各業,以及滲透到開發者群體中。如今,這場由亞馬遜、輝達、軟銀堆砌起來的「AI曼哈頓計畫」,正在為OpenAI通往AGI的終極入口不斷輸血。這場豪賭的終局,今年即見分曉。 (新智元)