#DeepSeek
黃仁勳深夜炸場!最擔心的事發生了:DeepSeek 在華為首發,美國會輸掉整個 AI 戰爭
2026 年 4 月 16 日,一條消息引爆了全球科技圈。輝達創始人兼 CEO 黃仁勳,在一場近兩小時的深度訪談中,說出了一句讓所有美國人脊背發涼的話:"放棄中國市場,美國將輸掉 AI 技術堆疊的競爭。"他甚至用了一個極其嚴厲的詞來形容最壞的情況:"可怕的結果"什麼是可怕的結果?就是DeepSeek 首先在華為晶片上發佈。這不是商人的利益抱怨,也不是政客的危言聳聽。這是一個用 20 年時間,一手打造了全球 AI 工業基石的人,看透了 AI 戰爭的底層邏輯後,發出的最絕望警告。而美國正在做的,恰恰是親手把這個 "可怕的結果" 變成現實。別再自欺欺人了中國已經擁有 AI 自主發展的全部底牌很多人還活在可笑的幻想裡:只要卡住最先進的 3nm、2nm 晶片,中國 AI 就永遠追不上。但黃仁勳用鐵一般的事實,戳破了這個自欺欺人的謊言。中國不僅能發展 AI,而且已經集齊了 AI 自主發展所需的全部王炸。✅ 人才王炸:中國擁有全球一半的 AI 大腦黃仁勳親口證實:中國擁有全球 50% 的 AI 研究人員。這是什麼概念?全世界每兩個頂尖 AI 科學家,就有一個是中國人。更可怕的是,中國還是世界上開放原始碼軟體和開放模型的最大貢獻者。AI 的進步,從來不是靠晶片堆出來的。摩爾定律每年只能擠牙膏式地帶來 25% 的性能提升,但一個天才的演算法,能帶來 10 倍甚至 100 倍的飛躍。中國這 50% 的 AI 人才,就是最可怕的核武器。✅ 算力王炸:華為已經出貨數百萬顆 AI 晶片"華為剛剛度過了公司歷史上最好的一年。"黃仁勳透露,華為已經出貨數百萬顆 AI 晶片,數量比 Anthropic 擁有的全部算力還要多得多。中國還有充足的邏輯晶片和 HBM2 記憶體,以及無數已經建好、通了電卻閒置著的資料中心。而最被所有人低估的,是中國的能源王炸。黃仁勳提出了一個顛覆所有人認知的觀點:AI 是一個平行計算問題,充足的能源可以完全抹平製程的差距。7nm 晶片確實不如 3nm,但如果用兩倍、三倍的數量堆疊呢?如果能源幾乎是免費的,誰還會在乎每瓦性能?別忘了,今天 99% 的主流 AI 模型,都是在相當於 7nm 工藝的 Hopper 架構上訓練的。7nm,完全夠用。✅ 製造王炸:中國壟斷了全球主流晶片產能中國製造了全球 60% 以上的主流晶片,擁有世界上最大的半導體產能。沒有 EUV 光刻機又怎樣?成熟製程的產能,中國有的是。絕大多數 AI 應用,根本不需要最先進的 3nm 晶片。用 7nm、14nm 的成熟晶片,完全可以滿足 90% 以上的市場需求。黃仁勳真正的恐懼不是中國能造晶片,而是中國會建立自己的生態很多人不明白,黃仁勳為什麼拼了命地反對封鎖中國。難道他不怕中國用輝達的晶片,訓練出比美國更強大的 AI 嗎?他怕,但他更怕另一件事:中國會建立一個完全獨立於美國的 AI 技術堆疊。黃仁勳說,AI 是一個五層的技術蛋糕:能源、晶片、框架、模型、應用。輝達的護城河,從來不是 GPU 本身,而是它在所有五層都建立的龐大生態。全球數億個 GPU 的安裝基礎、覆蓋所有雲平台的 CUDA、支援無數框架的軟體棧……這才是輝達真正不可戰勝的地方。但美國的出口管制,正在親手摧毀這個優勢。你不賣給中國晶片,中國就只能自己造。你不讓中國用 CUDA,中國就只能自己開發框架。你把中國排除在美國生態之外,中國就只能建立自己的生態。這不是預言,這已經在發生了。黃仁勳警告說,這將重蹈美國電信行業的覆轍。當年美國把華為排除在全球市場之外,結果呢?中國建立了自己的 5G 標準,現在反過來主導了全球電信市場。"DeepSeek 首先在華為上發佈的那一天,對我們國家來說是一個可怕的結果。"這句話,才是黃仁勳真正的恐懼。如果未來全球最好的 AI 模型,都是在華為的晶片上開發的,都是針對中國的技術堆疊最佳化的。那麼全球南方國家、中東、非洲…… 所有買不起輝達晶片的國家,都會自然而然地採用中國的標準。到那時,美國技術堆疊的全球主導地位,將徹底崩塌。輝達的護城河本質上是開發者的護城河黃仁勳反覆說:輝達的成功,靠的不是晶片,而是 CUDA。而 CUDA 的核心,是全球數百萬的開發者。"50% 的 AI 開發者在中國,美國不應該放棄這一點。"這句話,點破了所有問題的本質。計算生態的粘性,比你想像的要強得多。x86 統治了桌面市場 40 年,Arm 統治了移動市場 20 年。一旦開發者習慣了某個技術堆疊,就幾乎不可能切換。如果美國繼續封鎖中國,那麼這 50% 的 AI 開發者,將不得不轉向華為等本土廠商的技術堆疊。隨著時間的推移,中國的技術堆疊會越來越完善,生態會越來越豐富。最終,世界上會出現兩個平行的 AI 宇宙:一個美國的,一個中國的。而中國的那個,會因為擁有更多的開發者、更大的市場、更充足的能源,最終超越美國。黃仁勳毫不客氣地批評了那種 "失敗者的心態":"那種認為只要封鎖中國,美國就能永遠領先的想法,對我來說毫無意義。"他說,輝達有信心在公平的競爭中戰勝任何人。但如果美國政府主動放棄中國市場,那麼輝達將失去最大的開發者群體,最終輸掉整個生態戰爭。AI 不是濃縮鈾封鎖只會讓中國變得更強大針對有人把 AI 算力比作濃縮鈾的荒謬觀點,黃仁勳進行了嚴厲的駁斥:"這是一個糟糕的、不合邏輯的類比。"AI 是一種通用技術,就像電力、就像網際網路、就像微處理器。它可以用來做好事,也可以用來做壞事,但你不能因此就禁止它的傳播。更何況,封鎖根本沒用。中國已經擁有了足夠的算力,來訓練像 Claude Mythos 這樣的模型。你不賣給他們晶片,他們只會自己造更多。封鎖只會讓中國更加堅定地走自主創新的道路。黃仁勳預測,中國不會永遠停留在 7nm。他們會不斷進步,最終趕上甚至超越美國。"我們不應該放棄中國市場,如果我們輸了,那就輸了,但我們為什麼要主動放棄?"這句話,值得所有美國人深思。AI 戰爭的勝負,從來不是看誰能封鎖誰。而是看誰能吸引更多的開發者,誰能建立更開放的生態,誰能更好地服務全球市場。美國當前的政策,正在親手把最大的市場、最多的開發者和最有活力的創新力量,推到自己的對立面。如果不及時糾正,黃仁勳的警告終將變成現實:美國將輸掉整個 AI 技術堆疊的競爭。而這一天,可能比所有人想像的都要來得更早。互動話題:你覺得黃仁勳的警告會成真嗎?3 年內中國 AI 技術堆疊能實現完全自主嗎?歡迎在評論區留下你的觀點!覺得文章說得有道理,就點個贊和在看,轉發給更多朋友看看這場決定未來的 AI 戰爭! (智能海嘯)
DeepSeek首次融資,AGI理想向資本低頭?
DeepSeek的轉折,從來不是梁文鋒一個人的“理想妥協”,而是整個中國AI行業的縮影。在AI這場殘酷的長期競賽中,技術理想主義需要商業現實的支撐,獨立自主需要開放合作的補充,前沿探索需要生態建設的協同。據《The Information》援引知情人士報導,長期以“不融資”聞名的AI明星公司DeepSeek,正在與投資者洽談,計畫以至少100億美元的估值籌集不少於3億美元資金。這是這家由中國量化巨頭幻方量化孵化的公司成立以來首次啟動對外融資,標誌著其長達數年的“自我供血”模式將畫上句號,也標誌著DeepSeek從技術“理想主義”走向“現實主義”。回顧DeepSeek的發展軌跡,這種轉變顯得尤為意味深長。在過去兩年中,當整個中國AI行業都在瘋狂融資、擴張、講生態故事時,DeepSeek反而在做一種刻意的收縮——不對外發聲,不頻繁發產品,不參與大廠敘事,甚至對資本保持距離。創始人梁文鋒從公司成立第一天就劃了一條清晰的紅線:不接受外部融資,不稀釋股權,不被任何人的商業化時間表綁架。他想打造的更像一個純粹的研究機構,追逐AGI(通用人工智慧)、堅持開源、讓技術本身說話。理想主義者的現實主義轉身要理解DeepSeek為何在此時融資,首先得回顧它為何長期拒絕融資。DeepSeek由量化避險基金幻方量化的創始人梁文鋒於2023年創立。在此之前,幻方用多年的量化交易利潤為DeepSeek提供了持續的資金“輸血”。公司股權結構極為集中,梁文鋒直接和間接持有84.29%的股份,並擁有幾乎100%的表決權。這種“不差錢”的底氣,讓梁文鋒得以堅守一種近乎理想主義的發展哲學:拒絕資本的短視干擾,專注打磨基礎模型,追求實現AGI的技術上限。聯想創投高級合夥人宋春雨曾透露,自己早在2024年2月就與梁文鋒深入交流,但對方明確表示不融資。“梁文鋒對商業化不感興趣,他專注打磨基礎模型,確保每一代模型都保持領先。”另有報導稱,梁文鋒曾拒絕來自騰訊和阿里巴巴等科技巨頭的合作機會,擔心外部投資者會干預公司決策。這一定位讓DeepSeek在早期創業公司中顯得格外另類。當其他大模型創業公司在2023-2024年瘋狂融資、高調亮相時,DeepSeek像一個隱士般潛心研發,直至V3和R1的橫空出世才讓世界注意到它的存在。然而,這種“不缺錢”的自信在2026年初出現了明顯裂縫。最直接的訊號來自人才流失。2025年底至2026年初,DeepSeek多名核心研發骨幹相繼出走:V3架構關鍵開發者羅福莉轉投小米接手MiMo大模型團隊;第一代大語言模型核心作者王炳宣去了騰訊;多模態方向核心研究員阮翀加入元戎啟行;OCR系列核心作者魏浩然也在今年春節前後離開。更致命的是期權問題。DeepSeek從未融資,沒有市場化的估值錨點。公司給核心成員的股權承諾,拿到手裡無法換算成真金白銀。大廠的期權有行權價、有內部回購機制、有IPO預期。外界只知道DeepSeek很值錢,但到底值多少,沒有人能說清,員工更不知道。而這些原因似乎也預示著DeepSeek的融資只是遲早的事。多重壓力下的必然選擇DeepSeek的融資轉折並非單一因素驅動,而是多重壓力交織下的必然結果。這些壓力來自技術迭代、算力需求、市場競爭和戰略節奏等多個維度,共同構成了梁文鋒不得不面對的現實困境。技術迭代的沉重包袱是首要壓力。下一代旗艦模型V4的發佈一再推遲,原本定在春節前後發佈,推到2月,再推到3月,目前的口徑是4月下旬。從公開資訊來看,延期背後至少有三層原因交織:技術路線本身發生質變、身份包袱壓力、國產晶片深度適配的挑戰。V4要做的已經不再是一個刷benchmark的基礎模型,而是兆參數MoE架構、原生多模態、百萬token上下文、全新的Engram條件記憶機制的系統級工程,訓練驗證複雜度陡然上了一個台階。更深層的壓力來自身份包袱。DeepSeek立身靠的是“十分之一成本做到頂級”這個故事。V4如果只是性能微增卻推高了推理成本,支撐估值和聲譽的故事就會出現裂痕。某種程度上,一個不夠驚豔的V4,反而不如不發。此外,國產晶片的深度適配成為獨立巨型工程。多方信源在4月初披露,V4將全面運行在華為昇騰950PR晶片上,有望成為首個完全跑在國產算力上的旗艦大模型。戰略價值極高,但這本身直接吃掉了大量研髮帶寬。到2026年4月,DeepSeek已有15個月沒有大版本更新。而這期間,OpenAI迭代四五輪,Anthropic連推Claude 4.5/4.6/4.7,國內同行如智譜、月之暗面、字節也在應用層狂飆突進。所有人都在加速,只有DeepSeek靜悄悄。梁文鋒本人也曾坦言國產AI模型訓練效率的差距:“我們估計,國內最好的水平和國外最好的相比,模型結構和訓練動力學上可能有一倍的差距,光這一點我們要消耗兩倍的算力才能達到同樣效果。另外資料效率上可能也有一倍差距,也就是我們要消耗兩倍的訓練資料和算力,才能達到同樣的效果。合起來就要多消耗4倍算力。”這種客觀存在的技術差距,使得DeepSeek在追求技術領先的同時,必須面對更高的算力成本。值得注意的是,在R1爆紅後,DeepSeek的使用者量和並行請求量呈指數級增長,對算力基礎設施的需求急劇攀升。2026年初,DeepSeek甚至經歷了一場大規模服務中斷,網頁端與App全面卡頓,“DeepSeek崩了”相關話題迅速沖上多個平台熱搜。與此同時,巨頭們正在以“千億級”規模加碼算力基建。阿里巴巴宣佈未來三年投入3800億元建設雲和AI硬體基礎設施;字節跳動2025年資本開支計畫高達1500億元,同比大增88%。相比之下,靠母公司幻方量化的資金支撐已明顯力不從心。此外,前文提到的核心團隊頻頻被大廠高薪挖走,也造成了DeepSeek不得不獲取更多的錢,來留住現有的團隊,保持技術競爭力,畢竟在這個AI人才稀缺的當下,大廠對AI人才的需求與現有的人才供應差距很大。如果沒有足夠有吸引力的“未來”(包括薪資、股權等),是留不住人才的,這點從過去兩年AI人才市場的流動趨勢已經可以看出。融資後的DeepSeek“路在何方”?若DeepSeek成功獲得外部融資,這筆資金將為其在技術研發、市場拓展和商業變現等多個關鍵領域注入強大動力,進而對整個AI行業格局產生深遠影響。然而,融資只是開始,DeepSeek面臨的挑戰依然嚴峻。技術研發的深度與廣度拓展將是融資後的首要方向。DeepSeek有望利用融資資金進一步加大對人工智慧技術的研發投入。一方面,公司可能會持續最佳化現有模型,不斷提升其性能和智能化水平。另一方面,DeepSeek可能會加大對前沿技術的研究探索,如具身智能、AI Agent生態等領域。這個過程中,其V4模型發佈後,業界的反響將成為關鍵考驗。據報導,DeepSeek V4大模型將徹底重構技術架構,核心引入mHC(多路殘差混合連接)與Engram(AI記憶模組)兩項黑科技,聚焦程式碼生成、推理效率與邊緣部署三大能力,技術路徑從“堆參數”轉向“雙軸稀疏+記憶-計算分離”。市場預計,DeepSeek新模型訓練成本再降50%,若實現完全開源或將推動行業API價格減少60%。這將是DeepSeek證明自己依然保持技術領先優勢的重要機會。市場拓展的全球化佈局是第二戰略重點。憑藉充足的資金,DeepSeek將有能力在全球範圍內積極拓展市場,提升品牌知名度和市場份額。在國內市場,DeepSeek可能會進一步加強與各行業企業的合作,深入挖掘行業需求,為金融、醫療、教育、製造業等領域提供更加定製化的人工智慧解決方案。實際上,DeepSeek已經在多個行業展現出應用潛力:廣汽集團將自主研發的ADiGO SENSE端雲一體大模型與DeepSeek-R1完成深度融合;重慶農商行企業微信上線基於DeepSeek模型的智能助手進行風險評估和欺詐監測;智雲健康將DeepSeek-R1模型接入自研醫療人工智慧系統“智雲大腦”;網易有道借助DeepSeek-R1最佳化個性化答疑功能;中控技術實現了工業APP的智能建構。在國際市場,DeepSeek可能會借鑑國際科技巨頭的市場拓展經驗,採取本地化策略,根據不同國家和地區的市場特點和使用者需求,推出針對性的產品和服務。當然,這個過程中還需要面對地緣政治的考驗。此外,融資後,公司將有更多資源用於探索多元化的商業變現模式,實現技術價值的最大化。除了現有的API呼叫收費、私有化部署等商業模式外,DeepSeek可能會加強技術授權業務,將其先進的人工智慧技術授權給其他企業使用。然而,商業化轉型並非易事。梁文鋒曾明確表示擔憂外部干預可能讓DeepSeek變成“另一個商業機器”,而非技術革新的先鋒。高估值融資後,投資人可能要求快速增長或上市,迫使DeepSeek犧牲開源模式或長期研發計畫。如何在保持技術理想與滿足商業回報之間找到平衡,將是DeepSeek管理層需要解決的核心矛盾。DeepSeek的轉折,從來不是梁文鋒一個人的“理想妥協”,而是整個國產AI行業的縮影。在AI這場殘酷的長期競賽中,技術理想主義需要商業現實的支撐,獨立自主需要開放合作的補充,前沿探索需要生態建設的協同。DeepSeek的融資之路,正是這種複雜平衡的開始。 (鈦媒體AGI)
梁文鋒,被曝融資3億美元!
估值100億美元!曝DeepSeek首次融資。智東西4月17日消息,今日,據外媒The Information報導,DeepSeek正首次尋求外部融資,目標估值超過100億美元。據多位知情人士透露,DeepSeek已開始與投資人接觸,計畫融資至少3億美元,以補充資金儲備,應對AI大模型研發日益高昂的成本競爭。如果本輪融資落地,DeepSeek將首次引入外部資本,也意味著其長期堅持的“自我供血”模式出現轉變。DeepSeek由母公司幻方量化孵化並持續輸血,過去曾拒絕多家國內頭部VC和科技巨頭的投資邀約。這一轉向背後,一方面是資金壓力加大,另一方面或許也與其近期的人才流失有關。自2025年初,DeepSeek-R1模型爆紅以來,DeepSeek尚未推出新一代模型,同時多位核心研究人員相繼離開。其中,DeepSeek V3模型重要貢獻者羅福莉已加入小米負責AI業務,另一位核心研究員郭達雅則跳槽至字節跳動,薪資大幅提升。引入外部資金後,DeepSeek有望加大算力投入,繼續推進前沿模型研發,同時通過更具競爭力的薪酬體系穩定核心團隊。不過,這筆融資也可能面臨一定不確定性。知情人士稱,部分美國投資機構在是否參與投資上態度相對謹慎。此前,美國國會曾對DeepSeek提出過相關質疑,但目前該公司並未被納入任何美國貿易限制名單。產品層面,DeepSeek原計畫於今年2月發佈下一代旗艦模型DeepSeek V4,但因工程問題多次推遲。報導稱,其團隊正在投入大量精力,使模型能夠直接適配華為昇騰晶片運行,這一調整也拖慢了進度——此前其模型主要基於輝達晶片。行業環境的變化同樣構成壓力來源。當前AI模型迭代速度持續加快,中美科技巨頭憑藉資金優勢不斷加碼,對初創公司形成擠壓,這也被認為是DeepSeek轉向融資的重要背景。值得一提的是,DeepSeek此前推出的R1模型曾以更低成本實現接近海外頂級模型的性能,引發市場廣泛關注,並一度引起資本市場對高端AI晶片長期需求的重新審視。該模型主要基於A100、H800等上一代晶片訓練完成,這些晶片原本用於其母公司幻方量化的資料訓練。另據The Information此前報導,DeepSeek正在使用輝達最新一代Blackwell晶片訓練下一代模型,不過該類晶片目前受到出口管制影響,獲取存在一定限制。 (智東西)
最新播客2萬字實錄|黃仁勳:逼DeepSeek與華為深度繫結,這對美國太可怕了
輝達CEO黃仁勳最近接受了美國知名科技播客主持人德瓦克什·帕特爾(Dwarkesh Patel)的專訪,全面回應了關於公司護城河、GoogleTPU競爭、對華晶片出口等關鍵議題。他強調輝達的護城河已延伸至供應鏈深處,通過上千億美元的採購承諾與台積電及儲存供應商建立了深度繫結。對於TPU競爭,黃仁勳指出Anthropic只是ASIC增長的獨特個例而非趨勢。輝達的加速計算覆蓋了分子動力學、資料處理、流體力學等遠超越AI的廣闊市場,且CUDA的高可程式設計性使其能每年實現10到50倍的性能飛躍。他同時解釋了為何輝達不親自成為超大規模雲服務商。儘管現金流充沛,輝達仍恪守做必須做的事且儘可能少做的原則,選擇通過投資CoreWeave、OpenAI、Anthropic等支援生態系統,而非親自下場與客戶爭利。他同時承認未能更早大規模投資Anthropic是自己的失誤。此外他強調即使AI革命從未發生,輝達仍會憑藉加速計算在物理、化學、資料處理等領域成為一家非常大的公司。關於對華出口,他批評極端的出口管制政策十分幼稚。黃仁勳指出AI算力是晶片與能源的結合,儘管受到EUV光刻機的限制,中國仍擁有龐大的7nm晶片製造能力。考慮到當前主流大模型主要還是在Hopper這一代架構上訓練,中國完全可以通過充沛的電力能源和擴大晶片叢集規模,來彌補單顆晶片的性能差距。不僅如此,中國龐大的AI研究團隊正通過更高效的電腦科學來提升模型性能。黃仁勳以DeepSeek為例警告稱這絕非無關緊要的進步。如果這類優秀的開源模型被迫專門針對華為等本土硬體進行深度最佳化且運行效果最佳,客觀上將直接削弱美國技術堆疊的全球優勢。他認為主動放棄全球第二大市場將迫使中國建立獨立於美國的底層計算架構。隨著這些基於開源標準的技術逐步向全球南方輸出,美國極有可能在長期的AI生態標準競爭中陷入被動。以下為黃仁勳專訪全文:01 控制供應鏈是輝達最大護城河?帕特爾:很多軟體公司估值在跌,因為大家覺得AI會把軟體變成大宗商品。有種看法是輝達把設計檔案發給台積電,台積電造邏輯晶片和開關,再用SK海力士、美光、三星的HBM封裝,然後送到台灣地區的ODM那裡組裝成機架。本質上輝達做的是軟體,硬體是別人造的。如果軟體被商品化,輝達是否也會被商品化?黃仁勳:最終總得有人把電子轉化成Token。這個轉化過程很難被完全商品化。讓一個Token比另一個更有價值就像讓一個分子比另一個分子更有價值一樣,需要大量的技術、工程、科學和發明。這些工作遠未被完全理解也遠未結束。我不認為這種被商品化的情況會發生。但我們會讓這個過程變得更高效。你問這個問題的方式其實就是我對公司的思考模型,輸入是電子且輸出是Token,中間是輝達。我們的原則是做必要的事但儘量少做。所謂儘量少做就是我自己不需要做的就找夥伴合作,讓它成為我生態系統的一部分。今天的輝達可能是擁有最大合作夥伴生態系統的公司,包括上游下游供應鏈、所有電腦公司、應用開發者、模型廠商。AI就像一個五層蛋糕,我們在每一層都有自己的生態。我們儘量少做但我們必須做的那部分極其困難,我不認為那部分會被商品化。另外我也不覺得企業軟體公司會被商品化。現在大多數軟體公司是工具廠商,比如Excel、PowerPoint、Cadence、Synopsys。我的看法和很多人相反,AI智能體的數量會指數級增長且工具使用者的數量也會指數級增長。這些工具的實例數量很可能會暴增。比如Synopsys的設計編譯器會有大量智能體來用它做佈局、設計規則檢查。今天限制我們的是工程師數量,明天每個工程師身後都會有一群智能體。我們能用前所未有的方式探索設計空間,用的還是今天的工具。工具的高頻使用會讓軟體公司飛速發展。現在之所以還沒發生是因為智能體還不夠會用工具。要麼這些軟體公司自己造智能體,要麼智能體會變得足夠好去熟練使用這些工具,我覺得兩者都會發生。帕特爾:我看你最新的檔案裡對代工廠、記憶體、封裝有近1000億美元的採購承諾。半導體研究機構SemiAnalysis認為這個數字會達到2500億美元。一種解讀是輝達的護城河在於鎖定了未來多年的稀缺元件。別人或許有加速器但拿不到記憶體和邏輯晶片。這是否是你們未來幾年的主要護城河?黃仁勳:這是我們能做到而別人很難做到的事情之一。我們向上游做了巨大承諾,有些是顯性的就是你提到的那些。有些是隱性的,比如上游很多投資是我跟那些CEO說我來告訴你這個行業會有多大、為什麼會有這麼大,我推理給你看並讓你看到我所看到的,然後他們才投的。他們為什麼願意為我投資而不是為別人?因為他們知道我有能力買下他們的供應並通過我的下游賣出去。輝達的下游需求和下游供應鏈太龐大了,所以他們願意在上游投資。你看GTC大會,大家驚嘆於它的規模和人氣。那是整個AI社區聚在一起,因為他們需要互相交流與被看見。我讓他們聚在一起,讓下游看到上游且上游看到下游,所有人看到AI的進步。他們還能見到所有AI原生代、所有初創公司。這樣他們就能親眼驗證我告訴他們的事情。我花大量時間,直接或間接地讓供應鏈、合作夥伴、生態系統理解面前的機會。有人說我的主題演講像是在上課且有點折磨人。其實那就是我的用意。我得讓整個供應鏈、上下游、生態系統理解即將發生什麼、為什麼發生、何時發生、規模多大,並且能像我一樣系統性地思考。關於護城河我們其實是在為未來提前佈局。如果我們未來幾年真的成長到兆美元規模,到那時自然有能力搭建與之匹配的供應鏈。但前提是沒有我們今天的業務體量和影響力也沒有我們業務的高速流轉,就像現金流一樣供應鏈也有自己的流轉和周轉速度。如果業務周轉慢沒有人會願意為一個空架子搭建供應鏈。我們今天能維持這樣的規模,根本原因在於下游需求極其旺盛。當他們親眼看到、聽到、意識到這一切正在真實發生,才讓我們得以在現有規模下做成現在這些事。帕特爾:我想具體瞭解一下上游能否跟得上。你們連續多年收入翻倍,每年向世界提供的算力增長超過兩倍。黃仁勳:在這個規模上還能翻倍確實很驚人。帕特爾:但你看邏輯晶片。你們是台積電N3節點的最大客戶也是N2節點的最大客戶之一。SemiAnalysis發現今年AI會佔N3產能的60%,明年到86%。如果你已經佔了大頭怎麼翻倍?年復一年地翻倍?我們是否已經進入一個階段,即AI算力增速必須因為上游限制而放緩?你看到解決辦法了嗎?歸根到底我們怎麼才能年復一年地把晶圓廠產能也翻一倍?黃仁勳:在任何一個時間點,瞬時需求都可能大於全球上下游的總供應。甚至可能被水管工數量限制,這確實發生過。帕特爾:水管工應該被邀請參加明年的GTC。黃仁勳:好主意。但這其實是個好現象。你希望一個行業的瞬時需求大於總供應,反過來就不太好了。如果某個元件缺口太大,整個行業會蜂擁去解決。你看現在已經沒太多人討論CoWoS了。因為過去兩年我們拚命解決這個問題現在情況已經不錯了。台積電現在知道CoWoS的供應必須跟得上邏輯和記憶體的需求。他們正在以和擴展邏輯同樣的速度擴展CoWoS和未來封裝技術。這非常好,因為CoWoS和HBM記憶體以前是比較小眾的,現在它們成了主流計算技術。我們現在能影響更廣泛的供應鏈了。AI革命剛開始時我說的這些話五年前就說過了。有人相信並投資了,比如美光CEO桑傑·梅赫羅特拉(Sanjay Mehrotra)及其團隊。我清楚記得那次會議,我精準地說明了會發生什麼、為什麼發生以及今天的狀況。他們真的加倍投入了。我們在LPDDR和HBM記憶體上合作,他們大力投資結果取得了巨大的成功。有些人來得晚一些但現在都來了。每個瓶頸都會得到大量關注。我們現在提前幾年就開始預判瓶頸。比如過去幾年我們在Lumentum、Coherent和矽光生態系統上的投資,重塑了供應鏈。我們圍繞台積電建立了整個供應鏈並和他們合作開發矽光整合平台COUPE,發明了很多技術並把專利授權給供應鏈保持開放。我們通過發明新技術、新流程、新測試裝置比如雙面探測、投資公司幫他們擴產來增強供應鏈。我們在努力塑造生態系統,讓供應鏈能夠支撐這個規模。帕特爾:有些瓶頸好像比其他瓶頸容易解決,比如CoWoS擴產。黃仁勳:我們負責克服最難的那個。帕特爾:那個?黃仁勳:水管工和電工。這是我擔心那些末日論者的地方。他們說工作要消失、崗位要完蛋。如果我們阻止人們成為軟體工程師,我們就會耗盡軟體工程師。十年前就有同樣的預言。有些末日論者說無論如何別當放射科醫生,你現在還能在網上看到那些視訊說放射科會是第一個消失的職業,世界再也不需要放射科醫生了。猜猜我們現在缺什麼?放射科醫生。帕特爾:有些東西可以規模化有些則不行,你每年怎麼造出兩倍的邏輯晶片?最終記憶體和邏輯都受限於EUV光刻機。你怎麼年復一年地拿到兩倍的EUV光刻機?黃仁勳:這些產能都是可以快速規模化的,兩三年內就能做到。你只需要向供應鏈發出一個需求訊號。能造一個就能造十個,能造十個就能造一百萬個。這些東西複製起來並不難。帕特爾:你會在供應鏈裡走多遠?會直接去找ASML說三年後輝達要做到年收入兩兆美元,我們需要多得多的EUV光刻機嗎?黃仁勳:有些要直接說,有些間接說。如果能說服台積電,ASML也會被說服。我們要找到關鍵的瓶頸點。但如果台積電被說服了,幾年內你就會有足夠多的EUV。我的觀點是沒有任何瓶頸會持續超過兩三年。與此同時我們還在把計算效率提高10倍、20倍,Hopper到Blackwell是30到50倍。因為CUDA很靈活我們在不斷髮明新演算法、新技術,在增加容量的同時提高效率。這些事情都不讓我擔心。讓我擔心的是我們下游的東西。能源政策阻止能源擴展,而沒有能源你建不了新產業。沒有能源你沒法搞一個新的製造業。我們要讓美國再工業化。我們要把晶片製造、電腦製造、封裝帶回來。我們要造電動汽車、機器人。我們要造AI工廠。沒有能源這些都建不起來,而能源需要很長時間。晶片產能是兩三年能解決的問題。CoWoS產能也是兩三年能解決的問題。02 TPU會打破輝達對AI算力的控制嗎?帕特爾:世界上排名前三的模型裡,有兩個即Claude和Gemini都是在GoogleTPU上訓練的。這對輝達意味著什麼?黃仁勳:我們做的東西很不一樣。輝達做的是加速計算,不只是一個張量處理單元。加速計算可以用在很多地方,涵蓋分子動力學、量子色動力學、資料處理、結構化資料、非結構化資料、流體動力學、粒子物理。除此之外也做AI。加速計算比這廣泛得多。雖然AI是當下的話題且顯然很重要和影響很大,但計算比這寬泛得多。輝達重塑了計算的方式,從通用計算轉向加速計算。我們的市場覆蓋範圍比任何TPU或ASIC都要大得多,我們是唯一一家能加速各種應用的公司。我們有巨大的生態系統,各種框架和演算法都能在輝達上跑。因為我們的電腦設計成讓別人可以操作,所以任何營運商都能買我們的系統。而大部分自建系統你得自己當營運商,因為它們的靈活性不夠導致別人操作不了。因為誰都能搭建並操作我們的系統,所以我們存在於每一個雲裡,包括Google、亞馬遜、Azure以及甲骨文的雲平台。如果你想租給別人用,那你最好有來自很多行業的龐大客戶群做承購方。如果你想自己用,我們當然也能幫你自己營運,就像我們在xAI幫馬斯克那樣。而且我們能讓任何公司、任何行業的營運商都具備能力,你可以給禮來公司建一台用於科學研究和藥物發現的超級電腦,我們可以幫他們營運,用於整個藥物發現和生物科學領域。有一大堆應用是TPU做不了的。輝達的CUDA也是一個很棒的張量處理單元,但它還能處理資料處理的每一個環節、計算、AI等等。我們的市場機會大得多,覆蓋範圍廣得多。因為我們支援現在世界上每一個應用,你可以在任何地方建輝達系統並且知道一定會有客戶。這是一個很不一樣的局面。帕特爾:你們的收入很驚人但不是來自製藥也不是來自量子計算,而是主要來自AI。因為AI這個前所未有的技術正在以史無前例的速度增長。那問題就來了,什麼才是對AI本身最有利的?TPU本質上是一個巨大的脈動陣列,特別擅長做矩陣乘法。GPU則更靈活且適合那些有很多分支判斷或者記憶體訪問不規則的任務。但問題在於AI到底在幹什麼?說白了AI就是一遍又一遍地做那些非常可預測的矩陣乘法。既然如此你為什麼還要在晶片上留出面積給線程束調度器或線程與記憶體體之間的切換這類通用功能呢?這些面積本來可以全部用來做矩陣乘法。而TPU恰恰就是專門針對當下正在爆發的那部分計算需求設計的。你覺得呢?黃仁勳:矩陣乘法是AI的重要部分但不是全部。如果你想出一種新的注意力機制、換一種分解方式、或者發明一個全新的架構即混合狀態空間模型(SSM),你需要一個普遍可程式設計的架構。如果你想做一個融合了擴散模型和自回歸的模型,你需要的也是一個普遍可程式設計的架構。我們能跑你能想到的任何東西。這就是優勢。因為它是可程式設計的,所以發明新演算法要容易得多。發明新演算法的能力才是AI進步這麼快的原因。TPU和其他東西一樣都受摩爾定律影響,每年大概進步25%。要每年實現10倍或100倍的飛躍,唯一的方法是每一年都從根本上改變演算法和計算方式。這就是輝達的根本優勢。Blackwell比Hopper能效高50倍。我第一次說35倍時沒人信。後來有人寫文章說我留了一手實際上是50倍。單靠摩爾定律做不到,我們靠的是新模型比如專家混合模型(MoE),它們被併行化、分解、分佈在整個計算系統裡。如果沒有CUDA也沒有真正深入去寫新核心的能力,這很難做到。這是可程式設計架構和輝達極端協同設計能力的結合。我們甚至可以把一些計算解除安裝到網路結構本身比如NVLink,或者網路裡的Spectrum-X。我們可以同時改變處理器、系統、網路結構、庫和演算法。沒有CUDA我根本不知道從那下手。帕特爾:這引出一個關於輝達客戶的有趣問題。你們60%的收入來自五個超大規模雲廠商。在另一個時代客戶是教授做實驗,他們需要CUDA且用不了別的加速器,他們只需要用CUDA跑PyTorch且一切都最佳化好了。但這些超大規模雲廠商有能力自己寫核心。事實上為了從特定架構裡擠出最後5%的性能,他們必須這麼做。Anthropic和Google主要跑自己的加速器即TPU和Trainium。就連用GPU的OpenAI也有Triton因為他們需要自己的核心。他們不用cuBLAS和NCCL而是有自己的軟體棧也能編譯到其他加速器上。如果你的大部分客戶能且正在做CUDA的替代品,那CUDA在多大程度上還是前沿AI跑在輝達上的關鍵因素?黃仁勳:CUDA是一個豐富的生態系統。如果你想在任何電腦上做開發,首選CUDA是非常明智的。因為生態系統太豐富了,我們支援每一個框架。如果你想寫自訂核心,我們對Triton的貢獻巨大,Triton的後端有大量輝達技術。我們很樂意幫助每一個框架變得更好。框架很多比如Triton、vLLM、SGLang。現在又冒出一堆強化學習框架比如verl和NeMo RL。後訓練和強化學習這塊正在爆炸。所以如果你想基於某個架構做開發選CUDA最有意義,因為你知道它的生態很好。你知道如果出了問題,問題更可能出在你自己的程式碼裡而不是底下那堆積如山的底層系統上。別忘了你面對的是多麼龐大的程式碼規模。當系統不工作時你要問自己是我錯了還是電腦錯了?你當然希望每次都發現是自己錯了,因為只有這樣你才能始終信任電腦。顯然我們自己還有很多bug。但關鍵在於我們的系統已經被無數次檢驗過,你可以放心地在上面建構。這就是我想說的第一點即生態系統的豐富性、可程式設計性和能力。第二點如果你是個開發者,你最想要的是一個裝機基礎。你希望自己的軟體能跑在很多其他電腦上。你不是只為自己寫軟體而是為你所在的叢集或別人的叢集寫,因為你是框架開發者。輝達的CUDA生態系統最終就是它最大的財富。我們現在有數億個GPU在外面,每個雲裡都有。從A10、A100、H100、H200到L系列、P系列以及各種尺寸和各種形狀。如果你是個機器人公司,你希望那個CUDA堆疊能直接在機器人內部運行。我們幾乎無處不在。這個裝機基礎意味著一旦你開發了軟體或模型,它在任何地方都能用。這個價值無可估量。最後我們存在於每一個雲裡,這讓我們真正獨一無二。如果你是個AI公司或開發者,你不確定會和那個雲服務商合作也不知道想把負載跑在那裡。沒關係,我們無處不在包括你自己的機房。生態系統的豐富性、裝機基礎的廣泛性、存在位置的多樣性,這些加在一起讓CUDA價值連城。帕特爾:有道理。但我想問的是這些優勢對你最大的客戶來說到底有多重要?對很多人來說CUDA可能很有價值。但你收入的大頭其實來自那些有能力自己搭建軟體棧的大客戶。特別是如果未來AI進入一些可以用強化學習進行嚴格驗證的領域,那問題就變成了誰能寫出在大型叢集上跑得最快的矩陣乘法和注意力核心?這是一個非常可驗證的最佳化問題。那些超大規模雲廠商完全有能力自己寫這些定製核心。當然輝達的性價比可能還是更好所以他們可能依然會選擇輝達。但這樣一來問題就變成了最後是不是只比誰的硬體規格更好以及每美元能買到的算力和頻寬更多?歷史上輝達靠著CUDA護城河,在AI硬體和軟體上都能保持70%以上的利潤率。但現在的問題是如果你最大的客戶其實有能力繞過這條護城河,你還能維持這麼高的利潤率嗎?黃仁勳:我們分配給這些AI實驗室的工程師數量是驚人的,跟他們一起工作最佳化他們的軟體棧。原因是沒人比我們更懂我們的架構。這些架構不像CPU那麼通用。CPU有點像凱迪拉克且好開和不飆快車,誰都能開得不錯且有巡航控制,一切都很簡單。而輝達的GPU和加速器更像F1賽車。我能想像每個人都能開到160公里時速,但要推到極限需要相當多的專業知識。我們用大量AI來寫核心。我很確定在相當長一段時間內我們仍然會被需要。我們的專業知識常常能讓AI實驗室合作夥伴輕鬆再提升2倍性能。最佳化完一個核心或整個軟體棧後,模型速度提升50%、2倍乃至3倍,這很常見。考慮到他們擁有所有Hopper和Blackwell的叢集規模,這是一個巨大的數字。提升一倍直接等於收入翻倍。輝達的計算堆疊在總擁有成本TCO上是全世界最好的,沒人能比。沒有任何一個平台能向我展示出比我們更好的性能與TCO比。Dylan的InferenceMAX基準測試就擺在那裡,誰都可以用。但TPU不來測且Trainium也不來測。我很鼓勵他們用InferenceMAX來展示自己所謂的超低推理成本。但很難因為沒人願意來。還有MLPerf,我也很想讓Trainium來展示他們一直宣稱的40%優勢。也很想聽他們展示TPU的成本優勢。但在我看來從第一性原理出發他們說的那些優勢完全說不通。所以我認為我們成功的原因很簡單就是我們的TCO太好了。第二你說我們60%的客戶是前五大雲廠商,但這些業務大部分是面向外部的。比如AWS中使用輝達的晶片大部分是給外部客戶而不是內部用。Azure裡的客戶顯然也都是外部的,甲骨文的同樣如此。他們青睞我們是因為我們的影響力大,我們能給他們帶來全世界最優秀的客戶且這些客戶都建在輝達上。而這些公司之所以建在輝達上,是因為我們的影響力和多功能性太強了。所以我認為這個飛輪是裝機基礎、架構的可程式設計性、生態系統的豐富性,再加上世界上有成千上萬家AI公司。如果你是AI初創公司你會選那個架構?你會選最豐富的而我們就是最豐富的,你會選安裝基礎最大的而我們就是最大的,你會選生態最完善的。這就是飛輪。結合以上幾點來看我們的每美元性能最好且客戶的Token成本最低。我們的每瓦性能世界最高,所以如果一個合作夥伴建了一個1吉瓦的資料中心,這個資料中心最好能產出最大量的收入和Token,這直接等於收入。你希望它產出儘可能多的Token來最大化收入,而我們是世界上每瓦Token數最高的架構。另外如果你的目標是出租基礎設施,我們有世界上最多的客戶。這就是飛輪運轉的原因。帕特爾:有意思。我想問題歸根結底是實際的市場結構到底是什麼樣?因為即使有其他公司存在,可能有一個世界裡面成千上萬家AI公司每家都佔大致相等的算力份額。但現實情況是即便通過這五大雲廠商,真正在亞馬遜上用算力的其實是Anthropic、OpenAI以及那些大型基礎實驗室。這些大玩家自己有能力也有資源讓不同的加速器跑起來。如果你說的這些關於性價比和每瓦性能等等都是真的,那為什麼像Anthropic這樣的公司幾天前剛宣佈和博通與Google達成一項涉及多吉瓦的TPU交易,把他們大部分算力放在上面?對Google來說TPU也佔了他們絕大部分算力。所以如果我看這些大型AI公司似乎他們的算力曾經全是輝達現在不是了。我很好奇如果紙面上這些優勢都成立,他們為什麼偏偏選了別的加速器?黃仁勳:Anthropic只是一個特例並不是什麼大趨勢。你可以想一想如果沒有Anthropic這家公司,TPU那來的增長?百分之百是因為Anthropic。同樣如果沒有Anthropic,Trainium又那來的增長?百分之百也是因為Anthropic。這基本上是公開的秘密了。不是什麼ASIC的機會變得很多而是只有一個Anthropic而已。帕特爾:但OpenAI和AMD有交易且他們自己在造Titan加速器。黃仁勳:是的,但我覺得大家都承認他們絕大部分算力還是跑在輝達上。我們仍然會一起做很多工作。我不介意別人用別的東西、嘗試別的東西。如果他們不嘗試怎麼知道我們的有多好?有時候你需要被提醒一下。我們必須不斷贏得我們現在的位置。總有人誇下海口。你看看有多少ASIC項目被取消了。僅僅因為你要造一個ASIC你還得造出比輝達更好的東西這沒那麼容易。實際上這不合理除非輝達一定有什麼缺陷。但我們的規模和速度擺在這裡,我們是世界上唯一一家每年都推出新品的公司且每年都實現巨大飛躍。帕特爾:我猜他們的邏輯是它不需要比輝達更好,只要不比70%差太多就行,因為他們付給你70%的利潤率。黃仁勳:不,別忘了ASIC的利潤率也很高。假設輝達利潤率是70%且ASIC利潤率是65%。你到底省了什麼?帕特爾:你是說像博通那樣的?黃仁勳:對。你得付錢給別人。據我所知ASIC利潤率非常高,他們自己也這麼認為且對他們驚人的ASIC利潤率很自豪。所以你問為什麼。很久以前我們就是沒能力做。當時我沒有深刻意識到做一個像OpenAI、Anthropic這樣的基礎AI實驗室有多難以及他們需要供應商本身的巨額投資。我們當時沒能力投資Anthropic幾十億美元來換取他們用我們的算力。但Google和AWS有能力。他們一開始就投入巨資且作為回報Anthropic用了他們的算力。我們當時就是沒能力。我的失誤是我沒有深刻意識到他們真的別無選擇,沒有風投會投50到100億美元到一個AI實驗室指望它變成Anthropic,這是我的失誤。但即使我當時理解了我也不認為我們有能力那麼做。但我不會再犯同樣的錯誤了。我很樂意投資OpenAI也很樂意幫他們擴展,我相信這是必要的。後來當我有能力時Anthropic來找我們,我很樂意成為投資者且很樂意幫他們擴展。我們當時就是做不到。如果我能讓一切重來,如果當時的輝達有現在這麼大我會非常樂意那麼做。03 輝達為什麼不成為超大規模雲廠商?帕特爾:多年來輝達一直是AI領域賺錢並賺大錢的公司。現在你在投資,比如據報導你們已向OpenAI投了300億美元並向Anthropic投了100億美元。現在他們的估值漲了且我相信還會繼續漲。所以如果這些年來你一直在給他們提供算力且你看到了它的發展方向,而他們一兩年前的價值只有現在的十分之一甚至一年前,而你又有那麼多現金,那要麼輝達自己成為一個基礎實驗室投入巨資去做,要麼在現在這個估值下更早地做你這些交易。而且你有現金。所以為什麼不更早做呢?黃仁勳:我們在力所能及的時候盡快做了且一有能力就盡快做了。如果我能我會更早做。在Anthropic需要我們做的時候我們就是沒能力,那時這不在我們的考慮範圍內。帕特爾:怎麼講?是錢的問題嗎?黃仁勳:是的即投資規模。我們當時從未在公司外部做過投資,更不用說那麼大數額了。我們沒有意識到我們需要這麼做。我一直以為他們可以像所有公司一樣去風投那裡融資。但他們想做的事風投做不到。OpenAI想做的事風投做不到。我現在認識到了但我當時不知道。但這就是他們的天才之處,他們聰明就聰明在這裡。他們當時就意識到必須做那樣的事。我很高興他們做到了。即使這導致Anthropic去找了別人,我仍然很高興它發生了。Anthropic的存在對世界是好事且我為此高興。帕特爾:我想你們仍然在賺很多錢而且每個季度都賺得更多。既然你有這麼多不斷賺來的錢,輝達應該用它做什麼?有一個答案是已經出現了一整套中間商生態系統,把資本支出轉化為這些實驗室的營運支出讓他們可以租算力。因為晶片很貴但它們生命周期裡能賺很多錢,因為AI模型越來越好。它們產生的Token價值在增加但部署成本高。輝達有錢做資本支出。事實上據報導你們正在支援CoreWeave且金額高達63億美元並已經投了20億。輝達為什麼不自己成為一個雲服務商?為什麼不自己成為超大規模雲廠商並自己出租算力?黃仁勳:這是我們公司的理念且我認為是明智的。我們應該做必要的事但儘量少做。意思是說在我們建構計算平台的工作上如果我們不做,我真心相信沒人會做。如果我們不冒我們冒的那些險,如果我們不按我們的方式做NVLink並不建構整個軟體棧,不按我們的方式建立生態系統並不投入20年CUDA並在大部分時間裡虧損,如果我們不做沒人會做。如果我們不建立所有CUDA-X庫使它們面向特定領域,十五年前我們開始做特定領域庫,因為我們意識到如果我們不建立這些特定領域庫,無論是光線追蹤、圖像生成還是早期AI工作、這些模型,或者資料處理、結構化資料處理、向量資料處理,如果我們不建立沒人會做。我完全相信這一點。我們為計算光刻做了一個庫叫cuLitho,如果我們不做沒人會做。所以加速計算之所以能有今天的進步是因為我們做了這些。所以我們應該做那件事且應該全身心投入並全力以赴去做。然而世界上有很多雲,如果我不做總有人會做。所以我們奉行做必要的事但儘量少做的理念,它存在於我們公司的每一天。我做的每一件事都用這個視角來看。就雲而言如果我們不支援CoreWeave存在,這些新雲、這些AI雲就不會存在。如果我們不幫CoreWeave它們就不會存在。如果我們不支援Nscale他們就不會有今天的成就。如果不支援Nebius他們也不會是今天這樣。現在他們做得非常好。這是一種商業模式。我們應該做必要的事且儘量少做。所以我們投資於我們的生態系統因為我希望我的生態系統蓬勃發展。我希望這個架構、AI能夠連接儘可能多的行業、儘可能多的國家,讓整個星球都建立在AI之上並建立在美國技術堆疊之上。這個願景正是我們在追求的。還有一件事,有很多優秀的基礎模型公司且我們儘量投資所有人。這是我們做的另一件事。我們不挑贏家且我們需要支援所有人。這是我們應該做的也是我們的樂趣所在。這對我們的業務至關重要。但我們也不遺餘力地不去挑贏家所以我投了一家就會投所有。帕特爾:你為什麼特意不挑贏家?黃仁勳:首先這不是我們的工作。其次輝達剛起步時有60家3D圖形公司而我們是唯一活下來的。如果你從這60家裡猜誰會成功,輝達會排在最不可能成功名單的首位。這是很久以前的事了。輝達的圖形架構恰恰是錯的且不是有點錯。我們造了一個完全錯的架構,開發者沒法支援它且它永遠不會成功。我們基於良好的第一性原理推理但最終得出了錯誤的解決方案。每個人都會把我們排除在外但我們活下來了。所以我有足夠的謙遜認識到這一點即不要挑贏家。要麼讓他們自己照顧自己,要麼就照顧所有人。帕特爾:有一點我沒明白,你說我們不是因為他們是新雲就優先考慮他們想扶持他們,但你也列舉了一堆新雲說沒有輝達它們就不會存在。這兩件事怎麼相容?黃仁勳:首先他們自己得想存在並且來請求我們幫助。當他們想存在並且有商業計畫、專業知識和熱情時,他們顯然覺得自己有些能力。但如果歸根結底他們需要一些投資來啟動,我們會支援他們。但他們越早啟動飛輪越好。你的問題是我們想不想做融資業務?答案是不想。有人在做融資業務,我們寧願和他們合作而不是自己當融資方。我們的目標是專注於我們做的事且保持商業模式儘可能簡單並支援我們的生態系統。當像OpenAI這樣的組織需要300億美元規模的投資因為他們在IPO之前,而我們深信他們會成為一家不可思議的公司,世界需要他們存在且世界希望他們存在,我希望他們存在並且他們順風順水,讓我們支援他們並讓他們擴展。這些投資我們會做因為他們需要我們。但我們不是想做儘可能多的事而是想做儘可能少的事。帕特爾:這可能是個顯而易見的問題,但我們在GPU短缺的情況下過了好幾年,現在因為模型變好導致短缺還在加劇。黃仁勳:我們確實缺GPU。帕特爾:是的。輝達以分配稀缺配額而聞名,不只看誰出價高而是看我們希望確保這些新雲存在,比如給CoreWeave一些,給Crusoe一些,給Lambda一些。這對輝達有什麼好處?首先你同意這種分化市場的描述嗎?黃仁勳:不同意。你的前提完全錯了。我們對這些事情足夠謹慎且非常謹慎。第一如果你不下採購訂單光說沒用。在收到採購訂單之前我們能做什麼?所以第一件事是我們和每個人努力工作完成預測,因為這些東西要很長時間才能造好且資料中心也要很長時間。我們通過預測等方式來協調供需這是首要任務。第二我們儘量和儘可能多的人做預測但最終你還是得下訂單。也許無論什麼原因你沒下訂單,我能怎麼辦?在某個時間點先到先得。除此之外如果你的資料中心還沒準備好,或者某些元件還沒準備好讓你啟用資料中心,我們可能會先服務別的客戶。這只是為了最大化我們自己工廠的吞吐量且我們可能會做一些調整。除此之外優先順序是先到先得。你得下採購訂單。當然有一些故事。比如這一切始於一篇關於拉里·佩奇和馬斯克跟我吃飯時求取GPU的文章,那從未發生。我們確實吃了飯且是很愉快的一頓飯但他們從未求取GPU。他們只是需要下訂單。一旦下了訂單我們會盡力把產能分配給他們這不複雜。帕特爾:好。所以聽起來有一個佇列,然後根據資料中心是否準備好、何時下採購訂單,你在某個時間拿到貨。但這聽起來仍然不是價高者得。有什麼理由不那樣做?黃仁勳:我們從不那樣做。帕特爾:為什麼不是價高者得?黃仁勳:因為那是不好的商業實踐。你定好價格然後人們決定買不買。我理解晶片行業其他人會在需求高時漲價但我們不那樣做。這從來不是我們的做法。你可以信賴我們。我寧願做個可靠的人並做行業的基石。你不用事後猜測。如果我報了一個價那就是那個價,就這樣。如果需求飆升價格依然穩定。帕特爾:另一方面這就是你們和台積電關係好的原因吧?黃仁勳:是的,輝達和他們做生意快30年了。輝達和台積電沒有簽署法律合同但總有一些粗略的公平。有時我對且有時我錯。有時我拿了好deal且有時我拿了差deal。但總體而言這段關係非常好。我可以完全信任他們並且可以完全依賴他們。你可以信賴輝達的一點是今年的Vera Rubin會不可思議。明年Vera Rubin Ultra會來。後年Feynman會來。再後一年我還沒介紹名字。每一年你都可以信賴我們。你去找世界上任何其他ASIC團隊隨便挑,你能說我可以把全部業務押在你身上且你每年都會為我服務嗎?你能說你的Token成本每年都會下降一個數量級且我可以像相信時鐘一樣相信你嗎?我剛才對台積電說了類似的話。對歷史上任何其他代工廠你都不可能這麼說。但今天你可以對輝達這麼說。你可以每年都信賴我們。如果你想買10億美元的AI工廠沒問題。想買1億美元沒問題。1000萬美元或者只有一個機架都沒問題。或者只有一個顯示卡沒問題。如果你想下1000億美元的訂單也沒問題。我們是當今世界上唯一一家你可以這麼說的公司。我也可以對台積電這麼說。我想買一個或者買十億個都沒問題。我們只需要經過規劃流程以及所有成熟的人會做的事。所以我認為輝達能成為世界AI產業的基石,這個地位我們花了幾十年才達到。這是巨大的承諾和巨大的奉獻。我們公司的穩定性與一致性非常重要。04 是否應該向中國銷售AI晶片?帕特爾:我想問關於中國的問題。我實際上不知道我是否支援向中國賣晶片但我喜歡對嘉賓唱反調。達里歐·阿莫代伊(Dario Amodei)支援出口管制,我問他為什麼美國和中國不能都在資料中心裡擁有一群天才?但既然你站在另一邊我會反過來問你。一種思考方式是Anthropic幾天前發佈了Mythos預覽版。這個模型他們甚至沒有公開發佈,因為他們說它有很強的網路攻擊能力且世界還沒準備好,要等他們把那些零日漏洞修補好。但他們說它發現了所有主流作業系統和每個瀏覽器的成千上萬個高危漏洞。它在OpenBSD裡發現了一個漏洞且那個是專門設計來避免零日漏洞的作業系統,這個漏洞存在了27年。所以如果中國公司、中國實驗室、中國政府能拿到AI晶片,來訓練一個像Claude Mythos這樣有網路攻擊能力的模型並用更多算力跑幾百萬個實例,這是否對美國公司、美國國家安全構成威脅?黃仁勳:首先Mythos是在相當普通的算力上訓練的且算力規模也相當普通,只不過訓練它的是一家非常優秀的公司。它所用的算力類型和數量在中國其實非常充足。你要知道晶片在中國是存在的。他們製造了全球60%以上的主流晶片,這個產業對他們來說非常大。他們擁有世界上最厲害的電腦科學家之一。如你所知幾乎所有AI實驗室裡大部分研究人員都是中國人,佔了全球50%的AI研究人員。所以問題來了,既然他們已經擁有這麼多資產如充足的能源與大量的晶片以及全球近半的AI人才,如果你真的擔心他們,那麼創造一個更安全的世界最好的方式是什麼?去打壓他們把他們變成敵人可能不是最好的答案。他們是競爭對手且我們希望美國贏。但我認為進行對話、進行研究對話可能是最安全的。由於我們目前對中國的態度在這個領域明顯缺失。我們的AI研究人員和他們的AI研究人員交流至關重要。我們雙方都試圖就AI不應該被用來做什麼達成一致,這至關重要。關於在軟體裡找漏洞,當然這正是AI應該做的。它會在很多軟體裡找到漏洞嗎?當然。有很多漏洞。AI軟體裡也有很多漏洞。這正是AI應該做的,我很高興AI達到了一個水平能幫我們提高這麼多生產力。有一件事被低估了,就是圍繞網路安全、AI網路安全、AI安全、AI隱私的生態系統非常豐富。有一整個AI初創公司生態系統在試圖為我們創造那個未來,即一個不可思議的AI智能體周圍有成千上萬個AI智能體在保護它並確保它安全。那個未來一定會到來。認為會有一個AI智能體到處跑而沒人看著這有點瘋狂。我們很清楚這個生態系統需要蓬勃發展。事實證明這個生態系統需要開源且需要開放模型和開放軟體棧,這樣所有AI研究人員與所有厲害的電腦科學家才能去建構同樣強大的AI系統並保證AI的安全。所以我們需要確保的一件事是保持開源生態系統的活力,這不能被忽視。其中很多來自中國且我們不應該扼殺它。關於中國當然我們希望美國擁有儘可能多的算力。我們受限於能源但有很多人在解決這個問題,我們不能讓能源成為國家的瓶頸。但我們也希望世界上所有的AI開發者都在美國技術堆疊上開發,並把AI的進步尤其是開放原始碼的部分貢獻給美國生態系統。建立兩個生態系統將是極其愚蠢的,一個開放原始碼的且只能跑在外國技術堆疊上,一個封閉的且跑在美國技術堆疊上。我認為這對美國將是可怕的後果。帕特爾:資訊量很多,我梳理一下。中國有算力但有些估計說因為他們沒有EUV也就是因為晶片製造出口管制,他們實際能生產的Flops只有美國的十分之一。那麼他們最終能訓練出像Mythos這樣的模型嗎?能。但問題在於因為我們有更多的Flops,美國實驗室能先達到這些能力水平因為Anthropic先達到了。另外就算他們訓練出這樣的模型,大規模部署的能力也很重要。如果你有個網路駭客有一百萬個實例比有一千個危險得多。所以推理算力真的很重要。事實上他們有這麼多優秀的AI研究人員,這恰恰是可怕的地方,因為讓這些工程師研究人員更高效的是什麼?是算力。如果你和美國任何一個AI實驗室聊他們會說限制他們的是算力。DeepSeek創始人、通義千問領導層都說過。他們說他們受限於算力。那麼問題來了,我們讓美國公司因為有更多算力而先達到Mythos等級的能力並讓我們的社會為此做好準備,這不是更好嗎?而中國因為算力少會更晚達到這個水平?黃仁勳:我們的目標當然應該始終是第一個到達也始終擁有更多算力。但要讓你描述的那種結果成立,你必須把情況推到極端也就是他們得完全沒有算力。只要他們還有一些算力,問題就變成了到底需要多少才夠?事實上中國擁有的算力是巨大的。你剛才也說了他們是世界第二大計算市場。如果他們真想集中算力做一件事他們完全有能力做到。帕特爾:但這是真的嗎?有人估計說中芯國際在工藝節點上落後。黃仁勳:他們擁有的能源是驚人的對吧?AI是個平行計算問題不是嗎?為什麼他們不能因為能源幾乎免費就把4倍、10倍的晶片放在一起?他們有這麼多能源。他們有完全空置且完全通電的資料中心。他們的基礎設施容量巨大。如果他們想他們就把更多晶片聚在一起即使是7奈米的。他們製造晶片的能力是世界上最大的之一,半導體行業知道他們壟斷了主流晶片。他們有超額產能且產能過剩。所以認為中國將無法獲得AI晶片的想法完全是胡說八道。當然如果你問我如果全世界根本沒有算力美國會不會遙遙領先?但那不是一個真實場景。他們已經擁有大量算力。你擔心的那個閾值他們已經達到並超過了。所以我認為你誤解了,AI是一個五層蛋糕,最底層就是能源。當你能源充足時它可以彌補晶片的不足。如果你晶片充足它可以彌補能源的不足。例如美國能源稀缺,這就是為什麼輝達必須不斷推進架構並做極端協同設計,以便在晶片運出量少的情況下因為能源太有限而我們的每瓦吞吐量高得離譜。但是如果你的瓦特數完全充足且幾乎是免費的,你會在乎每瓦性能嗎?你會有很多。你可以用舊晶片來做。7奈米晶片基本上就是Hopper。我必須告訴你今天的模型大部分是在Hopper這一代上訓練的。所以7奈米晶片已經足夠好了。能源豐富是他們的優勢。帕特爾:但還有他們能否製造足夠多晶片的問題。黃仁勳:但他們能。證據是什麼?華為剛剛度過了公司歷史上業績最好的一年。帕特爾:他們出貨了多少晶片?黃仁勳:大量。數百萬個,比Anthropic擁有的多得多。帕特爾:問題在於中芯國際能生產多少邏輯晶片以及能生產多少記憶體?黃仁勳:我告訴你實際情況。他們有大量的邏輯晶片也有大量的HBM2記憶體。帕特爾:但如你所知訓練和推理的瓶頸往往是頻寬量。所以如果你用的是HBM2,我不記得具體數字,但和你最新的產品比記憶體頻寬可能差了一個數量級,這非常大。黃仁勳:華為是一家網路公司。帕特爾:但這不能改變你需要EUV來製造最先進HBM的事實。黃仁勳:完全不對。你可以把它們聚在一起就像我們用NVL72聚在一起一樣。他們已經展示了矽光子技術,把所有計算連成一個巨大的超級電腦。你的前提完全錯了。事實是他們的AI發展進展得相當順利。世界上最好的AI研究人員因為他們算力有限,他們也提出極其聰明的演算法。記住我剛才說摩爾定律每年大約進步25%。然而通過優秀的電腦科學我們仍然可以把演算法性能提高10倍。我的意思是優秀的電腦科學才是槓桿。毫無疑問MoE是一個偉大的發明。所有那些令人難以置信的注意力機制減少了計算量。我們必須承認AI的大部分進步來自演算法進步而不僅僅是原始硬體。如果大部分進步來自演算法、電腦科學和程式設計,那告訴我他們的AI研究大軍不是他們的根本優勢?我們看到了。DeepSeek絕不是一個無關緊要的進展。要是那天像DeepSeek這樣的成果先在華為平台上出現,那對我們國家會是非常糟糕的結果。帕特爾:為什麼?因為目前像DeepSeek這樣的模型如果是開放原始碼的,可以在任何加速器上跑。為什麼將來會不是這樣?黃仁勳:假設它針對華為最佳化了且針對他們的架構最佳化了,那就會讓我們的處於劣勢。你描述了一種我認為是好消息的情況。一家公司開發了軟體並開發了一個AI模型且在美國技術堆疊上跑得最好。我認為那是好消息。你把它作為前提說那是壞消息。我來告訴你真正的壞消息即世界上所有的AI模型都是在非美國硬體上開發的並且跑得最好。帕特爾:我想我只是沒看到證據表明存在巨大的差異會阻止你切換加速器。美國的實驗室正在跨所有雲且跨所有加速器跑他們的模型。黃仁勳:我就是證據。你拿一個為輝達最佳化的模型,然後試著在別的東西上跑。帕特爾:但美國的實驗室確實在那麼做。黃仁勳:而且它們跑得並不更好。輝達的成功就是完美的證據。AI模型是在我們的軟體棧上建立的且在我們的軟體棧上跑得最好,這怎麼就不合邏輯了?帕特爾:Anthropic的模型在GPU上跑也在Trainium和TPU上跑。黃仁勳:需要做很多工作才能改過來。但是去全球南方並去中東。開箱即用,如果所有AI模型都在別人的技術堆疊上跑得最好,那你現在就是在提出一個荒謬的主張說這對美國是好事。帕特爾:但我不理解這個論點。假設中國公司先推出了下一個Mythos。他們先在美國軟體裡發現所有安全漏洞,但他們可以在輝達硬體上運行然後擴展到全球南方。這怎麼會是好事?黃仁勳:那不好。所以我們別讓那發生。帕特爾:你為什麼認為這是完全可以替代的,如果你不給他們運算力,它就會被華為完全取代?他們是落後的對吧?他們的晶片比你差。黃仁勳:現在有證據即他們的晶片產業巨大。帕特爾:你可以直接比較一下H200和華為910C的Flops、頻寬或記憶體。華為那款大概只有H200的二分之一到三分之一。黃仁勳:他們用更多的數量來彌補。帕特爾:看來你的論點是他們有所有這些現成的能源對吧?他們需要用晶片來填充。黃仁勳:而且他們擅長製造。帕特爾:我相信最終他們也許能在製造上超過所有人。但眼下這幾年很關鍵。黃仁勳:你說的關鍵幾年具體是那些年?帕特爾:就是接下來的幾年。我們會擁有能發動各種網路攻擊的模型。黃仁勳:在那種情況下如果接下來的幾年是關鍵,那麼我們必須確保世界上所有的AI模型都是在美國技術堆疊上建構的。帕特爾:如果它們是在美國技術堆疊上建構的,那又怎麼防止它們如果它們擁有更先進的能力去發動等同於Mythos的網路攻擊呢?黃仁勳:無論如何都沒有保證。帕特爾:但如果你提早擁有它,我們可以為它做準備。黃仁勳:聽著你為什麼要讓AI產業的一層失去整個市場以便你能讓另一層受益?有五層且每一層都必須成功。最需要成功的那一層是AI應用。你為什麼如此執著於那個AI模型和那一家公司?為了什麼?帕特爾:因為這些模型實現了這些令人難以置信的攻擊能力而且你需要算力來運行它們。黃仁勳:能源、晶片和AI研究人員生態系統使它成為可能。帕特爾:好我們退一步說。中國得自己建出足夠的7奈米產能。別忘了他們現在還卡在7奈米,而你們會往3奈米、2奈米、1.6奈米走比如Feynman那一代。到時候你在用1.6奈米他們還在7奈米。他們只能靠數量來彌補單顆晶片的性能差距。而他們能源充足。你賣給他們越多晶片他們手裡的總算力就越多。黃仁勳:聽著我只是覺得你的說法太絕對了。美國理應領先。美國的算力規模比世界上任何其他地方都高出100倍。美國理應領先。好吧美國現在就領先。輝達打造的是最先進的技術。我們確保美國實驗室最先知道這些技術並最先有機會購買。如果他們錢不夠我們甚至會投資他們。美國理應領先。我們想盡一切辦法確保美國領先。第一點你同意嗎?我們確實正在這麼做。帕特爾:但如果他們的瓶頸是算力,把晶片運到中國怎麼能讓美國保持領先?黃仁勳:不。我們有Vera Rubin給美國。Vera Rubin是給美國的。現在我算不算美國的一部分?你把我算作美國的一部分嗎?帕特爾:算。黃仁勳:那輝達呢?你把輝達算作一家美國公司對吧?第一為什麼我們不能拿出一種更平衡的監管方式讓輝達能在全球取勝,而不是把全球市場拱手讓掉?為什麼要讓美國把世界讓出去?晶片產業是美國生態系統的一部分,是美國技術領導力的一部分,是AI生態系統的一部分也是AI領導力的一部分。為什麼你的政策和你的理念會導向讓美國放棄全球市場中如此巨大的一塊?帕特爾:阿莫代伊曾引用過一句話,他說這就像波音吹噓我們向敵對國家出售核彈但導彈外殼是波音製造的。這在某種程度上支援了美國技術堆疊。從根本上說你在給敵國這種能力。黃仁勳:把AI和你剛才提到的那些東西相提並論是荒唐的。帕特爾:但AI類似於濃縮鈾對吧?它可以有積極用途也可以有消極用途。我們仍然不想把濃縮鈾送到其他國家。黃仁勳:這是一個糟糕的類比且一個不合邏輯的類比。帕特爾:但是如果這些算力可以運行一個能對美國所有軟體進行零日漏洞利用的模型,那它怎麼就不是一種武器呢?黃仁勳:首先解決這個問題的方法是與研究人員、與中國、與所有國家進行對話,確保人們不以那種方式使用技術。這是必鬚髮生的對話。第二點我們還需要確保美國領先,Vera Rubin、Blackwell在美國大量供應並堆積如山。顯然我們的結果會顯示這一點。我們有大量的算力。我們這裡有很棒的AI研究人員。然而我們也必須認識到AI不僅僅是一個模型。AI是一個五層蛋糕。AI產業在每一層都很重要且我們希望美國在每一層都獲勝包括晶片層。放棄整個市場不會讓美國長期在晶片層、在計算堆疊中贏得技術競賽,這就是事實。帕特爾:我想關鍵問題是現在向中國賣晶片怎麼能幫我們在長期獲勝?你看特斯拉向中國賣了很久的電動汽車,iPhone也在中國賣得很好。但這些並沒有把中國鎖定在美國的技術生態裡。他們照樣做出了自己的電動汽車且現在在全球佔主導。智慧型手機也是一樣。黃仁勳:當我們今天開始對話時你承認輝達的地位非常不同。你用了護城河這樣的詞。對我們公司來說最重要的事情是我們生態系統的豐富性,這關乎開發者。50%的AI開發者在中國。美國不應該放棄這一點。帕特爾:但我們美國有很多輝達開發者,這並不能阻止美國實驗室將來也能夠使用其他加速器。事實上現在他們也在使用其他加速器這很好。我不明白為什麼在中國情況不會是這樣,如果你向他們出售輝達晶片就像Google可以使用TPU和輝達一樣。黃仁勳:我們得持續創新。你可能也知道我們的份額在增長而不是在縮小。你剛才隱含了一個前提即就算我們在中國市場競爭也遲早會輸掉。我不是那種一醒來就覺得自己會輸的人。這種輸家心態和輸家前提對我來說毫無意義。我們不是在造汽車。汽車今天買這個品牌明天換另一個很容易。計算不是這樣。x86能活到今天是有原因的且ARM那麼有粘性也是有原因的。這些生態系統很難替代。換掉它們需要花大量時間和精力且大多數人根本不願意這麼做。所以我們的任務就是繼續培育這個生態系統並不斷推進技術,這樣我們才能在市場上競爭。你基於遲早會輸這個前提就說我們應該放棄一個市場。我無法認同這種邏輯。這沒有道理。我不認為美國是輸家。我們這個行業不是輸家。關鍵是你走向了極端。你的論點從極端開始認為如果我們在關鍵時刻給他們任何算力我們就會失去一切這很幼稚。帕特爾:讓我為自己闡述一下我的論點。我的想法不是說存在某個關鍵的計算閾值而是任何邊際算力都是有幫助的。所以如果你有更多的算力你可以訓練一個更好的模型。黃仁勳:我只想讓你承認對美國技術產業的任何邊際銷售都是有益的。帕特爾:如果跑在這些晶片上的AI模型具備網路攻擊能力,或者這些晶片被用來訓練這類模型並運行更多攻擊實例,那它雖然不是核武器但確實啟用了一種武器。黃仁勳:按你這個邏輯你不如把它用到微處理器和DRAM上。你甚至可以用到電上。帕特爾:但事實上我們確實對製造最先進DRAM的相關技術實施了出口管制。我們對中國製造晶片的各種東西都有各種出口管制。黃仁勳:我們向中國銷售大量的DRAM和CPU且我認為這是正確的。帕特爾:我想這回到了根本問題即AI是否不同?如果你擁有那種能在軟體中發現零日漏洞的技術,我們是否希望最大限度地減少中國首先達到並廣泛部署它的能力?黃仁勳:我們希望美國領先且我們可以控制這一點。帕特爾:如果晶片已經在那裡且他們正用它們來訓練那個模型我們如何控制?黃仁勳:我們有大量的算力。我們有大量的AI研究人員。我們在儘可能快地競賽。帕特爾:再說一次我們擁有的核武器比任何人都多但我們不想把濃縮鈾送到任何地方。黃仁勳:我們不是濃縮鈾且它是一個晶片而且是一個他們可以自己製造的晶片。帕特爾:但他們從你這裡購買是有原因的。我們有中國公司創始人的引言說他們受限於算力。黃仁勳:因為我們的晶片更好。總的來說我們的晶片更好。這是毫無疑問的。如果沒有我們的晶片你能承認華為經歷了創紀錄的一年嗎?你能承認一大批晶片公司已經上市了嗎?你能承認嗎?帕特爾:能。黃仁勳:你能否也承認我們曾經在那個市場擁有非常大的份額而我們現在不再擁有大份額?我們也可以承認中國約佔世界技術產業的40%。為美國技術產業放棄這個市場對我們的國家是一種傷害。對我們的國家安全是一種傷害且對我們的技術領先地位是一種傷害,這一切都為了一個公司的利益。這對我來說毫無意義。帕特爾:我想我有點困惑,感覺你在說兩種不同的陳述。一是如果我們被允許競爭我們將贏得與華為的競爭因為我們的晶片會好得多。二是沒有我們他們也會做完全相同的事情。這兩件事怎麼能同時進行呢?黃仁勳:這顯然是真的。在沒有更好選擇的情況下你會接受唯一的選擇。這怎麼不合邏輯了?這太合邏輯了。帕特爾:他們想要輝達晶片是因為它們更好?黃仁勳:是的。帕特爾:晶片更好意味著更多的算力且更多的算力意味著你可以訓練更好的模型。黃仁勳:我們的晶片更好不只是算力更高,還因為它更容易程式設計且我們有更好的生態系統。而且我們向中國賣晶片美國自己也在受益。我們維持了美國的技術領先地位且開發者繼續在美國技術堆疊上工作。當這些AI模型擴散到全球時美國技術堆疊仍然是那個最適合運行它們的平台。這樣我們就能持續推進和擴散美國技術。我認為這是好事也是美國技術領先地位中非常重要的一環。現在你所倡導的政策導致美國電信行業基本上被政策排擠出世界,以至於我們不再控制自己的電信。我不認為那是明智的。這有點狹隘並且導致了我在向你描述的、你似乎很難理解的意外後果。帕特爾:現在問題很清楚就是好處和成本那個更大。我想讓你承認一個潛在的成本。算力是訓練強大模型的輸入而強大模型確實有很強的攻擊能力比如網路攻擊。美國公司先達到Mythos那種能力水平然後暫緩發佈,給美國公司和美國政府時間修補漏洞並加固軟體這是好事。但如果中國因為獲得了更多算力而更早做出類似的模型並大規模部署,那會很糟糕。這件事到現在還沒發生一個關鍵原因就是美國公司包括輝達擁有更多的算力。所以我們把晶片賣給中國就是在幫他們縮小這個差距。這是一個成本。先不談好處你承不承認這確實是一個潛在的成本?黃仁勳:那我也告訴你另一個潛在的成本。如果我們放棄中國市場即世界第二大市場,就等於把AI堆疊中最重要的一層也就是晶片層整個讓了出去。他們會在自己的市場裡發展規模並建立自己的生態系統。未來的AI模型會針對他們的技術堆疊做最佳化而他們的模型又是開放的。隨著AI擴散到全球其他地方他們的標準和技術堆疊反而會變得比我們的更優越。帕特爾:我想我只是足夠相信輝達的核心工程師和CUDA工程師,認為他們可以最佳化。黃仁勳:AI不僅僅是核心最佳化你知道的。帕特爾:當然但你可以做很多事情比如從蒸餾到一個非常適合你晶片的模型。黃仁勳:我們會盡力的。帕特爾:你擁有所有的軟體。很難想像即使他們在一段時間內有一個稍微更好的開源模型,會對中國生態系統產生長期鎖定。黃仁勳:中國現在是全球開放原始碼軟體最大的貢獻者也是開放模型最大的貢獻者。而今天這些開源生態是建立在美國技術堆疊、建立在輝達之上的。AI技術堆疊的五層都很重要且美國應該每一層都贏。當然最重要的是最上面的應用層,誰能把AI擴散到社會裡用得最多誰就從這場工業革命裡受益最大。但每一層都必須成功。如果我們把這個國家嚇住讓所有人都覺得AI是核彈且所有人都討厭AI、害怕AI,我不知道這對美國有什麼好處。你這是在害美國。如果我們嚇唬所有人讓他們別去學軟體工程說AI會消滅所有軟體工程崗位,結果我們真的沒了軟體工程師那才是對美國最大的傷害。如果我們嚇唬所有人讓他們別當放射科醫生,說電腦視覺已經免費了且AI讀片比人強,那我們是混淆了工作和任務。放射科醫生的工作是照護病人而讀片只是其中的一項任務。如果我們連這個都搞錯了且嚇得沒人去讀放射科,我們最後會缺放射科醫生並缺好的醫療服務。所以我說當你從一個極端前提出發把一切看成要麼零要麼無窮,最後就會用一種不真實的方式嚇唬人。真實世界不是這樣的。我們希望美國第一嗎?當然。我們需要AI技術堆疊的每一層都領先嗎?當然。你今天談Mythos因為Mythos確實重要。但幾年後當美國想把我們的技術堆疊、我們的技術推廣到全世界比如到印度、中東、非洲、東南亞,當我們的國家想出口技術且想出口標準的時候,我希望到那時我們倆能再聊一次。到那天我會告訴你你今天設想的這些政策是如何讓美國無緣無故地放棄了世界第二大市場的。我們不應該主動放棄這個市場。如果競爭不過失去也就失去了但為什麼要主動讓出去?現在沒人主張全有或全無,不是說我們要把所有東西都賣給中國。沒人這麼主張。我們應該始終把最好的技術、最多的技術優先留在美國,並且讓美國最先擁有。但與此同時我們也應該去全球各地競爭並贏下市場。這兩件事可以同時做到。只是需要一些分寸、一些成熟而不是非黑即白。這個世界不是非黑即白的。帕特爾:好關鍵在於這一點。他們會針對自己幾年後能造出的最好晶片來最佳化模型。這些模型會被出口到世界各地從而形成標準。由於EUV出口管制正如我們所說你們將邁向1.6奈米。但即使幾年後他們很可能仍然停留在7奈米。在國內他們可能會說我們有這麼多能源且可以大規模量產所以繼續用7奈米也沒問題。但在出口市場上他們的7奈米晶片要直接跟你們的1.6奈米晶片競爭。到那時候他們的模型必須針對7奈米做極其深度的最佳化,以至於在7奈米上跑他們的模型反而比在你們的1.6奈米上跑效果更好。黃仁勳:我們能不能先看看事實?Blackwell在光刻技術上比Hopper先進了50倍嗎?差得遠。我反覆強調過摩爾定律已經死了。從Hopper到Blackwell單看電晶體姑且說提升了75%吧而且中間隔了三年。但Blackwell比Hopper快50倍。我的觀點是架構很重要且電腦科學也很重要。半導體物理學當然重要但電腦科學同樣重要。AI的影響力主要來自整個計算堆疊,這就是為什麼CUDA如此有效且如此受歡迎的原因。它是一個生態系統且一個計算架構並提供了極大的靈活性。你想徹底改變架構且搞出MoE、搞出擴散模型、搞出分解式架構都能做到而且很容易做到。事實是AI對上層堆疊的依賴程度不亞於下層架構。從這個角度說我們的架構和軟體堆疊是針對我們自己的生態系統最佳化的這本身就是優勢。正如我們剛對話時就談到輝達的生態系統有多豐富。為什麼大家總是首選CUDA來程式設計?因為他們確實喜歡且中國的研究人員也一樣。但如果我們被迫離開中國這是一個政策錯誤,顯然會適得其反且對美國不利。它會加速他們的晶片產業並迫使他們所有的AI生態系統專注於自己的內部架構。現在糾正還不算太晚但事情已經在發生了。你將來會看到他們不會停留在7奈米這很明顯。他們擅長製造且會從7奈米繼續往前推進。那5奈米和7奈米之間有10倍的差距嗎?答案是否定的。架構很重要且網路也很重要,這就是輝達收購Mellanox的原因。能源也很重要。所有這些都很重要且事情並不像你說的那麼簡單。05 輝達為什麼不製造多種不同的晶片架構?帕特爾:我們之前討論了台積電和記憶體等環節的瓶頸。如果未來我們處在這樣一個局面即你已經佔了N3節點的大部分產能且接下來會佔N2的大部分,你會不會考慮回頭用N7的閒置產能?比如說AI需求太大且領先節點的擴產跟不上,那你就用舊節點來造Hopper或Ampere但加上我們今天知道的數值格式改進和其他最佳化。你覺得2030年之前會發生這種事嗎?黃仁勳:沒必要。因為每一代架構的提升不光是靠電晶體尺寸。我們在工程、封裝、堆疊、數值格式、系統架構上做了大量工作。產能不夠的時候再回頭去搞一個舊節點,那需要投入的研發成本沒人負擔得起。我們能負擔的是往前走而不是往回走。當然如果有一天全球產能真的徹底到頭了,問我願不願意回頭用7奈米?我當然願意。帕特爾:有人跟我討論過一個問題即輝達為什麼不併行做幾個完全不同架構的晶片項目?比如像Cerebras那樣的晶圓級晶片或者像Dojo那樣的大封裝甚至做一個不帶CUDA的。你們有資源也有人才且可以同時做這些。既然AI和晶片架構的方向不確定為什麼要把所有雞蛋放在一個籃子裡?黃仁勳:我們可以做只是我們沒有發現更好的方向。你說的那些我們都模擬過且結果證明它們不如現在的方案。所以我們不做。我們正在做的就是我們想做的。如果未來的工作負載發生根本性變化我不是指演算法而是指實際的計算任務類型,這取決於市場的需求形態,我們可能會考慮增加其他類型的加速器。比如最近我們納入了Groq且會把它整合到CUDA生態裡。原因在於Token的價值現在已經很高了且可以對Token實行差異化定價。幾年前Token要麼免費要麼很便宜。現在不同客戶有不同的需求且願意為不同的答案付不同的錢。比如我們的軟體工程師如果能給他們響應更快的Token讓他們效率更高,我願意為此多付錢。但這個市場是最近才出現的。所以我們決定擴展帕累托前沿並做一個響應更快但吞吐量更低的推理細分市場。以前吞吐量高就是更好,但現在我們認為可能存在一個高ASP(平均售價)Token的市場即使工廠的總吞吐量下降更高的單價也能彌補。這就是我們做這件事的原因。除此之外如果我有更多的錢我還是會投到輝達現有的架構上。帕特爾:這種高端Token和推理市場細分的想法很有意思。假設深度學習革命沒有發生輝達現在在做什麼?黃仁勳:加速計算且我們一直在做這個。我們公司的基本判斷是通用計算的擴展能力基本到頭了。所以我們把GPU和CUDA跟CPU結合起來,把CPU上的某些工作負載解除安裝到GPU上加速。這樣可以把一個應用提速100倍甚至200倍。這些應用可以是工程、科學、物理、資料處理、電腦圖形、圖像生成等等。即使沒有AI,輝達也會是一家非常大的公司。原因很簡單即通用計算繼續擴展的路基本走完了且出路在於特定領域的加速。我們起步於電腦圖形但還有很多其他領域涵蓋粒子物理、流體、結構化資料處理等等都能從CUDA受益。我們的使命就是把加速計算帶給世界並推進那些通用計算做不了的應用,幫助突破某些科學領域。早期的應用包括分子動力學、能源勘探的地震資料處理、圖像處理等等。如果沒有AI我會很難過。但正因為我們在計算上取得的進步,我們讓深度學習變得普及了。任何研究人員、科學家、學生都能用一台PC或一張GeForce顯示卡做很厲害的科學。這個基本承諾一點都沒變。你看GTC大會開頭那部分跟AI一點關係都沒有,包括計算光刻、量子化學、資料處理。這些工作依然非常重要。我知道AI很讓人興奮但還有很多人做著非常重要且跟AI無關的工作。張量不是唯一的計算方式。我們想幫助所有人。帕特爾:非常感謝。黃仁勳:不客氣。我很享受與你的對話。帕特爾:我也是。 (網易科技)
中國AI四小龍,全部去見了總理
不是百度,不是阿里,不是騰訊。總理的座談會上,中國AI創業江湖的"四小龍"終於湊齊了一桌。從2024年3月到2026年4月,智譜AI、DeepSeek梁文鋒、MiniMax閆俊傑、月之暗面楊植麟,先後坐到了總理對面。四個男人,覆蓋了80後、85後、90後三個世代;廣東潮汕與湛江,河南商丘縣城,浙江杭州錢塘江畔,串聯起中國AI最生猛的草根逆襲史。他們帶著各自的"技術圖騰":一個逆勢漲價,一個開源封神,一個不信天才,一個搖滾反叛。這是中國AI獨有的故事。智譜AI 清華土著第一家受邀的是智譜AI。2024年3月,調研新質生產力座談會,第一個出場的AI公司就是它。張鵬,標準的清華"土著",清華電腦系本碩博連讀,在清華園待了近十年,連創業都是清華老師唐傑帶的隊。圈內人都說,他身上那股"技術原教旨主義"的勁兒,很清華。2026年1月,智譜AI在香港上市,成為"大模型第一股"。張鵬有一句很狠的話:"智能上界決定了定價權。"當所有人在價格戰裡殺紅了眼,比誰更便宜時,他逆勢漲價。邏輯很簡單:只有把模型能力做到極致,才有資格定價格,而不是靠燒錢補貼換市場。這種底氣來自智譜的"技術護城河",自研的GLM架構,不走尋常路,而是用"自回歸填空"的原創設計。2026年發佈的GLM-5採用超大規模MoE架構,在國產晶片上跑出了比雙卡叢集還強的性能。智譜的CodeGeeX程式碼大模型,在程式設計圈程式設計師裡的口碑,被稱為"國產Copilot最強平替"。張鵬相信,AGI不是炒概念,而是一行程式碼一行程式碼摳出來的工程問題。梁文鋒 全球AI都意外第二家,DeepSeek。2025年1月20日,政府工作報告座談會,梁文鋒第四個發言。鏡頭裡的他,眼神平靜得像一潭深水。1985年,梁文鋒出生在廣東湛江吳川,一個連五線城市都算不上的地方,父親是當地小學老師。2002年,17歲的他以吳川一中"高考狀元"的成績考入浙江大學電子資訊工程專業。2008年全球金融危機,在浙大讀研的梁文鋒嗅到了機會。他拉著同學,用機器學習探索全自動量化交易。2015年,30歲的梁文鋒創立幻方量化。6年後,管理規模突破千億,躋身中國"量化四大天王"。但外界不知道的是,2019年,他豪擲2億元搭建“螢火一號”,搭載1100塊消費級顯示卡;2021年,又砸10億元建“螢火二號”,搭載萬張輝達A100"。別人炒股賺錢買房,他炒股賺錢買顯示卡。2023年,梁文鋒帶著這些"計算軍火"殺入大模型戰場。2025年,DeepSeek-R1橫空出世,用557萬美元的訓練成本(僅為GPT-4的零頭),干翻了矽谷的一眾巨頭。Meta、微軟連夜研究他的技術路線。他最著名的一句話是:"中國AI和美國真實的gap,是原創和模仿的差距。"這句話,成了中國AI行業反攻的起點。梁文鋒極其低調,卻在2022年以"一隻平凡的小豬"名義,向慈善機構捐款1.38億元。閆俊傑 不相信天才第三家,MiniMax。2026年1月,討論"十五五"規劃的座談會上,閆俊傑坐在對面。1989年,閆俊傑出生在河南商丘的一個縣城,高中在縣城中學度過。。2006年考入東南大學數學學院,隨後進入中科院自動化所碩博連讀(2015年博士畢業於中國科學院自動化所模式識別國家重點實驗室),並在清華大學電腦系從事博士後研究。2014年,25歲的閆俊傑在百度深度學習研究院實習。那是中國AI的"黃埔軍校",他在這裡第一次直觀感受到大規模算力的顛覆性價值。據說,他一個人就用掉了百度當時三分之一的GPU算力做實驗,還拿下了百度獎學金。轉折發生在2021年春節。閆俊傑回河南老家,外公說想寫一本回憶錄,但不會打字,也沒辦法組織語言。這個做了十年AI的博士突然意識到:他做的技術,對一個想寫回憶錄的老人來說,一點用都沒有。那一刻,他決定要做"普通人能用上的AI"。2021年底,離職創立MiniMax。閆俊傑有一句座右銘:"AI不是神秘黑盒,而是可用第一性原理解析的工程問題。AGI是科學,不是魔法。"他旗幟鮮明地反對"天才論",認為大模型領域貢獻前50的人,可能沒一個在中國公司工作,中國公司要做的就是"聚攏一批素質優秀的人,做一個成長型組織"。四小龍裡,MiniMax是唯一放棄盲目追求"超級模型"的,專攻Agent和程式設計。他們的M2系列,被稱為"國產Claude平替",最新M2.7實現了"模型自己訓練自己"的AI進化。更驚人的是成本,MiniMax用OpenAI約1%的研發投入(累計4.5億美元),實現了全模態技術全球領先,團隊385人,平均年齡29歲,70%收入來自海外。2026年3月,MiniMax市值突破3800億港元,超越了曾經的"導師"百度。在MiniMax內部,閆俊傑有一個花名叫“IO”,既是電腦語言的輸入輸出,也是DOTA裡那個專職輔助隊友的英雄。這很符合他的自我定位:“成功是體系和組織的勝利,不是個人的勝利。”他曾評價自己“可能只是二流研究者”,但堅信二流研究者加上一流組織,能打敗一流研究者的單打獨鬥。楊植麟 "Token經濟學"第四家,月之暗面。2026年4月10日,經濟形勢座談會,楊植麟作為科技企業家出席。1993年,楊植麟出生在廣東汕頭。這是四小龍裡唯一的90後,潮汕人。他的成長史像一部青春電影:高中時零程式設計基礎,被選拔進資訊學奧賽培訓班,拿下廣東一等獎,保送清華。但他放棄保送,以667分的高考成績成為汕頭市理科狀元,考入清華熱能工程系。大二轉專業進入電腦系,師從唐傑教授。在清華,他還是搖滾樂隊Splay的鼓手和詞曲作者,曾晉級清華校園歌手大賽原創決賽。他坦言,選擇電腦專業,是因為村上春樹的一篇小說,讓他對"深夜寫程式碼讓科技落地"的角色印象深刻。2015年,他進入卡內基梅隆大學(CMU),師從蘋果AI負責人Ruslan Salakhutdinov和Google首席科學家William Cohen。4年時間,他完成了通常需要6年的博士課程,提出的Transformer-XL與XLNet模型,成為自然語言處理領域的里程碑,至今被引用上萬次。他參與過Google Gemini、Google Bard、盤古NLP、悟道等大模型的研發。2023年創業,公司名"月之暗面"(Moonshot AI)來自他崇拜的搖滾樂隊Pink Floyd的專輯《The Dark Side of the Moon》。楊植麟最廣為人知的觀點是:"Token消耗在未來可能將直接意味著GDP產出。"誰消耗的Token越多,誰的經濟就越活躍。在AI Agent時代,這就是新的GDP演算法。技術路線上,楊植麟是"長文字"和"原生多模態"的堅定信徒。2026年發佈的Kimi K2.5,上下文窗口擴展到200K,並引入了Linear注意力架構和Attention Residuals(注意力殘差),讓馬斯克都直呼"令人印象深刻"。他提出了"智能體叢集"(Agent Swarms)的概念,認為未來的智能將從單智能體向動態生成的叢集進化。2026年3月,月之暗面完成新一輪融資,投前估值180億美元(約1300億人民幣),帳上現金儲備超過100億元。但楊植麟說,"短期內不著急上市"。小結一個時代的註腳。你看這四個人:一個清華土著,一個浙大天才,一個縣城做題家,一個潮汕搖滾青年。46歲,40歲,36歲,33歲。當有的AI公司還在套殼做大模型、卷流量、應付AI考試時,這四個人,正在卷"智能上界"、卷"原創架構"、卷"國產算力"、卷"全球化"。張鵬說:"智能上界決定定價權。" 梁文鋒說:"中國AI不能永遠跟隨。" 閆俊傑說:"AGI是科學,不是魔法。" 楊植麟說:"Token消耗就是GDP。"四句話,四個技術哲學,四種商業路徑。為什麼選擇見他們,而不是見網際網路巨頭?中國AI,正在從"應用創新"轉向"硬核創新",從"跟隨者"轉向"規則制定者"。四小龍全部到位,中國AI的牌桌,重新發牌了。 (奇偶工作室)
中國具身智能第一城,宇樹心裡其實清楚,不在杭州
2025年,杭州策劃了個“六小龍”概念火遍全國;到了年底,我們預判,以杭州的網紅性格,今年初她肯定會再搗鼓出個產業概念,吸一把眼球,這是典型的產業發展品牌策劃。果然,新年伊始,新概念就來了!杭州在人工智慧產業領域擲出新口號,喊出打造“人工智慧創新發展第一城”的目標,擺出ALL IN人工智慧的姿態全力衝刺。平心而論,杭州喊出這個目標並非空穴來風,底氣是有的——DeepSeek、阿里千問、宇樹機器人、阿里達摩院等一眾明星企業與科研機構齊齊亮相,構成了杭州人工智慧產業的核心陣容。一時間外界普遍相信,這座依託數字經濟崛起的城市,大機率能將“第一城”的目標落地成真,甚至不少人在輿論引導下覺得“對哦,杭州就是人工智慧第一城”。宇樹科技機器人春晚武術表演 @網路果然心理暗示的力量遠比想像中強大。你拚命告訴自己能做成一件事,那怕當下差距明顯,憑藉這份執念與自驅力,最終大機率能得償所願。馬雲在創辦阿里巴巴之初,面對網際網路行業的一片空白,始終堅信自己能搭建起連接世界的電商平台。這種邏輯,同樣適用於城市的產業發展——“喊出目標”從來都不是無用功。對城市而言,這是給自己的心理暗示(天天喊自己是第一,不按第一的標準去做不好意思吧!),更是打造產業品牌、吸引資源聚集,一句擲地有聲的口號,讓全球的人才、資本、技術都將目光聚焦於此——想著AI創業的人,怎麼也會想著去杭州看看。相信相信的力量,杭州人深知其理。01 “大腦” 是產業的核心話語權但回歸產業本身,我們釐清一個核心問題:在當下最火熱的具身智能賽道,誰才是真正斷代領先的“第一城”?要回答這個問題,我們回望智慧型手機時代的產業格局,能找到清晰的答案。智慧型手機浪潮席捲全球時,誰是移動網際網路的第一城?答案顯然不是重慶、鄭州、崑山、東莞這些手機本體製造領先的城市——它們能實現千萬台級的手機組裝,卻無法掌握移動網際網路年代的核心價值。真正的第一城,是聚集了大量網際網路應用軟體企業的深圳、杭州和上海。在美國也是如此,軟體企業扎堆的舊金山,遠比那些專注於硬體製造的城市更具話語權。其中的邏輯再簡單不過:隨著產業鏈成熟,攢一台智慧型手機的門檻會越來越低,決定手機價值的,從來不是外殼和硬體堆砌,而是其“大腦”——作業系統和各類應用軟體,我們早已領教了每天離不開微信但能隨時換一個手機牌子的日子。位於美國舊金山的蘋果總部 @網路這個道理,放在如今的具身智能產業上,同樣適用,甚至更為關鍵。宇樹心裡比誰都清楚,機器人本體製造的壁壘會越來越低,未來大機率會像當年的智慧型手機組裝一樣,越來越多的城市、越來越多的企業都能掌握這項技術。真正能決定具身智能產業格局、建構不可踰越壁壘的,從來不是機器人本體,而是其“大腦”——也就是大腦控制、世界模型、資料開發等核心技術。而從現在的資料看,這些領域的頂尖企業,絕大部分都集中在北京,或是由北京孵化成長起來。可以這麼說,人形機器人的核心技術密度,放到全世界也是北京第一。02 北京的硬實力就在杭州全力喊出“第一城”口號的同時,北京的極佳視界宣佈完成近10億元Pre-B輪融資,估值穩步逼近百億,成為國內具身智能領域的後起之秀。作為國內首家佈局世界模型的企業,極佳視界的核心競爭力不是機器人本體製造,而是建構了一套完整的“具身基模-世界模型-原生本體-泛化場景”四位一體的產品矩陣,其自研的GigaBrain系列具身基模在真機評測中拿下全球第一,複雜長時程任務(如摺紙盒、疊衣)的成功率接近100%;而世界模型平台GigaWorld,更是實現了10-100倍的訓練效率提升,通過“模擬+真機”雙輪驅動,解決了真實資料採集成本高、泛化難的行業痛點,被業界稱為“物理世界的OpenAI”。極佳視界從一開始就聚焦於具身智能的“大腦”和“認知能力”,這種佈局讓其在同質化競爭中脫穎而出,也成為北京具身智能產業核心競爭力的縮影。極佳視界產品在多種場景中執行任務 @極佳視界官網在北京,像極佳視界這樣手握核心技術、建構起技術壁壘的具身智能企業,還有很多,它們共同構成了北京具身智能產業的“大腦矩陣”。帕西尼感知科技(北京)是其中的典型代表,它擁有全球唯一的百億級實采全模態資料集,徹底解決了行業內感知資料稀缺、精度不足的痛點。銀河通用機器人則在具身大模型和資料訓練領域做到了全球領先。作為目前國內具身智能領域估值最高的未上市企業(200億),銀河通用的核心優勢,在於自研的銀河星腦(AstraBrain)——這是全球首個整合“大腦-小腦-神經控制”於一體的全身全手端到端具身大模型。同時,銀河通用還建構了百億級具身智能資料集“銀河星坊”,首創虛實融合訓練範式,這種訓練模式讓機器人的訓練效率位元斯拉高出1000倍,泛化抓取成功率達到95%以上。頤和園內工作的銀河通用機器人Galbot @北京海淀類似的領先企業還有很多,比如星海圖在開發者生態和資料閉環領域形成了絕對領先優勢,它的輪式雙臂機器人R1 Pro/R1 Lite,覆蓋了90%以上的全球頂級開發者,其中就包括史丹佛大學李飛飛團隊——要知道,李飛飛作為人工智慧領域的頂尖學者,曾力排眾議建立ImageNet大型圖像資料庫,發起的ImageNet視覺識別挑戰賽,成功發現了辛頓教授的神經網路價值,推動了深度學習革命的爆發,其團隊選擇星海圖的產品作為研發工具,足以印證其技術的先進性。李飛飛團隊用星海圖機器人推出BRS機器人套件 @網路從核心技術佈局來看,北京在大腦控制(VLA/具身大模型/運控)、世界模型(模擬+物理推演)、資料開發(實采/合成/工具鏈)三大核心領域,形成了完整的產業生態,核心企業數量和百億估值企業數量,遠超上海、杭州、深圳。根據最新統計,北京在大腦控制領域有18家核心企業,其中6家達到百億估值;世界模型領域有8家核心企業,2家實現百億估值;資料開發領域有10家核心企業,3家突破百億估值。而上海、杭州、深圳三地在這三大領域的核心企業總和為31家,百億估值企業總和僅為3家,北京的領先優勢堪稱斷代級。可以說,在具身智能領域,北京的領先不是微弱的優勢,而是全方位、斷代式的領先,是名副其實的中國具身智能第一城。北京與上深杭具身智能核心領域企業對比情況 @網路03 喊出來與做出來可能有人問:既然北京已經是毫無爭議的具身智能第一城,像杭州那樣天天喊“第一城”、搞各種賽事和宣傳,有必要嗎?我們的答案是:非常有必要。這不是虛頭八腦的噱頭,而是產業品牌建設的核心動作,是對未來所有優秀企業、人才植入的心智認知。你是第一城,和你能讓所有人都知道你是第一城,是完全不同的兩回事。大聲喊出“第一城”的口號,對內,不斷給自己施加心理暗示,時刻提醒自己:要做第一城該做的事,不能有絲毫懈怠;對外,讓全球的人才、資本、技術都形成“要做具身智能,就去北京”的認知,從而吸引更多優質資源聚集,進一步鞏固領先優勢。這個和踢球就去英超淘金、打籃球就去NBA,是一個道理。就像我們常說的:一個餐廳人多,是因為人多。杭州把產業品牌敢喊出來,這做法其實值得北京學。杭州喊出“人工智慧第一城”的口號後,並沒有停留在口頭宣傳,而是快速落地了一系列實際動作。2026年新年伊始,杭州就籌備組織具身機器人場景應用大賽,邀請阿里、綠城等龍頭企業出題,這些題目都源自企業的真實業務痛點,確保比賽的實用性;同時邀請國家機器人檢測與評定中心等權威機構打分,保證比賽的專業性,面向全球邀請優秀團隊參賽,旨在破解具身智能技術從實驗室走向市場的“最後一公里”難題.杭州2026國際具身智慧型手機器人場景應用大賽 @杭州經信很多人可能覺得這場比賽只是一場普通的賽事,但懂的人都懂,這樣的動作蘊含巨大的價值——當年李飛飛在史丹佛大學發起的ImageNet視覺識別挑戰賽,看似只是一場學術比賽,卻成功發現了辛頓教授的神經網路價值,印證了Scaling Law的正確,直接推動了深度學習革命的爆發,改變了全球人工智慧的發展格局。杭州的這場賽事,本質上就是在複製這種模式——通過賽事挖掘優質團隊、推動技術落地,同時強化自身的產業品牌形象。這種“喊得出、做得到”的態度,是不是該學學。李飛飛的推動下,史丹佛大學成立以人為本人工智慧研究院@網路04 第一城的格局與擔當客觀來說,北京在具身智能產業發展中,還有很多需要提升:城市創新魅力空間營造不如上海,產業主理人專業服務不如杭州、供應鏈快速響應不如深圳、而在產業品牌營造方面,北京與美國奧斯汀等國際科技城市相比,還有不小的差距。這就是第一城該有的思考:敢於正視差距、診斷問題、補齊短板,努力打造具身智能第一城的“六邊形戰士”。奧斯汀西南偏南 @網路我們之所以寫下這篇文章,不僅僅是為了釐清“中國具身智能第一城”的真實格局,更想向所有關注具身智能產業的讀者傳遞一個信念:我們深知北京在具身智能領域的領先優勢,更清楚短板和不足。具身智能是未來十年、二十年最具發展潛力的未來產業。我們願與所有深耕具身智能領域的企業、人才、投資者並肩前行,堅守初心、用十年、二十年的時間,做一件極其有意義的事——我們共同努力,讓北京成為全球公認的具身智能第一城,讓中國具身智能技術引領和造福世界。 (TOP創新區研究院)
DeepSeek V4 新進展:使用華為昇騰晶片, 從CUDA生態轉變為CANN框架!
有關Deepseek V4 要來的消息可以說是從去年炒到今年,本月真的要來了嗎?根據相關報導——DeepSeek創始人梁文鋒近日在內部溝通中透露,DeepSeek V4將於4月下旬正式發佈。真的可謂是“千呼萬喚始出來,猶抱琵琶半遮面”了!但從節奏上看,這一訊號並非孤立出現:首先是,Deepseek 網頁端出現疑似新模型測試痕跡。在4月8日,Deepseek 上線“專家模式”與“快速模式”;以及在部分使用者中又增添了一個視覺模式(vision),被認為是V4 版本的灰度測試。第二,多項關於“兆參數、超長上下文、國產算力適配”的資訊開始集中流出。換句話說,DeepSeek V4 的發佈,從“長期預期”,進入到了可驗證的倒計時階段。網傳模型更新內容有關V4的模型內容在網路上傳的沸沸揚揚,有的媒體使用了洩露的基準測試資料進行了測試。網傳的更新內容包括:最佳化 MoE 架構,推理成本極低繼承 V3 的 MoE 設計,但更進一步。採用兆參數混合專家架構,每次推理過程中,只有約 320 億個參數處於啟動狀態。這使得推理成本和速度與 V3 相當,甚至 API 定價可能比 GPT-5.4 等低 20-50 倍。有網友評論:“V4 改變了幾乎所有內容,除了每花一美元最大化能力的核心理念。”引入Engram 條件記憶:“記”與“算”分開引入條件記憶機制,將靜態知識儲存與動態推理計算分離,能夠高效地從超過 100 萬個詞元的上下文中檢索資訊。傳統 Transformer 把所有知識塞進參數,容易導致長上下文檢索衰退;Engram該模組將經典的 N-gram 嵌入現代化,以實現 O(1) 尋找。效果也很顯著:提升了長上下文檢索能力(例如,Multi-Query NIAH:從 84.2 提升到 97.0);減輕 Transformer 主幹負擔,讓模型“記性好”且不浪費視訊記憶體——與 MoE 的條件計算互補。備註:2026 年 1 月 DeepSeek 開放原始碼的論文技術 | GitHub: deepseek-ai/EngrammHC(Manifold-Constrained Hyper-Connections,流形約束超連接)這是 DeepSeek 在 2026 年1月份發佈的另一項架構創新論文成果,主要解決超大規模(兆級)訓練中的梯度不穩、訊號爆炸問題。備註:論文連結 https://arxiv.org/abs/2512.24880通過 Sinkhorn-Knopp 等數學約束,將層間連接投影到流形上,把訊號放大控制在合理範圍(例如從傳統方法的 3000 倍壓到 1.6 倍以內)據報導:可提升訓練效率約 30%,讓兆參數模型的訓練變得可行。除此之外,還有降低注意力計算成本的DSA機制——這使得 1M 上下文窗口成為可能等等。等到Deepseek-v4正式發佈,各位大佬可以對照一下~採用國產晶片這個可以說是小編最期待的一點。晶片問題一直是行業最敏感也最關鍵的痛點。過去幾年,中國大模型開發幾乎離不開輝達GPU,從訓練到推理都高度依賴CUDA生態。一旦遇到出口管制或供應鏈波動,整個AI落地節奏就會被卡住。而根據The information媒體的報導:DeepSeek 即將推出的 V4 型號將採用華為技術有限公司生產的硬體;與華為和寒武紀科技直接合作,對 V4 核心軟體架構的部分內容進行了修改;V4 預計將在未來幾周內亮相,同時還將推出另外兩款正在研發中的衍生型號。而在以往大模型開發,早期測試往往優先給輝達、AMD等美系晶片測試。而V4反過來,將完全運行在華為最新AI晶片上(主要為Ascend 950PR,部分適配寒武紀晶片)。阿里、字節跳動、騰訊等巨頭已提前向華為採購數十萬顆新一代昇騰晶片(Ascend 950PR等),晶片價格一度上漲約20%。華為3月發佈的Atlas 350加速卡搭載該晶片,FP8算力達1PFLOPS、FP4算力達2PFLOPS,支援多種低精度,單卡性能強勁。X上神秘的Elephant Alpha.在正式發佈前,通過匿名模型進行灰度測試,正在成為大模型行業的常見方式。在今年2月,一個名為Pony Alpha的匿名模型出現在OpenRouter上,五天後智譜確認這是其GLM-5系統的一部分;OpenRouter 上也曾短暫出現Hunter Alpha和Healer Alpha,憑藉兆參數與超長上下文迅速引發關注,並一度被猜測為 DeepSeek V4 的前期測試版本——後續被證實是小米 MiMo-V2系列的早期測試版。而昨天, X.上又出現了一款名為 Elephant Alpha 且擁有 1000 億參數的即時模型,讓網友興奮起來了!有網友猜測是 DeepSeek V4,也有網友認為它是Qwen,或者其他系列的模型,與騰訊混元同步發佈根據相關媒體報導: DeepSeek V4或與騰訊混元或將同期發佈。而混元模型的負責人姚順雨曾經是OpenAI研究員,於2025年底從OpenAI回國加入騰訊。DeepSeek V4或與騰訊混元的這次撞期,並非是簡單的同台PK,更像是大模型兩條技術路徑(“底層架構+自主硬體”和“場景驅動+Agent落地”)的碰撞。 (51CTO技術堆疊)
奧特曼住所遭燃燒彈襲擊,嫌疑人揚言燒燬OpenAI總部/曝DeepSeek V4本月下旬發佈/AI能力將成教師「必考項」
🤖阿里認領屠榜神秘模型「歡樂馬」,ATH 鄭波團隊打造🤯山姆·奧特曼住所遭燃燒彈襲擊、OpenAI 總部遭威脅🧠梁文鋒內部透露:DeepSeek V4 將於 4 月下旬正式亮相🌚「龍蝦之父」Claude 帳號被封又解封,官方:系統誤判📋AI 能力將成教師「必考項」📱億咖通科技官宣正式承接 Flyme OS 全業務💻蘋果 Mac 一季度出貨量增長 9%,增速領跑全球 PC 市場📲微信官宣九項新功能:公眾號上線「話題」功能,跨裝置傳檔案無需加好友💰追覓俞浩:要把宇樹的一切全部搶過來🦿集邦諮詢:今年中國人形機器人產量預計年增 94%,宇樹、智元合計佔八成份額🔍小米 7 篇論文入選 ACL 2026:推理快 8 倍、80 頁合同秒讀🚀生數科技完成近 20 億元 B 輪融資,阿里雲領投🛑無償轉讓失敗,360doc 個人圖書館宣佈 5 月 1 日關停💡Arm CEO:AI 自研晶片潛在市場超 1000 億美元,可觸達總市場或破兆🚗限時 19.39 萬元起,煥新極氪 007GT 正式上市🚙華為 Pura 90 定檔 4 月 20 日💻盧偉冰官宣 REDMI Book Pro 2026,本月發佈🚗小鵬 x 福耀量產 AI 調光隱私玻璃,GX 首發搭載📰 周末也值得一看的新聞阿里認領屠榜神秘模型「歡樂馬」,ATH 鄭波團隊打造昨天,阿里巴巴 ATH 確認神秘屠榜視訊模型 HappyHorse 為旗下創新事業部研發。此前,該模型在 AI 評測平台 Artificial Analysis 視訊競技場榜單上橫空出世、以壓倒性表現登頂文生視訊、圖生視訊等多個賽道,直接超越近期熱度頗高的字節 Seedance 2.0,引發廣泛猜測。APPSO 獨家獲悉,負責 HappyHorse 視訊生成模型的是來自阿里 ATH 的鄭波團隊。鄭波現任阿里巴巴副總裁,2017 年 9 月加入阿里巴巴後歷任淘寶搜推演算法負責人、阿里媽媽 CTO、淘天集團演算法技術負責人,研究方向涵蓋大模型、多模態、決策智能、深度學習及搜尋推薦廣告演算法等領域。阿里方面表示,HappyHorse 目前仍處於內測階段,API 介面計畫於 4 月 30 日開放。該模型支援四種視訊生成模式:文字轉視訊與圖像轉視訊,每種模式均可選擇是否加入原生音訊。ATH 創新事業部同時透露,已啟動一項面向 AI 時代全新互動方式的探索計畫,HappyHorse 是該方向的組成部分,後續還將陸續推出更多產品。阿里方面同時提示,此前網路上流傳的「官網」均非官方管道。山姆·奧特曼住所遭燃燒彈襲擊、OpenAI 總部遭威脅據 CNBC、BBC 報導,當地時間 4 月 10 日凌晨 4 時 12 分,一名男子向 OpenAI CEO 薩姆·奧特曼(Sam Altman)位於北海灘(North Beach)的私人住宅投擲燃燒彈,導致大門外側起火後徒步逃離現場。約 55 分鐘後,同一名男子出現在 OpenAI 舊金山總部大樓外,公開揚言要焚燒整棟建築,隨即被趕到的警方當場逮捕。該嫌疑人為一名 20 歲男性,目前已被羈押,具體身份及犯罪動機尚未公佈,案件調查仍在進行中。事件中無人員傷亡。OpenAI 發表聲明稱:「感謝舊金山警方的快速響應以及市政府在保障員工安全方面給予的支援。嫌疑人目前已被羈押,我們正全力配合執法部門的調查工作。」奧特曼當天在個人部落格上就此事公開發聲,並附上了一張家人合影。他寫道,自己「低估了語言和敘事的力量」,並表示過去幾年「極度緊張、混亂且充滿壓力」,呼籲 AI 行業各方對「言辭和行動方式」進行降溫。他同時表示理解外界對技術的批評與擔憂,但仍堅信技術進步能夠為未來帶來積極影響。梁文鋒內部透露:DeepSeek V4 將於 4 月下旬正式亮相據《創智記》報導,DeepSeek 創始人梁文鋒近日在內部溝通中透露,DeepSeek V4 將於本月下旬正式發佈。此前,V4 的發佈時間已多次延期。原計畫於今年 2 月中旬春節前後推出,後因國產算力深度適配、架構重構與穩定性打磨等原因持續推遲。在技術層面,V4 將帶來兆參數規模與百萬級上下文窗口,並首次實現與華為昇騰等國產晶片的深度適配。據悉,V4 最大的技術亮點在於 LTM(Long Term Memory,長期記憶)能力的突破。儘管外界期待頗高,但多位與 DeepSeek 深入合作的 AI 創業者提示,V4 很難再複製去年 DeepSeek-V3 的市場影響力。與此同時,梁文鋒正推動公司從純模型研發嚮應用層延伸,組建產品團隊,並啟動公司估值以明確員工期權價值。「龍蝦之父」Claude 帳號被封又解封,官方:系統誤判今天凌晨,OpenClaw 的創始人 Peter Steinberger 在 X 平台發文,稱自己的 Claude 帳號遭到封禁。他曬出了一封來自 Anthropic 安全團隊的郵件,郵件措辭簡短,僅表示「認定存在違反使用政策的行為」,未說明具體違規條款,亦無任何事先警告。Steinberger 表示,被封禁的不只是 API 存取權,個人帳號同樣受到波及,這意味著他連日常的相容性測試都無法正常進行。以後要確保 OpenClaw 還能跑在 Anthropic 的模型上,恐怕是越來越難了。Anthropic 員工 Thariq Shihipar 隨後出現在評論區,表示封號「很可能是另一個有點過於敏感的濫用檢測分類器誤判了」,並非針對 OpenClaw 使用者的主動決定,並承諾私信 Steinberger 協助處理。不久後,Steinberger 發推確認帳號已恢復。🔗 相關閱讀:突發|龍蝦之父的 Claude 被封了,官方:系統誤判AI 能力將成教師「必考項」據新華社、央視新聞報導,教育部等五部門近日聯合印發《「人工智慧+教育」行動計畫》,旨在一體推進人工智慧人才培養與應用創新,系統建構智能時代的教育體系。昨日,教育部在新聞發佈會上披露了該行動計畫的核心內容。其中最受關注的一項舉措是:人工智慧將被正式納入教師資格考試和認證內容,AI 能力將成為未來教師的基本職業素養之一。教學上,行動計畫提出圍繞課前、課中、課後的全流程教學場景,加強智能教學系統的應用,幫助教師減負增效;同時輔助開展作業管理,推進智能批改、答疑和輔導;借助智能技術分析課堂教學行為,幫助教師提升教學質量;面向基礎教育,行動計畫明確加快普及中小學生人工智慧教育,要求開齊、開足、開好相關課程,推動人工智慧教育全面納入地方課程體系。此外,計畫還鼓勵開展人工智慧跨學科教學,推動其融入課後服務、研學實踐等環節;在高等教育層面,行動計畫要求推動人工智慧成為高校公共基礎課,按學科專業分類編寫教材,推動全體學生掌握 AI 相關知識。與此同時,高校將被引導開設人工智慧交叉融合課程,豐富跨學科、跨專業課程群,培養複合型交叉人才,並根據產業結構的智能化升級趨勢,新設一批適應新技術、新產業、新業態的學科專業。億咖通科技官宣正式承接 Flyme OS 全業務億咖通科技昨日宣佈,正式啟動承接星紀魅族集團旗下 Flyme OS 全部核心資產與業務。根據整合安排,Flyme OS 品牌所涵蓋的全部智慧財產權,以及 Flyme Auto 的全部在運業務、客戶合同及研發團隊,將整體納入億咖通科技,由公司統一營運管理。億咖通科技由吉利控股集團創始人李書福與沈子瑜於 2016 年聯合創立,吉利控股是其重要戰略股東——今年 1 月,吉利控股剛以每股 1.67 美元的價格完成對億咖通 4560 萬美元的定向增持。此次 Flyme OS 業務整合,正是吉利體系內「一個吉利」戰略收縮與資源集中的延續動作,旨在將旗下智能出行相關資產統一歸口至億咖通平台營運。依託在智能座艙軟硬體平台及全球化交付方面的既有能力,億咖通科技將加速作業系統與車載應用場景的適配,提升協同效率和產品迭代能力。整合工作將按照業務優先順序有序推進,明確權責邊界,妥善安置員工,確保平穩過渡。後續,億咖通科技計畫整合 Flyme OS 產品優勢,融入 AI 智能體,建構跨終端智能生態,加速出行場景 AI 共生。蘋果 Mac 一季度出貨量增長 9%,增速領跑全球 PC 市場市場研究機構 IDC 發佈的最新資料顯示,蘋果 2026 年第一季度 Mac 出貨量同比增長 9%,增速跑贏全球 PC 大盤。同期,全球 PC 市場整體增長率僅為 2.5%。該季度,蘋果 Mac 總出貨量達 620 萬台,較去年同期的 570 萬台穩步提升;全球市場份額方面,蘋果由去年同期的 8.9% 攀升至 9.5%,在 PC 廠商中穩居全球第四。榜單前三名依次為聯想(1650 萬台)、惠普(1210 萬台)和戴爾(1030 萬台)。IDC 統計顯示,除惠普外,多數頭部 PC 品牌均在該季度實現出貨量正增長。微信官宣九項新功能:公眾號上線「話題」功能,跨裝置傳檔案無需加好友昨天,微信官方號「微信公開課」發文,盤點了 3 月集中推出 9 項功能更新,覆蓋內容創作、跨境支付、檔案傳輸、商業生態等多個維度:公眾號新增「話題」功能,創作者可主動發起話題並搭建專屬話題頁,將自己發佈及粉絲產出的同類內容聚合展示,使用者可通過圖文正文中的 #話題連結、文章底部的「更多相關內容」以及公眾號「看一看」三個入口進入;視訊號帶貨短影片發佈條數增加,擁有 1000 粉絲且具備短影片商品分享權限的創作者,10 萬粉以下帳號每天可發 5 條,10 萬粉及以上帳號每天可發 10 條;視訊號短影片同步支援掛載「商品合集」,創作者可將多款關聯商品一次性打包上架,實現一條視訊帶貨多個商品;視訊號小遊戲優質作者激勵計畫啟動,活動持續至 4 月 30 日,粉絲數超過 1000 的視訊號或外站創作者報名後發佈符合要求的視訊並掛載小遊戲變現任務,即可獲得基礎現金激勵,爆款視訊還可獲得額外獎勵,上不封頂;微信、企業微信支援接入 AI 智能體,微信上線 ClawBot 外掛能力,使用者可通過微信聊天方式連接自己的龍蝦(Claw);企業微信推出掃碼接入「龍蝦」功能,並將 CLI 開放原始碼專案正式上架 GitHub,面向 10 人及以下企業,支援 Claude Code、Codex、Work Buddy、QClaw 等主流 AI 智能體,向 AI 開放消息、日程、文件、會議等 7 大核心能力;新增面對面跨裝置掃碼傳檔案功能,支援 iPhone 與Android手機之間互傳照片和檔案,無需加入好友,支援原圖直傳,且不依賴行動網路或外部 Wi-Fi 網路;壓縮包支援直接預覽,收到壓縮包後無需下載或解壓即可查看內容,還可選擇單個或多個檔案進行一鍵保存、轉發或收藏;首爾地鐵 1 至 8 號線全站新型售票機支援微信支付購票,除單程票外,還可掃碼購買 T-money 卡、氣候卡及定期票;微信小店商品標籤上新,騰訊廣告(小店版)新增「熱搜品」和「機會品」標籤,系統將對商家已託管及未託管商品進行標註,幫助商家更高效識別高潛商品;微信小店推出新商家六大權益,包括 0 保證金試營運、自營交易額技術服務費率降至 1%、流量激勵、成長攻略以及百款經營工具免費試用,助力新商家快速冷啟。追覓俞浩:要把宇樹的一切全部搶過來據介面新聞報導,昨日,一張追覓科技創始人俞浩在內部工作群「魔法原子」中發佈的聊天截圖曝光。截圖顯示,俞浩以強硬語氣要求團隊對競爭對手宇樹科技展開全面反擊,並提出「2 億年薪招首席科學家」,同時要求搶奪宇樹科技的客戶、投標、員工及直播間資源,甚至喊出「宇樹的所有客戶、所有投標、所有員工要全部搶過來」。魔法原子是追覓科技旗下專注具身智慧型手機器人業務的核心主體,由俞浩擔任創始人與實際控制人。集邦諮詢:今年中國人形機器人產量預計年增 94%,宇樹、智元合計佔八成份額根據 TrendForce 集邦諮詢最新的人形機器人深度研究報告,今年下半年全球人形機器人產業將進入商業化的關鍵階段。中國廠商積極提升產量,預計將推動今年全年中國人形機器人市場產量年增高達 94%。研報預計,宇樹科技與智元機器人憑藉各自的盈利能力與量產進度,在激烈競爭中脫穎而出,兩者合計預計將囊括近 80% 的市場出貨份額。宇樹科技於三月底申請科創板 IPO 並獲受理,上市招股書顯示其 2025 年人形機器人產品收入首度超越四足機器人,佔總收入 51% 以上,兩項業務合計毛利率達 60%,打破了外界對機器人產業「只燒錢不盈利」的固有印象。智元機器人於三月底迎來第 10000 台通用具身機器人遠征 A3 完工出廠。智元將 2025 年量產數量從 1000 台提升至 5000 台後,僅用三個月便達成了一萬台的里程碑。從整體產業趨勢來看,TrendForce 集邦諮詢指出,此前多數人形機器人廠商專注於感知、動態平衡與語義理解等底層能力的積累,今年下半年焦點將轉向為使用者提供真實價值。小米 7 篇論文入選 ACL 2026:推理快 8 倍、80 頁合同秒讀昨天,小米技術宣佈,小米 AI 團隊共有 7 篇研究成果入選 ACL 2026,覆蓋端側推理最佳化、多頁文件理解、長上下文注意力、通用資訊抽取、對話語音生成、手機 AI 智能體評測與訓練策略七個方向。ACL 是自然語言處理領域 CCF-A 類頂級會議,本屆大會將於今年 7 月在美國聖地亞哥舉行。推理最佳化方向,VecInfer 通過向量量化壓縮 KV cache,在 196k 上下文的 Llama-3.1-8B 上實現 8.3 倍端到端延遲降低,2-bit 量化下仍接近全精度性能;文件理解方向,Doc-V* 無需 OCR 即可處理 80 頁以上長文件,在四個公開基準上取得開源最優,相比 RAG 基線提升 9.8 個百分點;針對大模型「只看首尾、忽略中間」的問題,Attention Basin 提出 AttnRank 方法,僅通過輕量文件重排即可提升長文理解,無需訓練、零額外延遲;語音方向,ZipVoice-Dialog 實現非自回歸雙人對話語音生成,團隊同步開源了首個 6800 小時規模對話語音資料集 OpenDialog;AI 智能體評測方面,MobileBench-OL 覆蓋 80 款中文主流應用的 1080 個任務,結果顯示當前最強 AI 面對 20 步以上操作的成功率不足兩成;訓練策略方面,STEP 以成功率感知的自適應重採樣集中訓練困難任務,在相同計算預算下收斂更快;ProUIE 則以 4B 參數骨幹、不引入任何外部資訊,在 36 個公開資料集上超越多種強基線。生數科技完成近 20 億元 B 輪融資,阿里雲領投生數科技昨天宣佈完成近 20 億元人民幣 B 輪融資,由阿里雲領投,中網投、九安海棠、好未來、光合創投等機構戰略投資,星連資本、達泰資本、建發新興投資、BV 百度風投、卓源亞洲等原有股東持續追加。融資完成後,生數科技表示將持續夯實通用世界模型底層能力,並加速全球化人才佈局,建構支撐前沿模型與全球業務發展的核心團隊。無償轉讓失敗,360doc 個人圖書館宣佈 5 月 1 日關停據鞭牛士報導,營運逾二十年的個人知識庫平台 360doc 個人圖書館宣佈,將於 2026 年 5 月 1 日正式終止所有服務。創始人蔡智發佈告別信稱,過去兩個月他嘗試將平台無償轉讓,但最終以失敗告終。他曾與具備承接能力的網際網路巨頭洽談,做過方案、推進過試點,「也等過、求過、忍過」,但最終「被擱置,被推諉,熬盡了最後一絲力量」。此前今年 1 月,360doc 曾發佈無償轉讓公告,尋求具備誠意與能力的夥伴接管平台全站資產,包括核心技術、資料及營運團隊,並要求接手方具備不少於 500 萬元的資金實力,以及清晰可行的持續營運計畫。蔡智在信中透露,也有跨界朋友與創業公司遞來橄欖枝,但他最終未予選擇,原因是「沒有網際網路經驗、沒有 AI 能力,這個平台接過去,只會變成負擔」。他同時堅決拒絕了試圖購買域名和使用者資料的人,「8000 萬使用者的資料,一旦流入灰產,後果不堪設想」。蔡智表示,與其將隱患留給未來或被轉賣,「不如在還可控的時候,親手畫上一個穩妥的句號」。360doc 個人圖書館於 2005 年上線,目前平台使用者超 8000 萬,收錄文章逾 11 億篇。💡 Arm CEO:AI 自研晶片潛在市場超 1000 億美元,可觸達總市場或破兆據彭博社報導,Arm CEO Rene Haas 昨天在採訪中表示,AI 浪潮正在為晶片行業帶來規模高達千億美元的市場機遇,而 Arm 已將戰略重心從智慧型手機轉向資料中心與雲端運算。Haas 指出,智能體 AI(Agentic AI)的興起對 CPU 算力的需求是傳統 AI 的四倍,而當前資料中心市場對這一需求的供給嚴重不足。他同時透露,已有多家客戶主動向 Arm 提出定製晶片的需求,這也促使公司推出了首款自研晶片產品。該產品名為 Arm AGI CPU,由 Arm 自主設計、台積電代工製造,目前已獲得 Meta、SAP、Cloudflare、Cisco、OpenAI 等多家企業的訂單,預計將於今年年底開始出貨。在市場規模方面,Haas 給出了一組對比鮮明的數字:Arm 傳統授權模式下,雲端運算與 AI 業務帶來的版稅收入對應的潛在市場規模約為 30 億美元;而 AGI CPU 這條新產品線在未來四至五年內,潛在市場規模將超過 1000 億美元。若將機器人、可穿戴裝置等更廣泛的 AI 應用場景納入考量,Arm 可觸達的整體市場規模甚至可能超過 1 兆美元。Haas 強調,AI 是一項「觸達整個地球」的技術,無論是資料中心、機器人還是小型可穿戴裝置,Arm 均有機會以 IP 授權、計算子系統或晶片產品的形式參與其中。他認為,Arm 的市場機遇「已經變得遠比以前寬廣得多」。限時 19.39 萬元起,煥新極氪 007GT 正式上市昨日,極氪在發佈會上正式推出煥新極氪 007 與煥新極氪 007GT,兩款車型採用同價策略,官方指導價均為 20.39 萬元起,限時上市權益價 19.39 萬元起。007GT 後驅版零百加速 4.8 秒,四驅版 2.85 秒;75kWh 神盾金磚電池 / 103kWh 麒麟電池對應 CLTC 續航 702km / 880km,分別支援 5.5C 和 6C 快充,SoC 10% 至 80% 最快 10 分鐘;車身長寬高 4858/1900/1450mm,軸距 2925mm;新增 FR-LINE 性能套裝,含 20 吋雷霆鍛造輪圈、橙色四活塞卡鉗及競速黃 Dinamica 運動內飾;標配 31 個感知硬體(含 1 顆雷射雷達)+ Thor-U 晶片,千里浩瀚 H7 方案,新增 120km/h 高速爆胎穩定控制;高通驍龍 8295 晶片,35.5 英吋 AR-HUD + 15.4 英吋 2.5K 中控屏 + 13.02 英吋儀表屏三聯屏;標配閉式空氣懸架 + CCD 電磁減振 + 智能魔毯,新增運動 + 模式,四驅版可選賽道模式;後備廂 645L,最大拓展至 1737L,支援 150kg 車頂行李架與 1.6 噸電動拖車鉤。華為 Pura 90 定檔 4 月 20 日昨天,華為宣佈,Pura 系列及全場景新品發佈會將於 4 月 20 日 14:30 舉行。本次發佈會預計推出影像旗艦 Pura 90 系列、全新「闊折疊」Pura X Max,以及涵蓋耳機、手錶、AI 眼鏡在內的多款可穿戴新品。華為同步放出了 Pura 90 Pro Max 的外觀。機身延續三角形相機 Deco 的家族設計,但螢幕形態從前代等深四曲屏改為與 Mate 80 系列一致的直屏設計。影像方面,據數位閒聊站爆料,Pura 90 Pro Max 將搭載 2 億像素、1/1.28 英吋潛望鏡,配備定製大光圈與長焦微距,「一鏡雙目」特性大機率不會繼承;1 英吋主攝很可能僅為 Pura 90 Pro Max 獨佔,其餘版本採用 1/1.28 英吋主攝。配色共五款,分別為主打色「橘子海」、「霞光紫」(紫黃漸變)、「翡翠湖」(綠白漸變)、「曜石黑」和「晨曦金」。盧偉冰官宣 REDMI Book Pro 2026,本月發佈昨天,小米集團合夥人、總裁盧偉冰官宣了 REDMI Book Pro 2026 筆記本,將於本月與 REDMI K90 Max 同場發佈,定位 REDMI 全新高性能 AI 旗艦筆記本。網傳爆料如下:提供 14 英吋和 16 英吋雙版本,沿用前代模具設計;最高搭載第三代英特爾酷睿 Ultra X7 358H 處理器,配合 LPDDR5X 高頻記憶體,支援擴展至 32GB + 1TB / 4TB PCIe 4.0 SSD;搭載全新超級小愛,支援在本地建立個人知識庫,實現跨裝置檔案檢索的同時保護使用者隱私;新增一鍵遠端開關機功能,滿足使用者在外應急辦公的需求;16 英吋版本配備 99Wh 超大容量電池,14 英吋版為 92Wh,能量密度較前代提升 9.6%,均支援 90W PPS 反向快充,可為手機進行快速充電。小鵬 x 福耀量產 AI 調光隱私玻璃,GX 首發搭載昨天,小鵬集團與福耀集團在福州福耀玻璃園區聯合舉辦發佈活動,雙方共同研發的 AI 調光隱私玻璃正式亮相,並完成首塊量產交付。這款玻璃將首發搭載於小鵬 GX。其核心技術基於 LC 染料液晶原理,通過電場控制分子排列來調節透光度,並結合整車電子電氣架構與 AI 大模型實現智能適配。調光響應速度達到 0.16 秒,隱私模式下透光率最低可至 0.6%,調節跨度超過 12%;暗黑狀態下可隔絕 99.9% 的紫外線與 99.4% 的可見光;小鵬 GX 全車共搭載 6 塊 AI 調光隱私玻璃,總面積達 1.88 ㎡,為同級最大;採用 5 層夾膠結構配合定製隔音膜片,相比同厚度鋼化玻璃可降低 3 ~ 5 dB 噪音;電控液晶調光技術全程無化學變化、無材料磨損,官方稱可實現百萬次調光無衰減;支援 AI 自適應調光,依託外部光照感知實現無級調節,自動匹配最優透光度。無問芯穹發佈端雲一體智能終端 InfiniClaw Box無問芯穹昨天正式發佈端雲一體智能終端 InfiniClaw Box,主打隱私保護,在本地完成資料脫敏、借助雲端大模型推理、再將結果回填至本地,全程實現「資料不出盒」。全模態脫敏:支援文字、圖像、音訊、視訊資料的本地脫敏處理,可自動識別並替換姓名、手機號、身份證號、財務資料、醫療記錄等敏感資訊,突破現有方案僅覆蓋文字的侷限;雲端強模型呼叫:脫敏後的請求接入無問芯穹大模型服務平台,可低成本呼叫 GLM-5、Kimi-K2.5、MiniMax-M2.5、Step-3.5 等頭部模型完成複雜推理,雲端全程無法接觸原始資料;本地隱私回填:雲端結果由本地「隱私重構引擎」進行精準位置感知的自動回填,確保輸出的完整性與上下文一致性與純雲端處理無異;多信源接入:支援連接家庭攝影機、智能門鎖、外接麥克風,並計畫接入電腦、智能眼鏡、手機、平板等終端,提供標準化開放介面;晶片性能最佳化:通過深度 NPU/GPU 算子融合、張量佈局尋優與視訊記憶體復用,Attention 和 GEMM 等核心算子實現 10% 至 40% 的加速;內建垂類 Skills:預置超過 80 個面向政務處理、投資研報、智慧辦公等場景的專業 skill。在生態層面,InfiniClaw Box 已與愛芯元智、AMD、此芯科技、財搭子、萬象智維、酷愛科技、躍向等企業建立合作,覆蓋晶片適配、外設互聯與應用場景共創等多個維度。MiniMax Music 2.6 發佈昨天,MiniMax 正式發佈新一代音樂生成模型 Music 2.6。據悉,此次更新對底層生成架構進行了深度重構,首包延遲大幅降至 20 秒以內,並在音樂控制能力與聲學品質方面實現全面提升。MiniMax 還推出了全新的「Cover」創作功能,面向全球創作者開啟為期 14 天的免費內測。MiniMax 同步推出並開源了 3 個 Music Skill:minimax-music-gen2(專屬音樂人)、minimax-music-playlist(個性歌單生成器)和 buddy-sings(寵物歌手),旨在將專業音樂生成能力直接融入 AI 開發者生態。智源開源 AI 智能體安全框架 ClawKeeper近日,北京智源人工智慧研究院聯合北京郵電大學與中國資訊通訊研究院發佈 AI 智能體即時安全框架 ClawKeeper v1.0,項目已在 GitHub 開源,論文同步發佈。ClawKeeper 專為 OpenClaw 平台設計,核心思路是「用 AI 智能體監管 AI 智能體」,首創技能(Skill)、外掛(Plugin)、觀察者(Watcher)三層防禦架構,覆蓋 AI 智能體全生命周期安全。其中,完全獨立於業務邏輯之外的 Watcher 元件作為系統級安全中介軟體,可即時評估每一輪互動的工具呼叫軌跡,在檢測到高危操作時直接接管執行流程並強制觸發人工確認,徹底解決了傳統方案中「安全與效率相互牽制」的根本矛盾。在基準測試中,ClawKeeper 對提示詞注入、憑據洩露、危險命令執行等 7 類高危場景實現 100% 覆蓋,防禦成功率達 85% 至 90%。Watcher 還具備持續學習能力,在連續處理 100 個對抗性樣本後,防禦成功率從 90% 進一步提升至 95%。💻 GitHub: github.com/SafeAI-Lab-X/ClawKeeper📑 論文:arxiv.org/abs/2603.24414現代電動品牌 IONIQ 將通過北現工廠進行國產據藍鯨汽車報導,現代汽車旗下電動化品牌 IONIQ(艾尼氪)將通過北京現代工廠進行國產,正式以品牌形式進入中國市場。此前,IONIQ 旗下車型曾以進口形式在國內銷售。今年,IONIQ 將有新車上市,未來三年還將推出多款車型,覆蓋中、大型細分市場,涵蓋 SUV 和轎跑兩種車身形式,提供純電和增程兩種動力選擇。據悉,其全系產品將以圍繞太陽公轉的行星命名,由中國設計團隊原創打造。在本土化策略上,IONIQ 將在設計、技術、產品和營運四個維度深度落地。電池方面,該品牌預計將與寧德時代合作;智能駕駛方面,將與 Momenta 展開合作。管道上,品牌計畫打造「北京現代汽車文化中心」等超越傳統汽車展廳的品牌據點。IONIQ 品牌成立於 2020 年,由現代汽車早期的同名單一車型演變而來。2021 年 2 月,IONIQ 5 正式發佈,此後相繼推出 IONIQ 6、IONIQ 9 及高性能版本 IONIQ 5N 等全球車型,品牌累計銷量目前已超過 55 萬輛。Alienware 外星人遊戲嘉年華下周登陸上海Alienware 外星人遊戲互動嘉年華將於今年 4 月 17 日至 18 日登陸上海西岸穹頂藝術中心,活動集中呈現 40 餘款全球熱門遊戲 IP、電競賽事、Coser 巡遊及品牌產品體驗。本次嘉年華設有專屬產品體驗區,Alienware 外星人高端遊戲 PC、專業電競顯示器、職業級電競外設及全新輕薄旗艦本將悉數亮相,搭配超百台 Alienware 外星人高性能電競裝置供玩家上手試玩。賽事層面,Alienware 自營電競賽事品牌 AGA(ALIENWARE GAME ARENA)春季城市總決賽將於 4 月 17 日在主舞台打響,來自全國各大賽區的選手將同台角逐。Alienware 外星人高校電競賽總決賽同期舉行,由上海海洋大學與中南大學展開對決。康師傅「再來一瓶」全國兌獎難引發投訴潮據介面新聞報導,康師傅今年 3 月重啟的「再來一瓶」促銷活動遭遇「兌獎難」問題。該活動涵蓋兩種規格綠茶產品,虛擬獎品總量超 4400 萬份,兌獎期截至今年 9 月 30 日。陝西西安朱先生按小程序指引輾轉 4 家門店均遭拒;山東淄博邵先生多次中獎,撥打客服電話遲遲未獲回覆;天津王女士跑遍五六家門店無功而返,客服承諾「專人跟進」,直至獎品過期也無人聯絡。有消費者直言:「沒有兌換能力就別做活動」。不吸也違法:香港公共場所全面禁止持有電子煙據南都·灣財社報導,香港將於今年 4 月 30 日起正式實施最嚴控煙新規,禁止任何人在公眾場所持有電子煙、加熱煙及草本煙。值得注意的是,即便只是隨身攜帶而未實際吸食,同樣構成違法。根據香港《2025 年控煙法例(修訂)條例》,違規處罰按持有數量分為兩檔:持有不超過 5 個煙彈、5 毫升煙油、100 支加熱煙支或 100 卷草本煙的,將被處以 3000 港元定額罰款;若持有量超出上述標準,則以檢控方式處理,一經定罪最高可被罰款 5 萬港元並處監禁 6 個月;若當事人拒絕配合提供身份證明或故意妨礙執法,罰款上限可升至 1 萬港元。在執法範圍上,公眾場所涵蓋街道、商場、公園,以及住宅大廈或辦公樓的公共區域(如大廳、電梯、走廊等),目前唯一合法持有的場所僅限私人住宅內部。香港衛生署明確表示,新規自 4 月 30 日起即嚴格執行,不設過渡期,亦不存在「首次違規先警告」的機制,赴港旅客同樣不會獲得豁免。✨ 是周末啊!One Fun Thing|SBTI 人格測試一夜刷屏:31 道題罵你是「廢物」,伺服器崩了三次日前,一款名為 SBTI(Silly Big Test Inventory)的人格測試沖上熱搜,並在朋友圈引發大規模刷屏。🔗 相關閱讀:SBTI說我廢物,這是今年聽過最舒服的一句話該測試以 MBTI 為框架,推出了「尤物」「嗎嘍」「廢物」「死者」等一系列荒誕自嘲標籤,測試頁面更是直接喊出「MBTI 已經過時,SBTI 來了」。SBTI 共設 31 道題,耗時約 5 分鐘,不問壓力與情緒,只問日常態度與生活習慣,最終給出帶有強烈戲謔色彩的人格判定。區別於 MBTI 慣用的正向描述,SBTI 的人格描述以自嘲和調侃為主,例如「廢物」人格寫道:「給廢物一顆糖,它會還你一個完全信任你、亮晶晶的眼神。」由於流量過於集中,SBTI 伺服器數度崩潰,大量使用者只能靠截圖「雲體驗」。據測試頁面介紹,該測試由 B 站 UP 主 @蛆肉兒串兒 製作,最初的起因極為日常——只是想勸一位愛喝酒的朋友戒酒。作者自稱人格為「SHIT」,並表示「由於作者的人格是憤世者,所以平等地攻擊了各位,在此抱歉!」作者同時說明,自己並非心理學專業,測試內容以娛樂為主。沒有很好地平衡娛樂和專業性,對於一些人格的闡釋較為模糊或完全不准,如有冒犯非常抱歉。4 月 10 日深夜,作者發佈新連結,稱已按建議做出略微修改,「應該不會再崩了」。💻 GitHub: github.com/UnluckyNinja/SBTI-test👉 測試入口: https://sbti.unun.dev周末看什麼|《挽救計畫》《挽救計畫》(Project Hail Mary)由菲爾·羅德與克里斯托弗·米勒聯合執導,德魯·戈達德編劇,改編自安迪·威爾同名暢銷科幻小說。影片主演瑞恩·高斯林飾演中學科學教師瑞恩·格雷斯——一個被動捲入人類存亡危機的「工具人」。故事設定中,一種名為「噬星體」的太空微生物正在吞噬太陽,地球文明面臨滅頂之災。格雷斯在毫無選擇的情況下被送上單程太空任務,孤身前往鯨魚座 T 星尋找解法。途中,他意外與同樣身處絕境的外星工程師「洛基」相遇,兩個截然不同的文明由此展開跨物種協作,共同破解噬星體的威脅。截至目前,《挽救計畫》在豆瓣獲得 8.6 分,逾 32 萬人參與評分。買書不讀指南|《大廠小民:我在網際網路公司的 1480 天》這本書以第一人稱視角記錄了張小滿在網際網路大廠工作四年的親歷。作為中台部門的一線員工,她在 1480 天裡經歷了一次「創業」、三個崗位、七次考核、兩次被裁員。她將這份工作比喻成「一顆來自他人寄存的水晶,如此可貴又如此容易失去」。她將大廠員工歸納為三類:深耕專業領域的「掃地僧」、擅長包裝說服的「銷售員」,以及默默耕耘卻與升職加薪無緣的「農民」。人人都希望成為「掃地僧」,但最後大部分人都做了「農民」的事。完備福利與高壓考核並存,正是大廠讓人「一邊批判,一邊把追隨變成習慣」的根源。張小滿最終在經濟下行期被裁員,此後完成寫作,追問工作的本質:「工作本質是交易,但不應只是如此。」遊戲推薦|《紅色沙漠》《紅色沙漠》(Crimson Desert)是由韓國開發商 Pearl Abyss 開發並行行的開放世界動作冒險遊戲,以僱傭兵 Kliff 為主線角色展開敘事。遊戲融合了探索、戰鬥、解謎、迷你遊戲等多元玩法,野心勃勃地試圖將《巫師 3》式的冒險、《荒野大鏢客:救贖 2》式的慢節奏敘事、《王國之淚》的開放解謎與《上古捲軸》系列的自由度整合於一體。遊戲上線後口碑呈現明顯的兩極分化。媒體聚合平台 Metacritic 給出 PC 版綜合評分 78/100,OpenCritic 評論推薦率為 82%。IGN 評測人 Travis Northup 在經歷約 130 小時的主線及支線流程後,給出 6/10 的評價,稱其「極具野心,卻在令人印象深刻與令人抓狂之間劇烈搖擺」。 (APPSO)