#ai
微軟祭出在亞洲最大投資,175億美元豪賭印度AI
12月9日,微軟CEO薩提亞·納德拉(Satya Nadella)通過X發文稱,公司承諾投資175億美元,幫助印度建構人工智慧未來發展所需的基礎設施、技能培訓和自主能力建設。納德拉是在當日會見印度總理莫迪後宣佈的這一消息的。這位全球市值第四高企業的印度裔掌舵者表示,這是微軟在亞洲有史以來最大的一筆投資。這筆投資將在2026年至2029年逐漸落地。微軟方面稱,投資的重點是以超大規模資料中心為核心的AI基礎設施建設。其中,微軟在特倫甘納邦首府海得拉巴的資料中心預計2026年中投運,屆時將成為其在印度最大的資料中心。截圖來自社交平台X以全球投資切入,微軟重新佈局AI戰略據微軟官方發佈的新聞稿,納德拉與莫迪的會晤是“微軟印度AI之旅的開端”。但實際上,今年1月納德拉訪印時,就已宣佈過一項30億美元的投資計畫。不到一年,投資金額暴漲至175億美元,超過了微軟近一年多以來宣佈的在葡萄牙、阿聯、加拿大等主權國家的AI投資。據最新的投資承諾,微軟表示,到2030年為2000萬印度人提供必要的AI技能,並在當地創造就業機會,同時,利用AI技術為印度政務數字平台的建設提供支援,向印度客戶推出Sovereign公有雲和私有雲服務,開放Copilot本地資料處理服務,幫助印度建設數字主權解決方案。納德拉發文後,莫迪也在社交平台回應稱“在人工智慧領域,世界對印度充滿信心”,表示“印度青年將抓住這一機遇進行創新,利用AI的力量為建設更美好的地球而貢獻力量”。截圖來自社交平台X微軟在印度加碼AI業務並不令人意外。該公司進入印度市場已有三十餘年,業務佈局廣泛,當地有2.2萬餘名員工。從雲端運算到人工智慧,印度的政策紅利、勞動力成本優勢、IT和網際網路產業基礎以及地緣位置等都受到微軟重視。微軟從去年起開啟的數輪全球大裁員,影響了近兩萬名員工,但印度公司始終享有豁免權。在海外AI投資激增,2026年資本支出衝向千億美元大關的背景下,印度也再次成為微軟在亞洲的第一選擇。值得注意的是,這次大手筆投資正發生在微軟重新思考戰略轉型之際。根據Business Insider的報導,微軟的一份內部備忘錄顯示,納德拉正在推動微軟重新思考其在AI時代的商業模式,並為此聘用了曾在公司雲端運算發展中做出貢獻的羅爾夫·哈姆斯(Rolf Harms)擔任AI經濟學顧問。報導稱,此舉旨在像雲業務轉型時代一樣,對公司人工智慧發展進行一次徹底改革。雖然改革的具體措施暫未可知,但從納德拉近期的一系列演講、對談,尤其是與OpenAI CEO薩姆·奧爾特曼(Sam Altman)、Stripe聯合創始人約翰·科裡森(John Collison)等人的對談來看,基建、規模化、“Agent工廠”的軟體生態、海外業務和通過私有雲建立企業(甚至國家)的“數字主權”,都是其關注的核心問題。納德拉也數次表示,微軟的全球投資“把美國最好的技術帶到世界各地,讓各國、企業以信任為基礎進行創新”,並強調這對美國和微軟本身的長遠發展都有利。早些時候,KeyBanc的一份報告曾分析稱,微軟仍是目前最具戰略意義的AI軟體服務供應商,其Copilot AI平台的使用率高達76%,繼續加大資本支出有望為公司帶來更多收穫。大舉佈局擁有廣泛網際網路、IT基礎,被視為增長潛力極大的印度市場,或能進一步提升公司在AI產業生態中的地位。Google、輝達同樣有意印度AI就在會見納德拉的同日,莫迪還會見了英特爾CEO陳立武和美國IT龍頭高知特(Cognizant)CEO拉維·庫爾瑪·S(Ravi Kumar S)。根據《印度時報》報導,莫迪在談話中強調了政府大力吸引外國投資進入人工智慧、半導體和數字基礎設施等戰略領域的決心。與此同時,英特爾還與印度塔塔集團簽署了合作備忘錄,計畫在半導體領域展開合作。英特爾聲明稱,正進一步探索在快速增長的印度市場中迅速擴展AI PC解決方案,以鞏固其將印度定位為公司未來技術戰略主要基地的計畫。目前來看,有意印度市場的科技巨頭遠不止於此。根據彭博社的報導,輝達CEO黃仁勳和GoogleDeepMind CEO、2024年諾貝爾化學獎得主德米斯·哈薩比斯(Demis Hassabis)均計畫在明年訪問印度。尤其是Google,該公司CEO桑達爾·皮查伊(Sundar Pichai)與納德拉一樣是印度裔,今年十月,皮查伊宣佈Google將在未來五年內在印度投資150億美元,並興建其美國以外最大的資料中心。近期,Google又通過印度電信巨頭Reliance Jio,向其5億使用者提供了18個月的Gemini 2.5 Pro的免費使用權,旨在快速擴展市場,提升使用者使用率。此外,Google還在印度投資了不少AI初創企業,並有意將其整合進自身的AI生態。同樣地,亞馬遜在今年宣佈5年內在印度投入127億美元用於本地雲和AI基礎設施建設。與微軟關係密切的OpenAI也於今年11月在印度推廣了為期一年的ChatGPT Go免費訂閱服務,並計畫在該國投建資料中心。對科技巨頭來說,印度的人口規模既是新的市場空間,也是人工智慧的潛在訓練場,該國在科技專業人才上儲備同樣充沛,平均勞動力成本又較低,看起來的確是個不錯的投資選擇。而對於印度政府來說,AI已被視為未來發展的重要戰略陣地,但莫迪推動出台的“印度人工智慧使命”(India AI mission)等計畫成效並不明顯,吸引美國技術、資本顯然已被視為破局之道。根據諮詢機構高力國際(Colliers)的預測,印度資料中心5年內有望增長三倍以上。印度國家軟體與服務業企業協會(NASSCOM)則在此前的一份展望報告中提到,2027年印度的人工智慧市場規模有望提升至170億美元,接近目前水平的三倍。 (鈦媒體AGI)
比GPU性能更強?TPU全解析(AI算力、Google、輝達、智算中心)
AI能在幾秒內處理百萬條資料,背後靠的是什麼晶片?常聽人說GPU支撐AI算力,那TPU又在起什麼作用?它和我們手機裡的晶片有本質區別嗎?實際上TPU就像AI的專屬廚師,專門做AI最需要的算力工作,不多但精準高效。一、TPU1、TPU不是一開始就為通用AI設計的很多人以為TPU從誕生就針對大模型訓練,其實它最初是Google為自家業務定製的工具。Google ML發展關鍵時間線(2011-2015)2015年前後,Google的搜尋排序、語音識別這些服務需要大量重複的數值運算,當時的GPU處理起來總有些力不從心,要麼速度不夠,要麼耗電太多。Google工程師乾脆重新設計晶片架構,把所有計算資源都集中在這類運算上,這就是第一代TPU的由來。後來大模型興起,大家才發現這種架構剛好符合AI的需求,TPU才從Google內部走向公開市場。TPU v12、TPU不用常見的快取設計普通電腦和手機晶片裡,快取是個重要部件,就像書桌邊的抽屜,常用的東西放裡面方便拿。可是TPU不怎麼依賴快取,反而用了超大頻寬的記憶體。這是因為AI運算的特點和普通計算不一樣,它需要處理海量連續的資料,比如一張圖片的像素點或者一段文字的編碼,這些資料要不斷輸入計算單元。快取的容量再大也裝不下這麼多連續資料,換成高頻寬記憶體,就能像消防水管送水一樣,把資料快速送到計算部分,反而更高效。二、晶片設計1、架構設計TPU的設計第一步就是設計架構,這就像蓋房子先畫圖紙,決定了晶片的性能上限。架構設計要先明確晶片的用途,是給大模型訓練用,還是給智能音箱這類裝置做推理用。訓練用的TPU需要更強的平行計算能力,能同時處理海量資料;推理用的TPU則更看重能效比,不能太耗電。Google最新的Trillium TPU就是典型的訓練型架構,把多個計算部分連在一起,還最佳化了資料傳輸的路徑,相比上一代訓練速度提升了4倍多,能耗反而降了不少。TPU v4 架構2、演算法適配比單純增加參數更重要設計TPU不能只看硬體參數,還要和AI演算法配合好。不同的AI模型,比如圖像識別和語言翻譯,運算邏輯不一樣。如果晶片架構和演算法不匹配,就算參數再高也沒用,就像用菜刀砍骨頭,再鋒利也不如斧頭順手。Google的TPU能在Gemini模型上做得很好,就是因為設計時針對多模態模型的運算特點做了最佳化,比如加強了對圖像和文字混合資料的處理能力。國內企業設計TPU時,也會針對政務、金融這些領域的特定演算法做調整。人工智慧模型訓練計算量趨勢圖3、IP核採購TPU設計不用所有部分都從零開始,有些通用模組可以直接買現成的IP核。IP核就像現成零件,比如記憶體控製器、介面模組這些,有專業公司專門研發銷售。買IP核能節省大量時間,不用再花幾年研發這些成熟技術,還能降低風險。大部分中小設計企業都會用這種方法,只專注於TPU主要計算部分的設計。Google這樣的大企業,為了追求最好的性能,會自己研發所有IP核,但投入的研發費用往往要數十億。三、晶圓1、矽片TPU的製造要從矽片開始,這種高純度的矽片表面光滑,純度要達到99.9999999%以上,一點雜質都可能影響晶片性能。矽片的尺寸也很重要,現在主流是12英吋矽片,一片就能切割出幾百個TPU晶片,比小尺寸矽片的效率高很多。生產矽片的過程很複雜,要經過晶體生長、切片、拋光等幾十道工序,國內的中環股份、滬矽產業都能生產這種高純度矽片,不過高端產品還需要進口。2、光刻光刻就像給矽片刻上電路圖案,是製造環節最重要的一步。這個過程需要用光刻機,把設計好的電路圖案通過雷射投射到塗了光刻膠的矽片上,再用化學藥劑蝕刻,形成電路紋理。TPU的製程越先進,光刻的難度就越大。目前主流的TPU用7奈米或5奈米製程,需要極紫外光刻機才能完成。全球能生產這種光刻機的企業很少,台積電就是靠掌握先進光刻技術,成為Google、蘋果等企業的TPU代工廠。3、摻雜工藝矽本身的導電性能一般,需要通過摻雜工藝來調整。簡單來說就是在矽片的特定區域注入硼、磷這些雜質,形成PN接面,這樣才能控制電流,讓晶片完成計算。摻雜的精度要求極高,雜質的濃度和注入深度都要精確到奈米等級。不同的計算部分,摻雜的參數不一樣,比如TPU的主要計算區域需要更高的導電效率,摻雜濃度就會高一些;而外圍的控制區則需要更穩定的性能,摻雜參數會更穩。四、封裝測試1、封裝晶圓切割成單個晶片後,下一步就是封裝。封裝主要有三個作用:一是保護晶片不受潮濕、灰塵這些外界環境影響;二是引出晶片的電極,方便和外部電路連接;三是幫晶片散熱——TPU工作時會發熱,封裝材料和結構都影響散熱效果。訓練用的TPU功率大,所以會用更複雜的倒裝封裝技術:把晶片正面朝下貼在基板上,這樣散熱路徑更短。國內像長電科技、通富微電這些企業都能做TPU封裝,技術水平和國際企業差不了多少。2、測試要過三道關封裝好的晶片不能直接出廠,得經過嚴格測試,主要有三道關。第一道是性能測試,用專門裝置給TPU輸入測試資料,檢查計算速度、精度這些指標是否符合要求——Google的TPU還會專門測試在Gemini模型上的訓練效率。第二道是穩定性測試,把TPU放在高溫高濕的環境裡連續工作幾百小時,看看會不會出故障。第三道是功耗測試,測測不同負載下的耗電量,確保符合設計要求。不合格的晶片會被標記淘汰,合格率直接關係到企業的成本。能效比例3、模組化設計現在的TPU大多用模組化封裝,把多個晶片整合到一個模組裡——比如Google的TPU Pod就是由好幾個TPU晶片組成的。這種設計有兩個好處:一是組合起來方便,根據需求拼接不同數量的模組,就能滿足不同的算力需求;二是維護起來省事,如果某個晶片壞了,只換對應的模組就行,不用把整個裝置都廢掉。智算中心裡的TPU叢集都用這種方式,維護人員不用拆開晶片,直接換模組就能解決問題,能省不少停機時間。五、材料供應1、聚氨酯材料這裡說的聚氨酯材料和晶片不是一回事,但在TPU產業鏈裡也挺重要的。汽車車衣用的就是熱塑性聚氨酯材料,彈性好、耐老化,還能防刮擦。張家界有家企業專門做這種材料,全球市場佔有率能到90%,連阿迪達斯的運動鞋都用他們的TPU膠膜來粘接。生產這種材料需要高品質的聚酯多元醇,國內的華峰化學通過收購企業,打通了從原料到成品的全鏈條,成本比進口材料低很多。2、光刻膠光刻膠是光刻環節必須用的材料,塗在矽片表面,經過雷射照射後會發生化學反應,形成可以蝕刻的圖案。光刻膠的質量直接影響電路精度,先進的5奈米製程得用極紫外光刻膠,這種材料研發難度很大,成分配比要精確到百萬分之一。現在國內企業已經能生產28奈米製程用的光刻膠,高端的還得從日本或者美國進口。光刻膠的儲存條件也挺嚴格,得放在低溫環境裡,不然會失效。3、散熱材料TPU工作時產生的熱量要是不能及時散出去,會影響性能甚至縮短壽命,所以散熱材料就很關鍵。封裝環節會用到散熱膏和散熱片:散熱膏填在晶片和散熱片之間的縫隙裡,能提高導熱效率;散熱片則增大散熱面積,把熱量傳到空氣裡。大功率的TPU叢集還需要專門的液冷散熱系統,用冷卻液把熱量帶走。國內像高瀾股份、同飛股份做的液冷系統,已經用到不少智算中心的TPU叢集裡了,散熱效率比傳統的風冷高3倍多。六、終端整合1、智算中心是TPU的主要陣地智算中心就像TPU的大本營,很多TPU在這裡組成叢集,給AI企業提供算力服務。天津移動建的TPU智算中心,通過最佳化叢集佈局和散熱系統,單位算力成本降了很多。這些智算中心會根據客戶需求,提供不同的算力套餐:比如給科研機構提供大模型訓練用的高算力服務,給中小企業提供智能客服推理用的輕量算力服務。像視拓雲這樣的企業,還把TPU算力做成了零售業務,客戶按需購買就行,不用一次性投很多錢建機房。2、汽車行業TPU在汽車行業的應用分兩種:一種是晶片,一種是材料。晶片方面,有些智能汽車的自動駕駛系統會用TPU做推理,處理攝影機和雷達傳來的路況資料,判斷行人和車輛的位置。材料方面,汽車車衣用的熱塑性聚氨酯材料越來越常見,納琳威做的真漆車衣,還能適配特斯拉賽博皮卡的不鏽鋼車身,貼合度特別高。易車和邦泰集團合作研發車用TPU粒子,做成的車衣性價比更高,已經覆蓋了從一線到三四線城市的門店。3、小型化TPU智慧型手機、智能音箱這些消費電子產品,需要的是小型、低功耗的TPU。智能音箱裡的TPU,主要負責語音識別的推理,能把使用者的語音指令快速轉成文字,還能理解意圖。這種TPU尺寸很小,有的只有指甲蓋那麼大,功耗也低,一節電池就能支援長時間工作。國內的瑞芯微、全志科技都做這類小型TPU,很多智能家電廠商都會買。有些高端耳機裡也會裝小型TPU,用來最佳化降噪演算法。Coral Edge TPU與NVIDIA GTX 1080 GPU在最大功耗和每瓦特運算性能上的對比七、市場規模情況1、全球市場增長速度很快TPU所屬的智能算力市場,這幾年漲得特別快。2024年全球AI算力市場中,GPU和TPU主導的智能算力規模超過了750億美元。有機構估計,2025年這個數字會跳到3500億美元,差不多翻五倍。這當中TPU的佔比還在慢慢上升,特別是Google推出Trillium TPU後,不少企業開始換成TPU來做訓練和推理。Meta甚至打算從2027年開始,在自家資料中心裡裝Google的TPU,這筆單子說不定能到幾十億美元呢。2、中國市場增速超過全球平均中國智能算力市場的增長速度比全球平均還要快。根據IDC和浪潮資訊的報告,2025年中國人工智慧算力市場規模能到259億美元,比去年漲了36.2%。TPU的用途現在越來越多,政務、金融、製造這些行業都在往裡面砸錢。天津、上海這些大城市都在蓋TPU智算中心,中國移動打算到2028年底建成本國最大的智算設施,裡面會裝很多國產TPU。國產TPU的市場份額也在往上走,寒武紀、華為的TPU在國內政務領域用得已經挺多了。3、不同應用場景的市場差異大TPU的市場分佈不太均勻,智算中心佔了大部分,大概能有70%以上。為何呢?因為大模型訓練和推理需要好多TPU湊成叢集,一套裝置的投入就不低。汽車行業的TPU市場漲得最快,特別是自動駕駛和車衣材料這兩塊,2025年的漲幅可能超過50%。消費電子領域的TPU市場規模不算大,但勝在穩,每個智能裝置裡都得有個小TPU,賣出去的數量特別多。材料類的TPU市場也不小,光汽車車衣和運動鞋這兩個地方,全球一年賣的錢就超過一百億美元。八、市場競爭態勢1、Google和輝達國際上TPU市場主要是Google和輝達在搶地盤,不過兩家擅長的地方不一樣。Google的TPU在AI訓練這塊優勢很明顯,特別是和自家Gemini模型搭著用的時候,效率比輝達的GPU高不少,還更省電。輝達則在生態這塊更厲害,好多AI框架都先適配GPU,企業要換成TPU得調整演算法,難度相對大一點。但這種情況正在改變,Google通過雲服務把TPU租給其他公司,Meta這樣的大公司也開始考慮用了,Google在市場上的說話份量慢慢變重了。2、國內企業細分領域國內的TPU企業沒直接和Google、輝達硬碰硬,而是從細分領域入手。寒武紀的TPU主要針對政務和金融行業,這些地方對安全性要求高,國產晶片更吃香。華為的TPU則和自家鴻蒙系統、雲服務綁在一起,在智能汽車和工業網際網路這塊推。材料領域的國內企業表現更亮眼,張家界齊匯新材料在運動鞋用TPU膠膜市場佔了全球90%的份額,邦泰集團在車用TPU粒子這塊的國內市場佔比超過60%。這些企業通過盯著細分市場做,給自己築起了一道競爭的牆。九、需求分析1、網際網路科技巨頭網際網路科技巨頭是TPU的主要客戶,尤其是那些做AI大模型的公司。Google、Meta、百度、阿里這些企業,每年都會買好多TPU搭成算力叢集,用來訓練模型和做推理。他們買TPU的時候最看重性能和穩不穩定,對價格不太在乎。Google自己做TPU,同時也把算力租給其他公司;百度則混著用國產和進口TPU,重要業務用進口的,邊緣業務用國產的來省錢。這些巨頭買的量很大,一單就能佔企業年銷售額的20%以上。2、製造企業製造企業買TPU主要用在兩個地方,一是生產線上的智能檢測,用TPU處理攝影機拍的產品圖片,找出缺陷;二是生產TPU材料做的東西,比如汽車零件、運動鞋材料。這些企業買的時候最看重性價比,不會瞎買高端產品。汽車零件廠商會選國產的中低端TPU晶片,足夠滿足檢測需求,價格比進口的低30%以上。買材料這塊,他們會和供應商長期合作,比如阿迪達斯就把齊匯新材料當成最大的TPU膠膜供應商,兩家還一起研發新產品。3、科研機構和政務部門科研機構和政務部門買TPU,安全是第一個要考慮的。高校和科研院所買TPU主要用來研發AI演算法,他們需要晶片能靈活擴展,適配不同的實驗場景。政務部門買的TPU則主要用在人口統計、交通管理這些地方,資料很敏感,必須用通過安全認證的國產晶片。寒武紀的TPU就通過了好幾個政務安全認證,在好多城市的智能交通系統裡都在用。這些客戶買的量雖然不如巨頭,但訂單穩,給錢也比較快。十、TPU和GPU誰更厲害1、訓練場景TPU更有優勢在AI模型訓練場景裡,尤其是大模型訓練,TPU的優勢很明顯。因為訓練過程需要反覆做矩陣運算,TPU的架構就是專門為這個做的,所有計算資源都集中在這事兒上,沒有多餘功能浪費資源。Google的Trillium TPU訓練Gemini模型時,速度比輝達最新的GPU快4倍,能耗卻低67%。這就意味著訓練同一個模型,用TPU能省好多時間和電費,對經常要訓練模型的企業來說,這筆省下來的錢可不少。2、推理場景兩者各有千秋推理場景就是模型訓練完後,處理實際資料的過程,比如語音識別、圖像分類。這種場景下TPU和GPU各有各的好,得看具體用在那兒。如果是單一任務的大量推理,比如智能音箱的語音識別,TPU更高效,成本也更低。如果是複雜的多工推理,比如自動駕駛同時處理路況、行人、交通燈這些資訊,GPU的通用性更強,能同時處理不同類型的運算,更佔優勢。好多企業會混著用,簡單任務用TPU,複雜任務用GPU。3、生態完善度GPU領先雖然TPU在性能上有優勢,但GPU的生態更成熟,這也是好多企業不願換的原因。現在市面上大部分AI框架、演算法庫都是先適配GPU的,企業要是改用TPU,得重新調整演算法程式碼,還要培訓工程師,花的錢不少。Google為了打破這個局面,做了兩件事:一是開放自己的AI框架,讓開發者更容易適配TPU;二是通過Google雲提供TPU算力服務,企業不用自己買晶片,直接租就能用,降低了換用的難度。隨著越來越多企業試著用,TPU的生態也在慢慢變好。 (小叔報告)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
為什麼全世界嚴重低估了馬斯克?
為什麼全世界嚴重低估了馬斯克——一位頂級投資人眼中的真相:AI 時代的“隱形統治者”正在浮出水面Steve Jurvetson(史蒂夫·朱維特森)是矽谷最具傳奇色彩的風險投資人之一,曾是全球頂級風投機構 DFJ(德豐傑) 的核心合夥人,主導投資過多家改變世界格局的科技公司,包括 Tesla、SpaceX、Hotmail、Skype、Planet Labs 等。他以極強的技術理解力和超前判斷聞名,不追逐風口,而是提前十年下注“看起來不可能”的顛覆式技術,是矽谷少數真正“押中未來”的投資人代表。而他與 馬斯克的關係,早已超越普通投資人與創業者。早在 2004 年,他就成為 Tesla 最早期的董事和核心投資人之一,隨後又深度參與 SpaceX 的多輪融資與戰略支援,陪伴馬斯克走過特斯拉和 SpaceX 最艱難、也最不被看好的階段。二人合作超過二十年,既是資本層面的盟友,更是長期的技術思想同盟。也正因為這種長期、深度、非財務型的信任關係,Steve Jurvetson 比絕大多數公眾、分析師,甚至行業人士,更早看清馬斯克真正的能力邊界與長期野心。很多人覺得馬斯克已經“被高估到極限了”:他是全球首富他掌控著特斯拉、SpaceX、xAI、星鏈他每天都在全球熱搜上被討論但如果你真的聽完頂級投資人 Steve Jurvetson 那場關於 AI 的深度訪談,你會發現一個極其反直覺的結論:全世界,其實還遠遠低估了馬斯克。而我們真正低估的,也從來不是某一家公司,而是他正在建構的“下一個世界的底層系統”。一、我們對 AI 的理解,從一開始就錯了現在大多數人談 AI,關注點只有三個:模型有多強?參數有多少?誰會被取代?但在 Steve Jurvetson 看來,這是一種典型的“低維認知”。他在播客中反覆強調一個核心判斷:AI 不是一次技術升級,而是一輪“文明級變數”的釋放。這意味著什麼?過去一百多年,科技進步本質上是“線性”的:蒸汽機提高效率電力提升產能網際網路提升連接效率但 AI 不一樣。AI 同時改變五個最底層變數:計算能力資料規模演算法進化速度機器人與自動化能源與算力基礎設施這五個變數,全都處在指數級增長狀態。而當“指數變數”開始疊加,世界將不再是“慢慢變化”,而是直接進入:突然躍遷。就像從馬車直接跳到飛機,中間沒有緩衝期。二、真正決定 AI 勝負的,不是模型,而是“現實世界閉環”所有人都在盯著大模型,但 Steve 說了一句極其重要的話:未來的 AI 霸主,不是“誰的模型最強”,而是“誰真正掌控了現實世界的資料閉環”。真正的終極護城河,來自這五件事的疊加:真實世界的應用場景持續流動的資料AI 自我學習自動反饋閉環能被規模化複製的製造與部署能力只有進入現實世界,AI 才會真正“活過來”。這意味著什麼?這意味著:只做“純軟體 AI”的公司只停留在“雲端推理”的公司在中長期,都將被那些同時擁有“硬體 + 資料 + 自動化 + 能源”的公司碾壓。這不是技術路線之爭,而是系統工程的勝負之爭。三、AI 時代一定是“贏家通吃”,而不是人人公平這一點,Steve 說得非常直接,甚至有些殘酷:AI 不會帶來平均主義,它只會製造“贏家通吃(Winner-Take-All)”。原因很簡單:一旦某個系統在以下五個維度同時領先:演算法資料場景規模能源與算力它的領先優勢就會進入“自我強化”狀態,後來者將越來越難追趕。這不是資本的問題,而是指數系統的客觀規律。四、那馬斯克到底被低估在那裡?如果說前面是大背景,那接下來這一段,才是整場播客最“炸裂”的地方。Steve 作為:SpaceX 早期董事Tesla 早期核心投資人深度參與馬斯克體系 20 年的資本合夥人他給出的結論只有一句話:你低估馬斯克,是因為你只在“公司維度”看他,而他真正做的是“文明基礎設施重構”。在大眾眼中:Tesla 是一家電動車公司SpaceX 是一家火箭公司xAI 是一家 AI 公司但在 Steve 眼中,馬斯克真正重構的是:這意味著:馬斯克不是在做公司,而是在拼裝“下一代世界的底層硬體”。五、馬斯克真正恐怖的,不是想法,而是“跨領域系統工程能力”很多人以為馬斯克強在“點子多”。但 Steve 給出了完全不同的答案:真正稀缺的不是想法,而是能把“橫跨十幾個學科的超級複雜系統”,連續穩定推進 20 年。他的體系里長期協同的包括:火箭工程電池化學材料科學自動駕駛機器人控制AI 演算法製造系統能源系統供應鏈系統這不是普通公司能做到的組織結構。而更可怕的是:這些不同公司之間的能力,是“系統級復用”的。SpaceX 的工程能力,反哺 Tesla;Tesla 的自動化與 AI,反哺機器人;機器人與自動駕駛,又反哺 xAI。這是一個自我進化的超級系統。六、被嚴重低估的,還有他對“資本時機”的直覺Steve 還強調了一個極少被公眾討論的能力:馬斯克對“下注時間點”的判斷,幾乎次次踩在指數曲線爆發前夜。他的標準模式是:在所有人看不懂時進入在行業被嘲笑時加碼在巨額虧損時死扛在臨界點到來前佈局完成電動車、火箭、衛星、自動駕駛、機器人,無一例外。這不是運氣,這是對“技術臨界點”的極強直覺。七、全世界低估馬斯克的真正原因,其實非常簡單Steve 最後給出的結論,極其鋒利:你之所以看不懂馬斯克,是因為你在用“短期財務模型”,去理解一個“跨文明周期的系統工程”。當你用:今年利潤明年增長市盈率訂單量去理解一個目標是:重構能源系統重構交通系統重構製造系統重構勞動系統重構太空邊界的人時,你的認知框架本身就是錯的。八、最終結論:你低估的不是某一家公司,而是“下一代世界底座”Steve Jurvetson 的終極判斷可以濃縮成一句話:AI 是一次世界“作業系統”的升級,而馬斯克是在建構承載這套新系統的整套現實世界硬體。所以今天你看到的所有爭議、質疑、看空、做空,從長期來看,很可能只是:一個舊時代對新世界的本能抵抗。結語:我們真正要問的,不是“馬斯克的下一家公司估值多少”,而是:當 AI 全面接管現實世界時,誰掌控了底層系統?而這個問題的答案,已經越來越清晰了。 (AI Daily Insights)
AI平權與“隱形制裁”的悖論
近期,俄羅斯數百輛保時捷智能汽車突然集體“罷工”,尤以莫斯科和克拉斯諾達爾等城市更為嚴重。該新聞一經發出便引發了公眾對於國際間科技制裁的猜測,也打破了AI平權時代的幻想。一、AI平權時代的假象隨著AI在全球的迅速蔓延,普通人之間獲取資訊的通道被打通,國家間的科技差距似乎也正在被縮短,整個社會處於一個相對公平的“AI平權時代”假象。個體層面,演算法平權最佳化試圖消除顯性歧視,普通人基於大模型等AI工具提升工作效率的通道看似暢通,人人都可以在開放AI工具下建構自我知識庫體系,AI正在揭開很多標準化工作的神秘面紗。業界宣稱的AI“演算法中立”等技術平權似乎降低了部分知識壁壘,為全社會構造了“人人平等、全民適配”的平權假象。公司層面,科技公司將AI產品作為商品,以免費或付費形式,向B端和C端輸出,看似只需付費就可以獲得資源的平等性,但實際卻隱含著另一種資源的慢性掠奪。科技公司通過專利壁壘、資料壟斷建構“平權口號下的新特權”,核心AI演算法被少數巨頭掌控,訓練資料成為“隱形資產”,普通人偏好在演算法掠奪下暴露無遺。國家層面,AI的區域性資源差異仍然顯著存在,如偏遠地區居民因基礎設施和人文素養的匱乏,無法享受智能服務帶來的便利。與此同時,儘管世界各國紛紛出台AI反歧視法規,卻存在“立法完善、執行空轉”的矛盾,“技術霸權”如美國的演算法專利封鎖、晶片出口管制等,在世界格局動盪的環境中,也正在快速蔓延開來,徹底撕開了“AI平權”的假面。總體而言,AI時代確實消弭了個體層面資訊的獲取差異,顛覆了傳統工作方式,有效提升了工作效率。但公司層面的資料、演算法掌控仍成為AI時代權力的掠奪,國家層面的基礎設施及關鍵供應鏈制衡與掠奪仍與“技術中立”的口號存在較大差距。二、中國:資料背後的博弈底氣儘管“技術無國界”,但掌握技術的團體仍具有利益及國別立場。這也是AI平權時代下西方國家制裁手段頻出的根源所在,大國博弈早已突破地理、政治、經濟邊界,正通過一道道看不見的“算力池、資料線、演算法框”鋪滿整個世界,政治地緣衝突再度延伸發酵。美國2025年AI晶片全球分級禁運制裁,通過切斷核心硬體供給實現AI技術封鎖,導致俄羅斯AI大模型訓練陷入停滯,智能製造業的自動化生產線頻繁停機;歐盟第19輪對俄制裁中,禁止向俄提供AI演算法授權、智能系統維護及高精度地理資料服務,直接衝擊俄羅斯軍事工業的AI應用、能源行業的AI最佳化調度系統以及石油天然氣開採效率。當AI深入滲透至各行各業後,對AI關鍵環節的控製成為西方國家鞏固霸權地位的政治工具,以“國家安全”為由實施技術封鎖,限制開發中國家獲取核心AI技術,實質都是以“平權”之名行“制裁之實”。三、小結AI平權與“隱形制裁”的衝突,本質是技術理想與社會現實、權力結構的碰撞。AI時代也沒有絕對的平權,只有堅持科技自立自強,不斷錘煉自身軟硬綜合實力,才能在經濟全球化、世界多極化的動盪格局中,面對其他國家的“隱形制裁”擁有絕對反擊的底氣。 (稻香湖下午茶)
DeepSeek 與 Google 的暗戰:誰會最先找到通往 AGI 的鑰匙?
自從 2022 年 ChatGPT 3.5 橫空出世,讓世人領略到 AI 的非凡魅力;再到 2024 年底 DeepSeek 驚豔登場,給國人帶來了巨大的驚喜與自信。如今,各類大模型(LLM)及 AI 應用已經深刻地改變了我們的生活。AI 每天都在增強功能。昨天做不到的事,今天已經能做;前天做不好的題,今天已經可以輕鬆解決。我們彷彿回到了蒸汽機投入實用後的那段時間——新技術、新發明以肉眼可見的速度狂飆突進。然而,在這波 AI 浪潮的狂歡背後,科技界仍存爭議:LLM 真的是通往 AGI(通用人工智慧)的正確方向嗎? 或者說,僅靠當前的 LLM 就足夠了嗎?答案其實很清晰:不夠。Transformer 是一次偉大的突破,但要讓機器真正“理解世界”,我們仍需要更多類似 Transformer 等級的全新核心技術。凍結的知識快照不是智能我們知道,當前大模型的訓練方法,本質是讓 Transformer 在大量文字裡尋找“詞與詞的關係”,並基於這些統計關係預測下一個詞。訓練完成後,所有知識都被壓縮排最終的權重檔案裡,像一張凝固的“知識快照”。 但之後它不會自動學習新知識,除非重新訓練或微調。明天產生的新知識無法自動融入,換言之,LLM 本身沒有即時的學習能力。從上面你很快能就發現當前基於LLM的AI的兩個“死穴”:其一,LLM只是一個機率模型,它知道“E=mc²”後面大機率跟著“愛因斯坦”,也知道怎麼用這句話造句,但它不知道這公式是怎麼推匯出來的,也不知道如果光速改變了世界會怎樣。它學到的是知識的“投影”(文字),而不是知識的“本體”(邏輯與因果)。其二,它的知識是靜態的。正因為它沒有一個知識的生產過程,所以它不知道這些知識是如何產生的,為什麼會形成這個知識,這些知識為什麼對,為什麼錯。正如X上有某位大佬所言:“當前 AI 水平離真正的 AGI 還差好幾個 Transformer 等級的創新。” 但遺憾的是,現在還沒有可以取代Transformer的新架構。在這一點上,中美其實“站在同一片荒原上”,未來怎麼走,大家都在摸索。理解知識的積累過程,是智能的前提嗎?回想一下人類的學習方式:從小到大,知識是一點一滴積累的,對同一個知識點的理解也是層層遞進的。相比之下,LLM 生成即“凍結”,缺失了進化的過程,所以它“知道”,但它不“理解”。那麼,將知識的積累過程保留下來,會不會是通往 AGI 的一個方向?如果 AI 能復現人類對某個現象的認識過程,是否就能理解其背後的原理,從而舉一反三?至少,可以將這個認識過程當作一種“元模式”記錄下來,在處理新問題時按部就班地套用。當然,這個觀點也存在爭議。因為許多科學突破是“斷層式”的——先是天才的“靈光一閃”,後人再通過邏輯去填補證據。不過,從人類的普適經驗來看,模擬知識的積累過程,肯定有助於 AI 達到人類智能的平均水準。我們不指望 AI 頓悟成愛因斯坦,但達到專家的水平是完全可期的。這個過程可以從兩個角度來分析一是知識的層級性,高階知識依賴並建立在前導知識(基礎概念、技能)之上。比如說,一個人學習流體力學前,需掌握微積分與線性代數。二是學習的漸進性,對具體知識的理解和記憶,是一個從模糊、具體到清晰、抽象的動態過程。對於個人來說,對新概念的掌握,會從最初的生硬記憶,逐漸內化為可靈活運用的直覺。Google的思考:結構化與記憶針對第一個維度(層級性),Google 試圖將模型的知識結構化為不同時間尺度、相互巢狀的層級,提出了“巢狀學習”(Nested Learning)與記憶框架。(參見論文:https://abehrouz.github.io/files/NL.pdf)。“巢狀學習”的核心是將一個複雜的AI模型,視為一系列相互巢狀的最佳化問題。簡單來說,模型的不同部分可以像人的不同記憶一樣,以不同的“速度”學習和更新。簡單舉例,一般的LLM訓練,對於一個文字來說,可以理解成一個平面,從上而下,流式分佈。然後訓練過程相當於找出每個字之間的關係機率,因為處理窗口的關係,如果算到了後面的內容,往往與前面的文字關係就小了,計算時用的權重也就低了。如同一篇小說,即使作者費盡心機在結尾時回應了開頭處的一個梗,填了開始的一個坑,對於AI來說,也是拋媚眼給瞎子看。AI早就忘記了。而Google的巢狀學習,則是對同一篇文章,除正常的訓練方式外,還對文章先在不同的層次上進行預處理。比如先做一個文章梗概,先過一遍文章,把所有作者預埋的“坑”提取出來……,這樣一篇文字就變成了n篇不同維度文字,然後在訓練時,這些文字都參與訓練,可以平行處理,只是訓練參數和訓練方法不同。能根據性質選擇不同精度和速度的計算,而且訓練出的成果是可以疊加的,不再是單一固定的權重檔案。上面的圖就是一個例子,左邊是普通的深度學習訓練過程,而右邊則是巢狀學習的例子,你能看出對於同一個內容,根據進行多次訓練,只是廣度和精度各不相同。此外,Google 的 ReasoningBank 記憶框架(相關論文:https://arxiv.org/abs/2509.25140 )則更進一步。它的思路是讓AI智能體從以往的成功與失敗經驗中,主動提煉出結構化的“記憶項”。每個“記憶項”包含策略標題、描述和推理內容,本質上是對低級經驗的抽象總結。當面對新任務時,AI會檢索並應用這些抽象原則來指導行動,這模擬了人類專家運用已有知識框架去解決新問題的過程。DeepSeek的嘗試:多維感知與自驗證推理針對第二個維度(漸進性),DeepSeek 在感知與推理兩個層面都展現了對人類思維模式的深度模擬。首先在視覺感知層面,以 DeepSeek-OCR 為例,他們採用了一種獨特的“多解析度訓練”思路:不僅僅是對圖像進行簡單的向量化,而是試圖模擬人類的視覺認知過程——即 “從模糊到清晰” 的動態掃描。對同一張圖片(場景),模型會同時學習其低解析度的宏觀輪廓與高解析度的微觀細節(相關技術細節可參看此前的公眾號文章)。這種策略暗合了人類大腦處理視覺資訊的生物學模式:先建立全域印象,再填充局部細節。不僅在感知上發力,DeepSeek 更試圖在推理層面重現人類的“反思”能力。DeepSeek 不僅在基礎大模型上發力,向各個專家模型演進(如 DeepSeekMath-V2),更在某些領域嘗試模擬人類的“記憶狀態”。在 2025 年 11 月 27 日剛剛發佈的 DeepSeekMath-V2(論文:https://arxiv.org/pdf/2511.22570 )中,DeepSeek 引入了突破性的 “自驗證”(Self-Verification) 機制。這相當於讓 AI 進化出了“自我監考”的能力。傳統的模型像是一個只顧填答題卡的考生,只在乎最終答案是否命中;而 DeepSeekMath-V2 則像是一個嚴格的老師,它不僅檢查答案的對錯,更會一步步審視 解題過程(Process) 的邏輯鏈條。通過這種方式,模型不再是“蒙”對了一個答案,而是真正確信自己“理解”了這道題。這種從“結果導向”向“過程導向”的轉變,是 AI 邁向深度邏輯推理的關鍵一步。DeepSeek 的“自驗證”機制構成了一個自我完善的智能閉環:它不僅能評估解題過程,更能主動生成推理步驟並對其驗證。這模仿了人類的元認知與自我學習能力。古人倡導“吾日三省吾身”,而 AI 則可實現瞬時、高頻的自我審視與迭代最佳化。如下圖(論文中的附圖)所示,隨著驗證次數(最高達7次)的增加,模型解決問題的能力顯著提升,充分體現了通過“反覆自學”實現能力進化的潛力。雖然上述分別列舉了兩家公司的例子,但在技術演進的洪流中,它們並非孤立存在。Google 的巢狀學習涉及不同清晰度資料的處理,而 DeepSeek 的多專家系統(MoE)及多層次資料訓練,本質上也是在對知識進行結構化拆解。結尾:AGI的未來方向,也許正在悄悄顯現從 Google 到 DeepSeek,我們正在看到一個趨勢越來越明確:真正的智能,不是更大的模型,而是更“結構化”的學習過程。未來的 AI,可能會具備:能分層理解知識結構的能力能保持多時間尺度記憶的能力能自主總結“經驗規則”的能力能在模糊與清晰之間漸進切換的能力能記錄“知識的進化史”而不是只記錄結論這些能力加在一起,不是“下一代更大的 Transformer”,而是:一種能夠像人一樣“成長”的架構。我們或許距離 AGI 仍有數個重要突破,但路徑正在變得越來越清晰:不是簡單堆算力、堆資料,而是讓模型獲得“理解知識如何生成”的能力。或許,真正的智能不是一夜之間的奇蹟,而是一次又一次讓機器“重走人類認知之路”的漫長積累。而現在,我們正在走在這條路的最前面。 (亍雲旁觀)
輝達H200獲批 未來中國AI晶片格局分析
先說下結論,H200的短期解禁對中國AI晶片產業的直接影響有限,但長期將嚴重拖慢中國建立獨立、有競爭力的AI晶片生態系統的處理程序。此舉本質是美國在確保代差優勢的前提下,通過輸出上一代高性能產品,既滿足中國經濟需求以獲取高額利潤,又維持中國對其技術生態的依賴,從而遏制中國在AI基礎架構領域的自主突破。從H20到H200:性能的代際飛躍與法規背景的嬗變讓我們先來回顧一下當H20誕生的背景。2023年10月17日,美國商務部工業與安全域(BIS)更新了針對中國的先進計算出口管制規則(即“1017規則”)。該規則設定了兩個關鍵的性能密度閾值,以決定晶片是否需要許可證且“推定拒絕”:性能密度閾值一:晶片的總算力(TPP)除以晶片面積(die size)必須低於一個特定值。性能密度閾值二:晶片的總算力(TPP)除以晶片尺寸的平方(即TPP/(晶片尺寸)^2)必須低於另一個特定值。輝達最初為中國市場設計的合規晶片H800(基於Hopper架構的H100降規版),因在互連頻寬上受限,但計算核心未做大改動,其性能密度仍可能觸及或超過BIS設定的閾值。因此,為了完全合規並獲得出口許可,輝達被迫推出了性能進一步大幅閹割的H20。H20不僅在互連上受限,更在核心計算單元(SM)數量、核心頻率、記憶體頻寬上進行了深度削減,使其總算力(TPP)大幅降低至約2,368,確保其性能密度落在BIS允許的範圍內。一定得瞭解美國到底是怎麼做的限制,我們才能有分析的基礎,連怎禁怎算性能密度都搞不明白,分析出來的東西必然也會有所缺失。H200的性能躍升:對“1017規則”事實上的突破本次獲批的H200是Hopper架構的滿血版資料中心GPU。關鍵參數對比如下:顯然,H200的性能(尤其是TPP)已遠超為符合“1017規則”而生的H20。其獲批出口,並非因為“1017規則”被修改,而是BIS在執法上採取了更靈活的方式,通過發放特別許可證的方式,為超出限制的硬體開了綠燈。這標誌著美國對華晶片管制策略從“嚴格禁止”轉向“管制性開放”,即在確保對華保持至少一代(對比Blackwell)技術代差的前提下,允許上一代旗艦產品進入中國市場。與Blackwell的差距作為參照,輝達當前最新的Blackwell架構旗艦晶片(如B200/B300)性能更為恐怖。美國允許對中國出口H200而非Blackwell,清晰表明了其“放行舊款,鎖死新款”的核心策略,旨在維持至少18-24個月的技術代差。H200與中國國產AI晶片的參數與技術對比根據Bernstein報告的資料對比,中國國產最強AI晶片與H200仍存在全方位差距:中國國產晶片在單卡峰值算力上正在快速追趕,但在決定實際可用性的製程、封裝、尤其是軟體生態和叢集解決方案上,與H200代表的國際主流水平存在代際差距。Bernstein報告的輝達與中國國產各家AI晶片的性能天梯圖,筆者認為相對合理,因為從製程,晶片面積的物理層面,他們的TPP差距是完全合邏輯的。2024-2025年中國AI晶片市場格局2024-2025年:“多種途徑滿足算力”的過渡期,2024-2025年中國AI算力需求並未因管制而停滯,而是通過 “六條腿走路”的混合模式得以滿足:1.採購合規的輝達H20(2024年約百萬張,25年上半年交付約40~50萬,下半年為零)。2.通過特殊管道獲取受限的H100/H200(2024年約40-50萬張)。3.在海外(如新加坡、中東)建設或租賃資料中心。4.採購中國國產GPU(升騰、寒武紀、崑崙芯等,2024年合計約30-45萬張)。5.CSP(雲服務商)自研ASIC晶片(如阿里平頭哥、百度崑崙)。6.軟體最佳化(如模型小型化、低精度訓練)。關鍵特徵:中國國產晶片基數低但增長快:2024年本土AI晶片出貨約190-210萬張,其中中國國產佔比仍低,但寒武紀、升騰等廠商出貨量在2025年均預計實現翻倍以上增長。H20不受歡迎:由於性能差且存在“後門”安全疑慮,中國CSP採購H20意願低,其庫存積壓嚴重。總量受限,結構變化:2025年本土部署的AI晶片總數預計與2024年持平(約200萬張),但中國國產佔比將顯著提升,增量算力需求主要由海外資料中心承接。2026年市場格局預測H200入局後的新博弈隨著H200在2025年底獲准進入,2026年中國AI晶片市場將呈現以下新局面:輝達份額強勢回升:H200預計將在2026年實現 “百萬張等級”的出貨,迅速奪回其在華高端訓練市場的份額。其成熟的即插即用特性將深受大廠青睞。中國國產晶片繼續高增長,但路徑分化:○ 華為升騰:憑藉信創市場基本盤和持續技術迭代,預計出貨量將達到140-160萬張,成為中國國產絕對主力,但主要市場可能仍集中在政務、國企及部分推理場景,但隨著升騰NPU的架構調整,2026年CSP業務將有所斬獲,預計25~35萬張。○ 其他中國國產GPU:如寒武紀(預計14-17萬張)、沐曦、摩爾線程等,將繼續在 “性能-生態-成本”的夾縫中求生存,重點拓展對CUDA生態依賴較低、或對中國國產化有強制要求的細分市場。○ CSP自研ASIC:預計達到30萬張規模,主要用於自身業務的特定推理或部分訓練負載,是巨頭實現供應鏈自主的關鍵一環。總體格局: 2026年中國國產晶片總出貨(按單Die計)有望達到 200萬顆左右,實現高速增長。然而,H200的百萬級出貨將牢牢卡住AI產業皇冠上的明珠——高端智能訓練市場。中國國產晶片的“高增長”更多是源於基數低和在非核心賽道的替代,而非在核心戰場戰勝了輝達,雙方的差距還是在擴大中。核心影響與戰略結論1.短期影響有限,長期拖累生態建立:短期內,H200解決了中國高端AI算力的燃眉之急,利多中國AI應用層發展。中國國產晶片因基數低,在政策保護和特定市場驅動下,仍將保持增速。但長期看,H200的**“溫水池效應”** 將極大緩解中國廠商和開發者逃離CUDA生態的緊迫感,顯著拖慢中國自主AI晶片軟硬體生態的成熟速度。2.美國實現“一石三鳥”:l經濟上:清理舊款庫存,獲取巨額利潤及25%分成。l技術上:維持代差,用舊款產品抑制中國自主技術迭代。l戰略上:延續中國對其技術體系的依賴,將中國鎖定在產業鏈的應用層,而非基礎架構層。3.對中中國國產業的警示:H200的放行是一次清晰的戰略訊號。它意味著,依靠外部提供“次優解”來滿足發展需求,將永遠無法實現真正的科技自主。中國AI晶片產業的最終破局,不在於造出與H200參數接近的晶片,而在於能否建構一個足以讓開發者心甘情願離開CUDA的、有生命力的完整生態。這需要政策、市場、技術研發前所未有的協同與定力。而且這一次H200的解禁,筆者推演過程看到的是,雖然2026年中國國產AI晶片的高增長不受影響,但2027年中國國產AI晶片有可能不再高速增長。主要生態建立不足,且晶片製程的受限,軟硬體的差距都在擴大中,即便中國國產晶片在系統的提升是下了很大功夫,但也無法逃脫製程落後的物理定律。輝達H200獲准對華銷售,是一場精心計算的戰略妥協。它為中國AI產業提供了短期的算力緩解,但同時也套上了一副更為精緻的生態枷鎖。中國若滿足於此“溫水”,則自主生態的建立將前路漫漫;唯有保持戰略清醒,堅持對基礎生態的投入,方能在長遠的競爭中贏得主動。 (Techcoffee)
世界經濟論壇最新發佈《執行中的人工智慧代理:2025 年評估和治理基礎》:企業如何讓 AI agents 既強大又可靠?
在 AI 技術迅猛發展的當下,AI agents(人工智慧代理)正從實驗室原型走向企業實戰,成為提升效率的“數字員工”。然而,如何讓這些“智能助手”既強大又可靠?世界經濟論壇(WEF)與Capgemini攜手發佈的《AI Agents in Action: Foundations for Evaluation and Governance 2025》(人工智慧代理在行動:2025年評估和治理基礎)白皮書,給出了實用答案。這份報告為決策者、技術領袖和從業者量身打造的“行動手冊”,幫助大家從實驗到部署,一步步建構安全、可信的 AI agents 生態。AI agents:從“聊天機器人”到“決策夥伴”的躍遷在呼叫中心,過去是指令碼化的聊天機器人,現在是能理解意圖、動態決策的AI agents;在企業流程中,它不再是靜態工具,而是像人類同事一樣規劃任務、呼叫資源。報告前言中,Capgemini Invent首席執行長Roshan Gya和WEF人工智慧卓越中心負責人Cathy Li 表示:AI agents 的興起將帶來效率飛躍、人機互動革新,甚至催生全新數字生態。但機遇伴隨挑戰——目標錯位、行為漂移、工具濫用等風險,正考驗著傳統軟體治理的極限。這份報告的核心洞見是:AI agents 不是簡單升級,而是範式轉變。它借鑑人類入職流程——定義角色、測試表現、逐步授權——強調“最小特權原則”,即只賦予必要權限。報告調研顯示,目前多數企業還停留在規劃或試點階段,這正是“從小處起步、迭代謹慎、防護適度”的最佳時機。如果貿然推進,未經驗證的用例可能釀成信任危機。報告建議:通過跨職能協作和漸進治理,讓AI agents放大人類智慧,推動創新,提升生活品質。技術基石:建構可靠的 AI agents 架構AI agents的軟體架構、通訊協議和安全模型,直接決定了它們如何融入組織、與世界互動。就像招聘新員工,企業需為AI agents搭建“工作站”——清晰角色、防護機制、監督體系。AI agents的架構分為三層:應用層、編排層和推理層。簡單說,應用層是“門面”,通過使用者介面或API接收輸入,確保輸出符合業務需求,可在雲端或邊緣裝置運行。編排層像“項目經理”,協調工具呼叫、子代理分工,支援模型切換(根據任務複雜度選大模型或小模型),並通過Model Context Protocol(MCP)連接企業資源,如資料庫或CRM系統。這層讓AI agents擺脫供應商鎖定,實現多雲多邊環境的無縫協作。最有趣的是推理層:它驅動AI agents的“思考”——從規則邏輯到生成式模型,處理預測、分類或規劃。報告用圖示說明:這些層協同工作,形成動態邊界,確保AI agents在安全圍欄內行動。舉例來說,在多代理系統中,A2A(代理間協議)和ACP(代理連接協議)讓它們像團隊一樣協作,處理複雜依賴。報告強調,建構AI agents不止工程,還需orchestration(編排)。它融合四種範式:經典軟體的確定邏輯、神經網路的模式識別、基礎模型的上下文適應,以及自主控制的規劃機制。這讓AI agents從“執行命令”進化到“自主決策”,但也引入新複雜性——需結構化腳手架,避免行為失控。通訊與安全:讓 AI agents “對話”無障礙協議是AI agents的“通用語言”。報告重點介紹2024年底Anthropic推出的MCP,它標準化了代理與資料來源、API的連接。過去,每個代理任務需定製整合;現在,MCP如共享介面,讓代理輕鬆查日曆、讀郵件、更新資料庫。報告圖示生動:代理A發郵件更新記錄,代理 B 確認資料庫變更,整個過程高效模組化。MCP已獲主流框架支援,被視為連接代理與企業基礎設施的核心。它加速部署,支援即插即用,尤其在雲、邊緣和感測器資料場景。另一協議A2A則專注代理間互動,形成multi-agent systems(MAS)的互操作層。報告展望:這些協議將讓AI agents在雲平台、企業網和邊緣裝置間自由流動,開啟即時感測器驅動的智能時代。安全不容忽視。AI agents架構獨特,能越過組織邊界呼叫外部工具,這帶來網路安全新憂。報告建議:視AI agents為“擴展員工”,用人類治理邏輯——權限漸增、行為測試、人機環路——管理風險。傳統存取控制已不足,需關注自治、權威和上下文,確保可靠邊界。分類與評估:從角色定義到風險把控報告第二部分轉向實用:如何分類、評估和治理 AI agents?它提出功能分類框架,按角色、自治度、權威、可預測性和營運上下文區分代理。這不是抽象標籤,而是指導評估與防護的藍圖——任務範圍小、環境可控的代理,防護可輕;高自治、高影響的,則需嚴謹審查。評估是關鍵。報告建議:用驗證案例測試行為,在人機環路中運行,逐步擴展自治。風險評估聚焦新威脅,如目標錯位或協調失效,借鑑OECD、NIST、ISO/IEC框架,擴展自治與系統風險原則。報告強調漸進治理:從小規模起步,迭代最佳化,連接評估與防護,確保信任、安全與問責。展望未來:多代理生態的曙光報告結尾展望多代理生態:代理間協作將催生複雜生態,如分佈式決策網路。但需警惕 emergent risks(湧現風險)。通過 AI 治理聯盟的協作,報告建議:從小做起,建好基礎,為更廣闊應用鋪路。 (AI資訊風向)