#黃仁勳
黃仁勳最新訪談:要想成事,這4點遠比智力更重要!
AI 浪潮之下,工作方式、組織形態與個人價值正迎來根本性重構。在最近的一次深度訪談裡,一手推動全球 AI 革命的黃仁勳,說了一句顛覆所有人認知的話:智能正在成為一種廉價的商品。在 AI 時代,人類真正的核心競爭力,從來都不是智商,而是人性。這位全球任期最長的科技公司CEO,手下管著60位各領域頂尖的專家,每一個人在自己的專業賽道上,智商和能力都遠超他本人。但黃仁勳這位掌舵人,帶著輝達從一家瀕臨破產的顯示卡公司,長成了如今市值4萬多億美元的 AI 時代第一大廠。這篇文章,我們就從黃仁勳的親身經歷和底層思考裡,拆透 AI 時代最本質的生存法則:當智能變成一種廉價商品,到底什麼才是一個人、一家企業,真正不可替代的護城河。一、你拚命內卷的“智商”,正在被AI變成廉價商品以前我們覺得,能寫一手好程式碼的程式設計師、能精準分析財報的金融分析師、能快速出全案的品牌策劃,都是靠高智商吃飯的 “不可替代者”。但現在,AI能在幾分鐘內完成這些工作,成本不到人工的百分之一,精準率甚至更高。黃仁勳說,我們一直把“智能”這個詞過度浪漫化了,從本質上看,它就是感知—理解—推理—計畫的閉環,是一套功能性的動作。AI正在做的,就是把這套功能性的智力動作,徹底工業化、標準化、廉價化。你拚命內卷的知識儲備、計算能力、邏輯推理,只要是能被拆解成流程、被標準化的,AI都能比你做得更快、更好、更便宜。很多人焦慮AI會替代自己,其實換個角度想,是把自己繫結在了AI最擅長的標準化智力勞動上。你和AI比算力、比記憶力、比標準化的邏輯推理,就像當年手工紡織工人和蒸汽機卷產量一樣,從一開始就輸了。就像工業革命把手工勞動者從標準化的體力勞動裡解放出來,AI革命,正在把我們從標準化的智力勞動裡解放出來。既然標準化的智商已經成了廉價商品,那在AI時代,我們真正要拼的,到底是什麼?二、黃仁勳用34年驗證出,AI永遠替代不了的4種核心能力1. 遺忘痛苦的能力,以及相信未來的韌性所有瞭解輝達歷史的人,都知道CUDA平台,但很少有人知道,當年為了做CUDA,輝達差點破產。在CUDA誕生之前,輝達只是一家做遊戲顯示卡的公司,靠著GeForce系列產品站穩了腳跟。但黃仁勳從一開始就知道,只做單一功能的產品,路只會越走越窄。他想做的是通用的加速計算平台,CUDA就是這個夢想的核心。但這個決策,在當時幾乎是“自殺式”的。把CUDA放進每一塊GeForce顯示卡裡,會極大增加晶片成本,直接吞掉公司全部的毛利。當時輝達的市值大約在70億美元,而CUDA推出後,市值一路跌到了15億美元,全公司上下和資本市場,全是質疑的聲音。換做任何一個人,面對這樣的局面大機率都會止損放棄。但黃仁勳扛住了所有壓力,硬生生把這個決策堅持了十幾年,最終讓CUDA成了AI時代全球計算的核心底座,也讓輝達完成了從顯示卡公司到AI基礎設施巨頭的躍遷。很多人問他,到底是怎麼扛過那段至暗時刻的?他在訪談裡說了一句很有意思的話:AI學習最重要的屬性,就是系統性遺忘。人也是一樣,真正的韌性,從來不是扛住痛苦的能力,而是快速遺忘痛苦的能力。面對挫折和焦慮,他永遠只做三件事:第一,把問題徹底拆解,分開那些是可控的、那些是不可控的;第二,快速遺忘那些不可控的失敗、尷尬、羞辱,不把它們背在身上;第三,把所有精力,放到一件現在就能做的、可控的小事上,立刻行動。你看,AI能做最精準的機率計算,能做完美的邏輯推演,但它永遠不會有 “明知大機率失敗,依然願意賭上整個公司堅持” 的勇氣,不會有摔得粉身碎骨,依然能爬起來繼續走的堅定與韌性。AI時代,不確定性只會越來越多,比起完美的規劃,能扛事、能遺忘、能重新出發的韌性,才是你最基本的生存底氣。2. 共情與信任的能力這次訪談裡,黃仁勳講了一句輕描淡寫,但是讓商業圈大受震撼的話:輝達和台積電合作了30年,涉及數百億美元的生意,但雙方之間沒有一份正式的合同。不止是台積電,黃仁勳能提前3年說服全球頭部記憶體廠商,在HBM記憶體(筆記俠註:一種先進的半導體儲存技術,主要用於滿足高性能計算、人工智慧、圖形處理等領域對記憶體頻寬和傳輸速度的極高需求)還只用於小眾超級電腦、幾乎沒有商用場景的時候,就砸下數十億美元擴產。很多人覺得,這是因為輝達的行業地位,是因為利益繫結。但黃仁勳自己說,這靠的不是合同約束,不是利益算計,而是基於共同願景的信任。黃仁勳做所有事,都是把自己的戰略、對未來的判斷,毫無保留地分享給合作夥伴,從第一性原理出發,給他們講清楚 “為什麼要做這件事”,給他們充分質疑的機會,給他們足夠的尊重。黃仁勳會告訴他們,未來3年行業會發生什麼,這個投資會給他們帶來什麼長期價值。對內管理也是一樣。他管著60個直屬下屬,全是各領域的頂尖專家,但他從來不開一對一會議,所有問題都放在公開會議上,所有人一起推演、一起解決。有人問他,這麼多人,一對一溝通根本忙不過來,不怕資訊不對稱嗎?他說:恰恰是一對一會議,才會造成資訊不對稱。所有問題放在檯面上,所有人都能聽到上下游的訴求,都能理解彼此的難處,都能一起參與決策,這才是最高效的協作。而這一切的前提,就是信任。AI能把利益帳算到極致,能做最精準的博弈分析,能寫出滴水不漏的完美合同,雖然AI能把一件件事情做好,但人與人之間必須建立在信任的基礎上才能把一件件看似難以聯絡在一起的事情打通,它永遠理解不了“信任”兩個字的重量。商業的本質,是人和人的協作。一份合同,只能約束對方不做壞事,只能守住合作的底線;但一份信任,能驅動一群人,一起做成一件沒人做過的大事,能拉高合作的上限。AI時代,資訊越來越透明,計算越來越容易,但真正稀缺的,永遠是別人願意毫無保留地和你背靠背的信任。注意,AI有做事的能力,但是AI不是生命,無法理解生命之間不只是理性才能協同。3. 願景與意義感黃仁勳在訪談裡說,他的60個直屬下屬,個個都是各自領域的超人,每一個人在專業上,都比他聰明得多。很多人都好奇,一個專業能力不如所有下屬的人,憑什麼能帶著這家公司,做成兆級的事業?答案很簡單:他能給所有人一個共同的願景,能定義 “我們為什麼要做這件事”,能給所有的技術、所有的算力,找到一個真正有意義的方向。他在訪談裡說,未來全球能程式設計的人,會從現在的3000萬,暴增到10億。因為程式設計的本質,早就不是寫一行行程式碼了,而是給電腦提需求、定規格、描述你想要實現的目標。這件事,AI能幫你完成99%。但AI永遠不能定義的,是“我們為什麼要寫這個程式碼”、“我們要解決什麼人的什麼痛點”、“我們要給世界帶來什麼改變”。輝達能從一家遊戲顯示卡公司,進化成AI時代的全球頂尖公司,靠的不是黃仁勳比別人更懂晶片設計,而是他從一開始,就看準了“加速計算”這個方向,想給全世界的創新者,提供最強大的算力基礎設施。那怕在最艱難的時候,這個願景也從來沒變過。AI永遠不會有“我想改變世界”的願望,永遠不會有“我想幫使用者解決一個痛點”的初心,永遠不會有“我想給社會創造價值”的意義感。而所有偉大的企業、偉大的產品,本質上都是被願景和意義感驅動的。AI是一個無限強大的工具,但工具永遠需要人來定義方向。沒有方向的算力,再強也毫無意義;沒有意義的智能,再先進也走不遠。AI時代,最不缺的就是能幹活的工具,最稀缺的永遠是能定義方向、賦予意義的人。4. 謙遜與成長力那怕現在成了全球頂級的CEO,黃仁勳在訪談裡,依然坦然說起自己的第一份工作是在餐廳刷廁所。他從來沒有“成功者的傲慢”,永遠保持著初學者的心態,永遠在向所有人學習。最能體現這一點的,是他對“繼任計畫”的理解。很多人都知道,黃仁勳以“不相信繼任計畫”聞名。有人說,這是因為他貪戀權力,覺得自己能一直幹下去。但他在訪談裡,給出了完全不一樣的答案:“我不相信繼任計畫,不是因為我是永生的。而是因為如果你真的關心公司在你之後的未來,你今天最該做的事,不是找一個接班人,而是持續地、毫無保留地傳遞知識、資訊、洞察力、技能和經驗,賦能你身邊的每一個人。”他的每一次會議,都是一次公開的推理會議。他不會直接下達指令,而是會把自己的思考邏輯、判斷依據、甚至是顧慮和不確定性,全部攤開給團隊看,帶著所有人一起推演,一起最佳化,一起成長。他學到的任何東西,從來不會在自己的腦子裡停留超過一秒鐘,立刻就會分享給團隊。他討厭“持續改進”的思維,因為這種思維本質上是默認了“現在的做法是對的”,只能小修小補。而他永遠會回到零,回到第一性原理,問自己:這件事為什麼要這麼做?如果從頭開始,以今天的技術和條件,我們能做成什麼樣?這種思維的前提,就是永遠保持謙遜,永遠不被自己過去的經驗和優越感困住。所以,真正的長期主義,本質上就是持續成長的能力,就是永遠能打破自己、重構自己的能力。AI時代,知識更新的速度只會越來越快,比起你已經掌握的知識,永遠保持謙遜、永遠能成長的能力,才是決定你能走多遠的核心。三、AI時代,修煉 “人性競爭力” 的4句話1. 把工作分成兩類:一類是標準化智力任務:比如做資料統計、寫常規程式碼、整理資料、套範本做方案、重複的報表分析;另一類是人性價值任務:比如和使用者聊真實的需求痛點、和團隊做深度溝通、制定業務的長期方向、解決非標準化的複雜問題、給客戶提供有溫度的服務。未來,要把你80%的精力,放到後者上面。AI能幫你高效完成前者,但後者才是你不可替代的核心價值。2. 比起完美的規劃,能讓你在不確定性裡站穩腳跟的,永遠是立刻行動的韌性。3. 不管是對合作夥伴、團隊同事,還是你的客戶,放棄零和博弈和 “算計到底” 的小聰明。和客戶合作,多做一件超出預期的事,那怕只是多給一個實用的小建議;和同事協作,多一分坦誠的溝通,少一點背後的算計;和夥伴相處,多站在對方的角度考慮問題,守住自己的底線,也給對方足夠的尊重。4. 永遠保持 “初學者心態”,放棄你的智商優越感。結語今天我們深嵌於一個新的時代,科技、經濟、哲學、政治都在經歷持續變革和深刻重塑的複雜社會與商業環境之中,而真正困住絕大多數人的核心挑戰,恰恰是:我們的認知框架、組織形態和行動邏輯,還停留在“前全球化時代”、“前AI時代”。 (筆記俠)
“沒中國,美國機器人就動不了”
《華爾街日報》4月2日刊文稱,中國和美國都將人形機器人視為戰略性產業,而眼下,中國人形機器人的快速發展,讓美國機器人也難以離開“中國製造”。今年3月,輝達CEO黃仁勳在輝達年度GTC大會上帶來了一位意外嘉賓——《冰雪奇緣》電影中雪人奧拉夫的機器人版本。這台機器人彙集了美國三家最知名的公司,由迪士尼提供角色,輝達和Google提供人工智慧技術。但《華爾街日報》注意到,這台機器人也是中國實力的展示。根據迪士尼公司的一篇論文,如果沒有中國機器人製造商宇樹科技提供的零部件來驅動其頸部和腿部的運動,“奧拉夫”就無法行走或擺動身體。中國公司正加緊鞏固其在人形機器人供應鏈中的地位。報導稱,儘管美國掌握著機器人“大腦”所需的最先進晶片和其他技術,但中國在人形機器人“身體”的製造生態系統方面擁有無可匹敵的優勢。在上個月的一檔播客節目中,黃仁勳坦率地表示,中國“在微電子、電機、稀土、磁體這些機器人產業的基礎環節,是全球最好的”,“世界機器人產業將不得不在很大程度上依賴它。”3月16日,美國聖何塞,輝達CEO黃仁勳在GTC全球大會上,與《冰雪奇緣》中的機器人雪人奧拉夫同台。 IC Photo據知情人士透露,特斯拉正在中國組建一個團隊,將與其Optimus(柯博文)人形機器人的供應商合作。據悉,特斯拉的員工已經拜訪了中國的感測器、電機和其他零部件製造商。此舉是為Optimus的量產做準備。馬斯克曾在去年11月預測,Optimus將成為“有史以來影響力遠超其他的產品”。得益於國內精密零部件供應充足,中國的人形機器人整機製造商能夠更快地將產品推向市場。據摩根士丹利稱,去年中國企業推出了28款人形機器人,幾乎是美國公司的三倍。政府支援、機器人體育賽事和電視表演,讓人形機器人在中國獲得了極高的公眾關注度,不僅催生了首批使用者,更助力中國企業贏得了資本青睞。宇樹科技是領先的機器人整機和零部件製造商之一,該公司計畫今年在上海進行首次公開募股(IPO),擬融資金額42.02億元。宇樹科技表示,該公司在2025年交付了超過5500台人形機器人,用於研究、教育和公共表演等用途,遠超美國競爭對手。宇樹在其IPO檔案中表示,“規模化量產進一步強化了公司與上游供應商的議價能力,形成成本優勢。”摩根士丹利估計,中國供應鏈可將人形機器人的製造成本降低多達三分之二。據高科技產業研究公司集邦(TrendForce)的資料,控制人形機器人運動的部件,包括專用電機和齒輪,約佔機器人總成本的55%。“中國人形機器人初創公司的優勢在於能夠利用其廣泛的供應鏈,”雅馬哈發動機(Yamaha Motor)旗下位於矽谷的投資部門Yamaha Motor Ventures的董事長大西圭一去年表示,並補充說,“中國擁有可以測試各種應用的市場,而且供應商願意承擔風險。”不過,報導指出,美國機器人製造商在獲取輝達晶片和其他美國人工智慧技術方面仍具有優勢,這也是為什麼中國企業積極爭取成為其零部件供應商的原因之一。2025年6月22日,浙江杭州,觀眾在杭州一機器人展上觀看特斯拉Optimus機器人東方IC從新加坡、東京到利雅德和拉斯維加斯,過去一年中,中國的零部件製造商已成為機器人行業展會的常客,而優必選、宇樹科技等公司也已聘請當地經銷商來拓展海外市場。報導還注意到,今年3月,在白宮舉行的一場教育峰會上,美國第一夫人梅拉尼婭與矽谷公司Figure AI開發的最新人形機器人並肩行走。“我是Figure 03,一款在美利堅合眾國製造的人形機器人,”該機器人向觀眾說道。然而,匯豐銀行分析師和知情人士表示,在早期機型中,Figure AI曾使用中國供應商提供機器人關節、感測器和電機。據報導,一些人形機器人零部件是從工業機器人、汽車和消費電子產品上改造而來的,但特斯拉正試圖自行設計和開發零部件,這將使其對有關技術擁有更多控制權,並能夠最佳化軟硬體之間的相容性。但這也意味著要依賴那些能以優惠價格提供定製零部件的中國供應商。特斯拉對中國的依賴在去年顯露無遺。據熟悉特斯拉供應鏈的人士透露,當時中國收緊了出口限制,特斯拉因此不得不減少Optimus機器人上稀土磁鐵的使用量。知情人士稱,今年,特斯拉已與一些中國供應商洽談,訂購足可生產數千台Optimus的零部件。這些零部件包括感測器、為實現精確高速運動提供動力的無芯電機,以及用於模擬人類關節動作的減速器。報導稱,中國供應商在快速提升其產品質量的同時,也在價格上保持著明顯優勢。一家生產絲槓的中國製造商正加緊努力,以求達到特斯拉所需的更高壽命標準。絲槓是機器人運動的關鍵部件。這家公司已經在為數家中國機器人製造商供貨,公司的一名市場經理說,特斯拉提出了更為嚴格的要求,包括縮小設計尺寸、將耐用性提高四分之一,同時價格仍要比歐洲產品低25%。“一旦我們縮小了差距,我們的成本結構將成為一個無與倫比的優勢。”這名經理說。 (觀察者網)
黃仁勳確認:輝達重啟H200對華生產!
在經歷長達數月的政策拉鋸與生產停滯後,輝達對華AI晶片銷售迎來實質性轉機。公司首席執行長黃仁勳周二在加州聖何塞舉行的GTC大會上宣佈,輝達已重啟面向中國市場的H200處理器生產,並已收到多家中國客戶的採購訂單,供應鏈正“重新開動”。H200是輝達Hopper架構系列的旗艦產品,性能較此前專為中國設計的H20晶片更為強勁,但落後於其最先進的Blackwell系列。自去年以來,輝達與中國市場的業務往來經歷了劇烈的政策過山車:去年4月,美國商務部叫停H20對華出口,8月又逆轉決定;然而,中國監管部門同時勸阻本土企業採購H20,輝達則轉而尋求更先進Blackwell晶片的出口許可,並於8月底暫停了H20的生產。去年12月,美國政策再度轉向,允許輝達向中國銷售H200晶片,條件是公司將銷售額的25%上繳美國政府。今年1月下旬,黃仁勳訪華後,中國監管部門也釋放出批准H200銷售的訊號。但在本周二之前,H200在華銷售的實際落地情況一直懸而未決。輝達在最近一期財報中表示,儘管已獲准向中國發運“少量H200產品”,但“至今尚未產生任何收入”。黃仁旭此次明確表示,近幾周來自中國的需求訊號已顯著增強。“我們已經獲得許多中國客戶的許可,也收到了他們的採購訂單,目前正在重啟生產。我們的供應鏈正在啟動。”輝達未透露H200對華銷售的具體收入預期,但公司此前曾表示,其AI處理器在中國的市場規模每年可達數百億美元。與這一利多消息同時公佈的還有公司未來將用50%自由現金流用於股票回購等股東回報計畫。 (晶片行業)
黃仁勳揭秘台積電真正護城河
人工智慧(AI)霸主輝達(NVIDIA)首席執行長黃仁勳(Jensen Huang)近日接受知名科技節目《Lex Fridman Podcast》專訪,深入剖析台積電(TSMC)稱霸全球的關鍵。他直言,台積電真正的護城河並非外界以為的單一技術,而是令人驚嘆的“製造奇蹟”與無可替代的“信任”。在這場深度對談中,黃仁勳不僅首次證實曾婉拒台積電創始人張忠謀的接班邀請,還透露雙方長達30年、規模高達數百億甚至數千億美元的合作,竟然從未簽署過任何合同,完美詮釋了兩大科技巨頭之間深厚的紐帶。點名台積電五大關鍵技術與營運奇蹟主持人佛里曼(Lex Fridman)向黃仁勳詢問台積電成功的秘訣。黃仁勳指出,外界對台積電最大的誤解,就是認為他們只是依靠單一技術取勝。他一口氣點出台積電涵蓋的五大核心技術實力,包括電晶體(transistor)、金屬化系統(metallization systems)、封裝(packaging)、3D封裝(3D packaging)以及矽光子(silicon photonics)。黃仁勳強調,這些技術確實是公司與眾不同的基礎,但台積電真正的“奇蹟”,在於其無與倫比的營運協調能力。面對全球數百家客戶動態且複雜的需求,台積電能夠靈活應對訂單的增加、延遲或緊急調整,同時維持極高的產能吞吐、優秀的良率和出色的成本控制,確保客戶的晶圓能夠按時交付。無合同建構千億美元級信任除了強大的硬實力,黃仁勳還特別強調台積電獨特的企業文化。他觀察到,科技行業中許多公司要麼專注尖端技術,要麼偏重客戶服務,很少有企業能夠同時做到“技術極致”與“以客戶為中心”,但台積電做到了。而讓黃仁勳最為看重的,是台積電建立的一種名為“信任”的無形資產。“我信任他們,所以願意把整個公司的命運交託給他們,這是非常重大的決定。”他表示,輝達與台積電合作長達30年,涉及業務規模高達數百億甚至數千億美元,但令人驚訝的是,雙方“從未簽署過任何合同”。這種超越商業利益的深度信任,成為輝達能夠專注於AI系統研發、無後顧之憂的重要基礎。婉拒張忠謀接班邀請訪談中還提到一段科技行業的經典往事。佛里曼問及,外界傳聞2013年張忠謀是否曾邀請黃仁勳接任台積電CEO,黃仁勳大方證實了這一說法。他表示,張忠謀是他人生中極為敬重的企業領袖和朋友,能夠獲得這樣的邀請,他感到非常榮幸與謙遜,因為他深知台積電是歷史上最具影響力的企業之一。但他最終選擇婉拒這一機會,因為他對輝達的發展有著清晰的判斷,並堅信公司將對世界產生深遠影響。“這是我的責任,我必須把它實現。”黃仁勳說道。事實證明,他留在輝達,不僅推動了全球AI計算革命,也笑稱如今“可以同時幫助這兩家公司”。 (芯算力)
🎯隱藏版台積電供應鏈→微米定位系統即將發光發熱!Line@連結:https://lin.ee/mua8YUP⭕2026年AI大爆發,台股誰是最大贏家?答案只有一個:2330台積電。在輝達GTC大會上,黃仁勳再次把AI算力推到極限。但所有算力的終點,都只會回到同一座山。【2330台積電】而台積電自己也說得很白:2026年營收要成長近30%。⭕重點來了!當台積電今年資本支出衝到520~560億美元。這不是小錢,這是一場設備軍備競賽。所以市場早就盯上幾檔設備股:3131弘塑、3583辛耘、6187萬潤、3680家登問題是,這些大家都知道,股價也早就漲上去了。真正的大行情,往往藏在市場還沒看懂的地方。江江最近鎖定一家公司【4576大銀微系統】🔎暴力數據:這不是成長,這是「跳級」!•獲利噴發: 2025年EPS直接翻了將近3倍,獲利成長294%!•毛利回歸: 守穩35%大關,專接半導體高階訂單。•開春即巔峰:今年1月營收年增居然衝到70%,2月繼續噴22%。大銀微不只賣零件,它賣的是「微米定位系統」。連台積電的核心供應商萬潤,都要回頭跟大銀微買模組。這就是「供應鏈中的供應鏈」,護城河深到對手根本跨不過來!🤖隱藏大絕:AI機器人與物流的新戰場!別忘了,它背後有上銀集團撐腰,現在更殺進了人形機器人與AI物流關節。當大家還在爭論AI伺服器時,大銀微已經把驅動器裝進了未來的機器人手臂裡。🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
黃仁勳喊出“推理拐點”,邊緣推理的機會窗口打開了嗎
上周,紐約時報報導了矽谷一個新風氣叫 tokenmaxxing,Meta 和 OpenAI 的工程師在內部搞 token 消耗量排行榜,比誰燒得多。黃仁勳在 GTC 2026 上更激進,提議企業給工程師發 token 預算,作為工資之外的第二份薪酬。OpenAI 的資料則顯示,過去一年企業客戶的推理 token 消耗量暴漲了約 320 倍。需求側在爆炸。供給側呢?黃仁勳在同一場 keynote 上搬出了 Tokenomics 這個概念,把它從加密貨幣的語境裡拎出來,重新定義為 AI 推理的經濟學。核心指標叫 Tokens per Watt,衡量每瓦特電力能產出多少 token。他說推理拐點已經到了,NVIDIA 預計 Blackwell 和 Vera Rubin 晶片訂單量到 2027 年將達到 1 兆美元。國內大模型廠商一直在講類似的事情,只是換了說法叫“推理成本”或者“token 單價”。不管那種說法,指向的問題是一樣的,當 token 變成 AI 時代的水電煤,誰來建發電廠和電網?過去三年,行業給出的答案是,建更大的資料中心,塞更多的 GPU。這在訓練時代完全成立。但推理和訓練的邏輯不同。訓練一個模型是一次性工程,推理要做幾十億次,而且對延遲極度敏感。當推理請求像洪水一樣湧來,把所有 GPU 集中在幾個超巨量資料中心裡,可能恰恰成了瓶頸。瓶頸不在算力,在物理。具體來說,在光速。推理時代撞上“光速牆”在今年 GTC 上,有一家公司對這個問題給出了非常系統的回答。Akamai,國內讀者可能不太熟悉這個名字,但在海外,它是 CDN 概念的開創者,也是目前全球最大的分散式運算平台,擁有業內最龐大的邊緣節點網路。1998 年成立,全球前十的視訊串流媒體平台、遊戲公司、銀行基本都是它的客戶。全球擁有超過 4400 個邊緣入網點,覆蓋 130 多個國家,承載全球近三分之一的網際網路流量。這家公司在近三十年裡經歷了三次轉型,從 CDN 到安全,再到雲端運算和 AI。今年 GTC 上,它帶來了兩個 session,核心主題只有一個,為什麼 AI 推理必須走向分佈式。Akamai CTO Office 的 SVP Andy Champagne 在 session 上描述了一個“個人 AI 導播”的場景,非常有畫面感。一場 F1 比賽有 20 多個 4K 機位同時在拍,傳統做法是導播間一個人切鏡頭,幾百萬觀眾看到的畫面一模一樣。但如果每個觀眾都能看到根據自己偏好定製的直播流,喜歡的車手、偏愛的鏡頭角度,那就需要在邊緣即時合成個性化的視訊。幾百萬路不同的 4K 視訊流,不可能從一個資料中心統一往外推。類似的邏輯出現在越來越多的即時場景裡。遊戲 NPC 需要在 50 毫秒內響應,超過這個閾值玩家體感明顯示卡頓。Akamai 產品管理 VP Shawn Michels 在另一個 session 舉了即時廣告插入的例子,從掃描視訊、識別廣告位、競價、生成個性化廣告到拼回視訊流,整條鏈路的預算只有 100 毫秒。這恰恰是 Akamai 的先天優勢所在,它在全球已有超過 4400 個邊緣節點,這種“就近處理”的能力不是純雲廠商從零搭建能輕易追上的。同樣的延遲壓力還存在於 AI 語音助手、電商推薦引擎、智能試衣間、自動駕駛感測器處理和工業產線質檢等場景中。AI 一旦嵌入即時應用,就必須繼承那個應用原本的延遲要求。物理定律不會因為 GPU 更快就網開一面。光在光纖中每秒約跑 20 萬公里,從倫敦到美東資料中心單程延遲約 28 毫秒,往返就是 56 毫秒。從東京出發更遠,往返約 134 毫秒。這還沒算任何計算時間。回頭看上面那些場景的延遲要求,不難理解為什麼把推理全部扔到少數幾個集中式資料中心裡是行不通的。延遲之外還有頻寬。Andy 在 session 裡算了一筆帳,同樣 1GW 的算力,如果集中在一個資料中心用 Blackwell 做視訊推理,出口頻寬需求是 75 Tbit/s。分佈到 20 個區域節點,每個只需 3.75 Tbit/s。集中式的出口流量是分佈式的 20 倍,背後的網路成本差距不言而喻。如果換成下一代 Vera Rubin,集中式的出口頻寬更是飆到 135 Tbit/s。晶片越快,集中式架構的出口瓶頸反而越嚴重。在同一個 session 上,Comcast負責 AI 與邊緣計算方向的嘉賓從等候理論的角度做了更嚴謹的分析。在相同 GPU、相同模型的條件下,集中式和分佈式部署之間僅僅 14 毫秒的往返延遲差異,就導致了約 30% 的 GPU 利用率差距。他的原話是,“這是物理定律層面的優勢,沒法靠 batching 或者提高 tokens/s 來彌補。”一個近三十年的伏筆Andy 在 session 上做了一個很有意思的類比,把 AI 的發展時間線和網際網路做對齊來看。網際網路的普及率已經超過 95%,AI 目前大約只有 7%。他的判斷是,AI 現在大概處於網際網路的 MySpace 時代。想想 MySpace 之後又誕生了多少公司、多少市值、多少技術突破。AI 的好戲才剛剛開始。這個類比其實點出了 Akamai 做分佈式推理的底層邏輯。近三十年前這家公司解決的問題和今天面對的問題,結構上是一樣的,把集中的東西變成分佈的。當年分發的是網頁和視訊,現在分發的是 AI 推理。方法論一脈相承。他在 session 結尾說了兩句話,頗能概括這種邏輯,“AI 工廠創造智能,AI Grid 分發智能”,以及“沒有分佈式推理的 AI,就像沒有 CDN 的網際網路”。GTC 期間,NVIDIA 官方將 Akamai Cloud 和 AWS 一起列為首批提供 RTX PRO Blackwell Server Edition 實例的雲服務商。黃仁勳 keynote 展示的合作夥伴 logo 牆上,Akamai 赫然在列。NVIDIA 電信業務全球副總裁 Chris Penrose 評價說,Akamai 通過營運 AI Grid,正在為生成式 AI、AI Agent 和物理 AI 建構連接組織,將智能直接推送到資料所在的地方。Akamai 也在 GTC 上正式發佈了業界首個全球規模落地 NVIDIA AI Grid 參考架構的方案,將 NVIDIA AI 基礎設施深度整合到自身的分佈式網路中。這不是一個鬆散的合作。Akamai 是首家將 AI Grid 從概念推到營運等級的廠商,底層跑的是 NVIDIA AI Enterprise 軟體棧、Blackwell 架構 GPU 和 BlueField DPU 加速網路的完整技術堆疊。推理基礎設施的幾個現實問題回到地面,對於正在考慮推理部署的 AI 團隊,有幾個繞不開的現實問題。不是所有推理都需要 H100。 這個認知正在被越來越多團隊接受。H100 為訓練和大規模推理而生,但如果跑的是 8B 參數的模型、做的是語音互動或者視訊分析,用 H100 就像開卡車送外賣。Akamai 目前部署的 RTX PRO 6000 Blackwell Server Edition 是一個值得關注的選項。直接看 Token 經濟,$2.50/小時全包價,每美元 Token 產出是同類方案的 2.1 倍。性能層面,這張卡配了 96GB GDDR7 視訊記憶體和 4,000 TOPS FP4 算力,在 NVFP4 精度下推理吞吐量比 H100 高出 60% 以上,對比上一代 RTX 4000 Ada 提升達 19 倍。另一個容易被忽略的差異是視訊處理能力,RTX PRO 6000 原生支援 112 到 132 路視訊編解碼,如果做的是視覺 AI 相關的產品,這個能力是定位於訓練和超算的 H100 不具備的。再加上風冷設計,在邊緣機房有限的空間和功耗條件下部署門檻低得多。Shawn Michels 在 GTC session 裡的觀點說的是未來的推理基礎設施一定是混合架構,不同 GPU 匹配不同的工作負載,沒有萬能卡。Egress 費用是隱性殺手。 很多團隊做預算時只看 GPU 租用價格,忽略了資料出站費。AI 產品服務全球使用者,視訊和模型響應產生的出站流量成本可能比 GPU 本身還貴。邊緣部署的經濟邏輯之一正在於此,推理結果在本地生成、本地交付,不用跨大半個地球回傳。Akamai 的 egress 價格是 $0.005/GB,和三大雲廠商的差距非常明顯。調度比算力更難。 GPU 散到全球各地只是第一步,更難的是讓每個請求找到最合適的那台機器。Akamai 在 GTC 上展示了他們的 AI 編排器(Orchestrator),這不是傳統的根據延遲和負載來分配流量的負載平衡。它會考慮模型親和性(那台機器已經載入了需要的模型)、GPU 視訊記憶體佔用、KV Cache 狀態等 AI 場景特有的因素來做即時路由決策。現場 demo 中,推理請求從巴黎節點即時切換到加州節點,使用者側完全無感知。這背後是 Akamai 做了近三十年流量調度的老本行,在 AI 場景上的自然延續。目前 Akamai 的 Blackwell GPU 節點已覆蓋歐洲、亞太和美洲共 19 個節點,配合 4400 多個邊緣入網點協同工作。對於出海的 AI 團隊來說,東京、新加坡、孟買、雅加達這些亞太節點尤其值得留意。出海 AI 創業者的第三種選擇Akamai 從 CDN 到安全,再到雲端運算和 AI 推理的轉型路徑,本身就是網際網路基礎設施演進的一個切面。它在這條賽道上的差異化在於,不是從零建資料中心,而是把已經運行了近三十年的全球分佈式網路變成了 AI 推理的底座。這步棋能走多遠,取決於它能不能跟上 AI 硬體更新的速度,也取決於邊緣推理的市場需求能否如預期般爆發。但對中國出海 AI 創業者來說,一件事正在變得越來越清楚,全球化部署推理能力正在從“以後再說”變成“現在就得解決”。合規(資料主權、不出境)、延遲(使用者體驗的硬門檻)、成本(egress 和 GPU 租用的真實帳單),這是出海時最現實的三座山。Akamai 的邊緣推理平台提供了一種此前不太存在的選擇,不必自建全球基礎設施,也不必把雞蛋全放在幾家超大規模雲上,而是可以借助一張已經覆蓋 130 多個國家的分佈式網路,把推理跑到離使用者最近的地方去。 (矽星人Pro)
【GTC 2026】CPO爆發前夜,回顧矽光40年
2026年的加州聖何塞,NVIDIA GTC 大會的聚光燈下,黃仁勳(Jensen Huang)再次向全球亮出了擁抱光學的技術風向——基於光電共封裝(CPO)技術的 Spectrum-X正在全面生產。然而,在這個被矽光技術照亮的“高光時刻”背後,支撐起今天這場百萬級 GPU 互連大爆炸的底層基石,曾經歷過一段長達四十年的漫長蟄伏。如果我們將歷史的指針撥回20世紀末,你會發現,今天在 GTC 大會上被萬眾矚目的“光電同芯”願景,在當年僅僅是一場極具前瞻性卻又備受冷落的科學空想。那是一個被摩爾定律和廉價銅線絕對統治的時代,矽光空有一身“屠龍之術”,卻找不到屬於自己的戰場。這是一段關於折射率、載流子與人類算力飢渴症交織的科技史。它講述了一束不被需要的“微光”,如何從實驗室的冷板凳出發,熬過產業的凜冬,最終在AI時代的前夜,蛻變為重塑整個資訊社會的終極基礎設施。讓我們重回1980年代,去看看那個不合時宜的“早產兒”,是如何一步步走到黃仁勳懷中成為“寵兒”的。1980年代末——矽光概念初誕生,但世界沒有在等待它在20世紀最後二十年的技術版圖中,資訊世界呈現出一種奇特的“二元對立”:以矽(Si)為核心的半導體工藝統治著運算,而以磷化銦(InP)等III-V族材料為核心的化合物半導體則統治著通訊。元素周期表三族和五族兩者像兩條平行線,在各自的領域高速狂奔。在當時的工程界看來,嘗試讓“不發光”的矽去處理光子訊號,無異於一種離經叛道的空想。然而,正是這種不合時宜的構想,在一些先驅的實驗室中被悄然勾勒出了矽光子學的雛形。矽光子學的物理根基,最早是由被譽為“矽光之父”的理查德·索雷夫(Richard Soref)在1980年代中期確立的。Richard Soref索雷夫在矽光子學界的地位始於他從20世紀80年代中期到90年代初發表的一系列論文。“早期,我提出並繪製了典型的器件密集型光電積體電路的示意圖,有些人稱之為EPIC(電子-光子積體電路)。我知道晶圓級的E+P將是兩種技術的完美結合。”他的早期研究確立了矽作為光子積體電路(PIC)可行平台的地位,索雷夫還指出矽也擁有完善的製造基礎設施。他關於該主題的第一篇論文於1985年發表在《電子快報》上,題為“單晶矽:一種用於1.3和1.6微米整合光器件的新材料”。由於矽晶體的對稱性,它缺乏像鈮酸鋰那樣顯著的線性電光效應(Pockels Effect),這意味著無法通過簡單的電場直接改變矽的折射率來調製光。1987年,索雷夫發表了具有里程碑意義的論文,定量推匯出了載流子濃度變化與矽折射率及吸收係數之間的關係,即電漿體色散效應”(Plasma Dispersion Effect)。這一發現為矽光器件提供了一套物理上的“基本法”,證明了通過電學手段操控矽中光子的可能性,使矽調製器的誕生成為理論上的現實。他談到最初關於矽光子學的一系列論文時說:“我詳細闡述了一種新的、主要採用單片技術的方案,其中在室溫下工作的片上波導調製器、開關、光電探測器和雷射二極體與各種‘無源’分路器、合路器、濾波器、偏振器等互連在一起——所有這些都協同工作。”索雷夫說,在他發明矽光子學之前,他知道市面上有一些半導體器件可以滿足光纖收發器晶片的雷射發射和探測功能,但他覺得這些器件笨重、奇特且昂貴。“當我意識到矽在1550奈米光纖通訊波長下具有很高的透明度時,我設想了一種更優雅、更簡單、更經濟的晶片,如果我能設計出低損耗的波導將所有元件連接起來,它就能完美地實現這一目標。”在這之後,矽光領域研究的火種傳到了英國薩裡大學的格雷厄姆·裡德(Graham Reed)手中。裡德教授及其團隊在實驗室內開始了艱苦的“煉金術”,他們率先研製出低損耗的矽波導,並驗證了基礎光學電路在矽片上的可行性。(Graham Reed在2025年發表了首個耗盡型調製器的設計方案,該方案現已成為行業標準,此外他還設計了具有里程碑意義的高速調製器。裡德目前是六個國際會議委員會的成員,已在矽光子學領域發表了約500篇期刊和會議論文,並在重要的國際會議上發表了170多場特邀演講。)Graham Reed在測試光子電路與此同時,1990年萊斯特·坎漢姆(Leigh Canham)關於“多孔矽發光”的發現。Leigh Canham 發現多孔矽能夠在室溫下發射可見光,這一發現打破了長期以來“矽不能發光”的傳統認知。矽作為間接帶隙半導體,其電子與空穴復合通常不產生光發射,因此在光電子器件中一直依賴 III-V 族材料如砷化鎵。然而,Canham 通過電化學蝕刻製備的多孔矽顯示出強烈的光致發光現象,表明矽同樣可以作為光源材料使用,這為矽光電子學的發展提供了基礎。Leigh Canham 手持一塊多孔矽晶片,在紫外光照射下發出橙色光芒這一發現,像一劑強心針刺激了學術界,引發了人們對“矽基全光整合”的巨大幻想!雖然多孔矽最終因其不穩定的物理特性未能走向商業,但它在客觀上打破了矽不能作為光學載體的認知壁壘,促使更多的資源向這一前沿領域傾斜。然而,1990年代的矽光技術更像是一個“早產兒”,它降臨在一個尚未準備好迎接它的世界裡。在那個時代,半導體產業的統治邏輯依然是極致的摩爾定律——通過縮小電晶體尺寸來搾取處理器的頻率。當時奔騰處理器的頻率尚在數百兆赫茲徘徊,傳統的銅線互連在電路板上遊刃有餘,訊號傳輸的物理瓶頸尚未顯現。與此同時,以電信營運商為主導的光通訊市場依然沉浸在長距離、低損耗的宏大敘事中,昂貴但性能卓越的III-V族離散器件足以支撐起當時的全球骨幹網。對於那時的工業界而言,矽光子學既沒有迫切的應用場景,也缺乏成熟的生態支撐。1990年代——矽光找到了“應許之地”但依然比不過一根銅線在矽光技術史的敘事中,1990年代不僅是一個時間跨度,更是一次從物理理論向材料平台演進的“範式轉移”。這一時期,矽光子學開始擺脫實驗室裡的零散研究,正式確立了以SOI(絕緣體上矽)為核心的工藝路徑,而一批兼具科學家洞見與工程野心的先驅,開始嘗試在這片“不毛之地”上建立工業秩序。1990年代後期,矽光子學終於找到了它的“應許之地”:SOI(絕緣體上矽)工藝的走向成熟。在此之前,理查德·索雷夫(Richard Soref)雖然在理論上推匯出了矽的載流子色散效應,但如何在粗糙的晶圓上精準地操縱光子依然是工程夢魘。格雷厄姆·裡德(Graham Reed)教授在薩裡大學的實驗室裡率先意識到,SOI結構不僅是電子工業為了減少寄生電容的利器,更是為光子量身定製的“精巧牢籠”。通過在頂層矽與底部矽襯底之間嵌入一層數百奈米厚的二氧化矽埋層,工程師們利用矽與二氧化矽之間巨大的折射率差,將光線通過全反射原理死死鎖在微米級的導芯中。這種高折射率對比度(High Index Contrast)帶來的革命性後果是,光子器件實現了從毫米級到亞微米級的“維度塌縮”,使得在指甲蓋大小的晶片上整合複雜的光學功能變為了物理可能。這一時期的技術突破,離不開從實驗室走向工業界的“造風者”。時間回退到1988年,裡德的學生、也是矽光產業化的關鍵旗手安德魯·瑞克曼(Andrew Rickman)創立了全球首家矽光公司——Bookham Technology。瑞克曼不僅承襲了學術界的物理洞察,更引入了半導體製造的標準化思維。在1990年代後期,瑞克曼推出的 ASOC(Active Silicon Optical Circuit)平台取得了初步成功。ASOC是矽光產業化的核心技術之一。該平台通過利用 CMOS 工藝線,能夠像生產電腦晶片一樣批次製造光調製器、波導和其他光子元件,實現矽光積體電路的標準化和規模化生產。這種方法不僅提高了生產效率,還保證了器件的可重複性和可靠性,使得矽光技術能夠從學術概念走向實際工程應用。ASOC 平台也為後續高速光調製器、整合光波導、光互連和光通訊晶片的產業化提供了技術基礎。然而,儘管有Soref的理論護航、Reed的實驗驗證以及Rickman的商業試水,當時的矽光技術依然面臨著深刻的“需求缺位”與“生態圍剿”。那是一個屬於電信骨幹網的時代,通訊的戰場在數千公里的深海和跨洲陸纜,以磷化銦(InP)為代表的三五族半導體憑藉天然的發光效率統治著長途通訊市場。對於當時的廠商而言,矽光方案雖然有著宏大的整合前景,但在發光功率和傳輸損耗上仍無法與成熟的化合物半導體抗衡。更具諷刺意味的是,當時PC內部的銅線互連尚能輕鬆應對兆赫茲等級的訊號傳輸,資料中心的概念還未誕生,人類對頻寬的渴求遠未觸及電訊號的物理極限。1990年代末的矽光子學,更像是一場“被提前預告的未來”。它在SOI平台上完成了物理形態的重塑,證明了光子可以像電子一樣被“整合”和“操控”,但它所瞄準的戰場——那個由雲端運算和超大規模互連定義的數字時代——還在十年後的地平線下。那時的矽光子學,正如同瑞克曼在Bookham在商業化前期所經歷的掙扎一樣,在銅線的統治力與光纖的昂貴壁壘之間,孤獨地打磨著那把名為“整合”的利劍,靜默地等待著電學互連徹底走向死胡同的那一天。二十一世紀的第一個十年——摩爾定律的“牆”與矽光的“斯普特尼克時刻”跨入21世紀,資訊產業的敘事邏輯發生了一場隱秘而劇烈的裂變。曾經在1990年代無往不利的摩爾定律,在這一時期撞上了一堵冰冷的“功耗牆”:處理器的時脈頻率在達到3GHz左右後便陷入了停滯,熱量的堆積讓電子訊號在銅線中的穿行變得步履維艱。與此同時,Web 2.0時代的降臨引爆了資料流量的指數級增長,資料中心內部那如同迷宮般的電纜互連,正迅速演變為整個計算系統的頻寬瓶頸。世界終於開始意識到,光子整合不再是實驗室裡的“盆景”,而是打破電學極限的一台破壁機。2004年,矽光子學迎來了一個足以被載入史冊的“斯普特尼克時刻”。(因競爭對手在關鍵科技或軍事領域取得突破,導致自身突然意識到落後從而產生巨大危機感與急迫感的特定時刻)在英特爾(Intel)光子學技術實驗室總監馬里奧·帕尼西亞(Mario Paniccia)的帶領下,科研團隊在《Nature》雜誌上宣佈,他們利用MOS電容結構,研製出了世界上首個頻寬突破1Gbps的矽基光調製器。Mario Paniccia這一成果的震撼之處不在於速度本身,而在於它精巧地利用了電場誘導的載流子積累(Carrier Accumulation)來改變折射率,從而實現了對光波相位的高速調控。帕尼西亞向物理界證明,即使沒有昂貴的鈮酸鋰晶體,單憑成熟的CMOS工藝,矽也能像電子開關一樣,精準而快速地“剪斷”或“連接”光束。自此,矽光從學術界的邊緣孤島,正式進入了晶片巨頭的戰略版圖。然而,矽光的版圖上依然缺失著最後、也是最難的一塊拼圖:光源。矽作為間接帶隙材料,其自發輻射效率極低,這一物理詛咒讓矽基雷射器成了領域內的“聖盃”。2006年,一場材料學上的“異質聯姻”化解了這個僵局。加州大學聖塔芭芭拉分校(UCSB)的約翰·鮑爾斯(John Bowers)教授與英特爾團隊合作,通過一種極富創造性的低溫電漿體驅動晶圓鍵合(Wafer Bonding)技術,將能發光的磷化銦(InP)材料像貼瓷磚一樣,在原子級尺度上緊密地結合在SOI襯底上。John Bowers這種混合整合矽基雷射器(Hybrid Silicon Laser)的誕生,標誌著矽光子學完成了從“被動器件”向“主動發射”的跨越。鮑爾斯展示了一種務實而優雅的折中方案:既然無法從基因上改變矽,那就通過特殊的表面活性處理克服晶格失配(Lattice Mismatch),讓矽成為承載複雜光路的“地盤”,而讓III-V族材料作為外來的能量引擎,在同一個矽平台上實現光電共存。在這一技術長征的側翼,商業化的火種也開始在南加州點燃。2001年,由凱里·岡恩(Cary Gunn)等人創立的 Luxtera 公司成立(全球首家無晶圓廠半導體公司)。他們率先意識到,矽光技術的真正威力並不在於單個器件的極限性能,而在於單片整合(Monolithic Integration)所能釋放的系統級潛力。過去,光調製器、光電探測器和 CMOS 驅動電路通常分開製造,再通過手工或有限自動化方式組裝在光模組中,這不僅增加了成本,也限制了性能一致性與產能規模。Luxtera 大膽嘗試了“光電同芯”的理念,在同一塊 SOI(矽上絕緣體)矽片上同時製造高性能光調製器、光電二極體以及複雜的 CMOS 驅動電路,實現了光子器件與電子電路的完美融合。在技術實現上,這一突破面臨多重挑戰。光調製器和光電探測器需要精細控制矽波導的厚度、摻雜濃度和折射率分佈,以實現高效率光訊號傳輸和調製;而 CMOS 電路則要求高摻雜區、電容匹配和互連層設計,工藝溫度和材料選擇與光子器件存在潛在衝突。Luxtera 通過精密工藝設計與多層摻雜調控,使光子器件與 CMOS 電路能夠共存而互不干擾。SOI 平台在其中起到了關鍵作用:其高折射率對比的矽層實現了光的強束縛和低損耗傳輸,同時下方的絕緣襯底支援 CMOS 電路佈局。這種單片整合方案不僅解決了技術難題,也帶來了巨大的規模化生產優勢。傳統光模組依賴手工組裝,良率低、成本高,而 Luxtera 的方法能夠利用成熟的 8 英吋甚至 12 英吋矽晶圓產線批次生產光子–電子整合晶片,保證器件性能一致性,同時顯著降低成本。這使得光模組的價格與電子晶片接近,為大規模資料中心光互連和高速光通訊提供了經濟可行的解決方案。此外,單片整合在系統級上也帶來了顯著優勢:它節省了封裝空間,減少了光路和電路之間的介面損耗,提高了訊號頻寬與穩定性。Luxtera 的嘗試充分證明了矽光技術不僅是一門物理實驗,更是一門極致的成本藝術,通過將光子器件性能潛力與 CMOS 工藝規模化優勢結合,實現了性能、產量與成本的三重最佳化,使傳統手工組裝光模組在競爭力上幾乎無法望其項背。到2000年代末,科學家在矽片上馴服了光子,更重要的是,他們確立了“以電的標準做光”的工業哲學。此時的矽光,已經褪去了實驗室的基礎研究外衣,正蓄勢待發,準備迎接即將到來的、由雲端運算和超大規模資料中心定義的瘋狂十年。2010年代:雲端運算的無底洞與矽光的“黃金爆發期”進入2010年代,矽光子學終於等來了那個它在荒野中苦盼了二十年的“完美風暴”——超大規模資料中心(Hyperscale Data Center)的崛起。隨著亞馬遜AWS、微軟Azure和Google雲的瘋狂擴張,網際網路流量的形態發生了根本性逆轉:曾經主導網路的“南北向流量”(使用者與伺服器之間)逐漸讓位於“東西向流量”(資料中心內部伺服器與伺服器之間)。在一個擁有數十萬台伺服器的機櫃叢林中,每天都有海量的資料需要跨越幾十米到兩公里的距離進行互動。在這個距離區間,傳統的銅線(DAC)在100G速率下面臨嚴重的訊號衰減,傳輸距離被死死限制在幾米以內;而長途電信網中大顯神威的傳統三五族離散光模組,又因為需要大量人工耦合與組裝,成本高昂,根本無法滿足資料中心動輒數以百萬計的採購需求。世界不僅需要光,更需要“廉價、海量、高度一致”的光。這正是矽光子學與生俱來的宿命。此時,曾經在2000年代埋下的技術種子,終於迎來了狂飆突進的商業收割期。2016年前後,英特爾(Intel)祭出了籌備十餘年的殺手鐧——100G PSM4(及其系列)矽光模組。通過將自家的混合整合矽基雷射器與高性能調製器完美打包,英特爾首次向業界證明,矽光不僅能做demo,更能在300毫米(12英吋)的晶圓流水線上,像生產CPU一樣被成千上萬地“復刻”出來。這種規模效應帶來了成本的斷崖式下跌,直接擊穿了資料中心全面引入光互連的價格底線。在那幾年裡,英特爾的矽光模組出貨量以百萬隻計,成為了主導資料中心100G迭代浪潮的絕對霸主。馬里奧·帕尼西亞等人在新世紀初的預言,終於化作了伺服器機架上閃爍的訊號燈。在電子半導體領域大獲成功的“代工廠(Foundry)+ 無晶圓廠(Fabless)”模式,被成功移植到了矽光領域。台積電(TSMC)、格芯(GlobalFoundries)以及Tower Semiconductor等頂級代工廠,開始向業界提供標準化的矽光工藝設計套件(PDK)。這意味著,光子晶片的設計者不再需要自己擁有一座造價百億美元的晶圓廠,只需要像寫程式碼一樣呼叫PDK中的標準光子器件庫,就能將設計圖紙轉化為實實在在的矽光晶片。這一“技術平權”運動催生了一大批耀眼的矽光新星,例如將矽光與相干通訊(Coherent)結合、專攻資料中心互連(DCI)的 Acacia Communications,它們將複雜的數字訊號處理(DSP)與矽光引擎結合,把原本需要一個冰櫃大小的相干光端機,縮小到了一個插拔模組的尺寸。在這一時期,傳統網路裝置巨頭的焦慮與貪婪,更是成為了矽光加冕的終極背書。意識到“得矽光者得天下”的思科(Cisco),揮舞著支票簿開啟了瘋狂的掃貨模式:2012年斥資收購矽光先驅Lightwire,隨後又在2018年以26億美元的驚人天價,將當年堅持“單片整合”路線的矽光元老 Luxtera 收入囊中。這些巨額併購不僅是資本市場的狂歡,更是產業底層的共識——當交換機晶片的吞吐量向著12.8T、25.6T無情攀升時,傳統的插拔式光模組註定會在面板密度和功耗上走向絕路(未來的某個時間)。2010年代末的矽光史,還曾留下過一個名為板載光學(On-Board Optics, OBO)的中間形態。以微軟(Microsoft)主導的COBO(板載光學聯盟)為代表,業界的先驅者們曾試圖推行一種折中方案:將光收發元件從擁擠的前面板拆下,直接“鋪”在交換機主機板上,通過中繼電纜連接到ASIC晶片。從邏輯上看,OBO的設計極具誘惑力。它既縮短了電訊號在PCB上的傳輸距離,降低了功耗,又巧妙地避開了CPO所需的高難度異質封裝技術,維持了供應鏈的獨立性。然而,這一構想在商業實踐中卻遭遇了尷尬的“夾擊”。對於普通的雲端運算廠商而言,插拔式模組通過不斷最佳化DSP演算法和材料工藝,頑強地將100G甚至400G的傳輸壽命延長到了極限,使得OBO的性能優勢顯得並不緊迫;而對於追求極致頻寬的AI算力巨頭而言,OBO節省的那點電學路徑又顯得“隔靴搔癢”,無法徹底解決51.2T時代後的散熱難題。最終,OBO在產業史中扮演了一個悲情的過渡角色。它雖然未能在市場上形成統治地位,但它在工程上驗證了“光電解耦”的可行性,並迫使整個產業鏈開始思考如何處理主機板上的高密度光纖管理。然而,技術的車輪從未停止碾壓。當時間推演至這十年的尾聲,隨著AI大模型概念的暗流湧動,算力網路對I/O頻寬的渴求正在醞釀一場比“雲端運算”更加暴烈的革命,而矽光,即將被迫褪去剛剛穿習慣的“插拔式光模組”外衣,走向它在1990年代就被設想過的終極形態——請看下一段。2020年代至今:AI算力的狂飆與“光電共封裝(CPO)”的終極圖景2020年代,一場由生成式人工智慧(Generative AI)和大語言模型引發的算力革命,以前所未有的暴烈姿態席捲了全球科技界。如果說2010年代的雲端運算資料中心是一個個龐大的“算力無底洞”,那麼如今由數萬張GPU交織而成的智算中心,則是一個個貪婪吞噬資料的“算力黑洞”。在訓練千億參數模型的過程中,數以千計的GPU需要時刻保持同步與參數互動,這種被稱為“全互聯(All-to-All)”的極致通訊模式,讓頻寬的需求不再是按年線性增長,而是以月為單位呈指數級爆炸。800G的速率剛剛商用,1.6T乃至3.2T的呼聲便已響徹矽谷。在這一刻,傳統的物理法則再次逼近了它的極限邊界。在這個算力狂飆的時代,曾經在2010年代立下汗馬功勞的“插拔式矽光模組”遭遇了它的宿命危機。當交換機的總吞吐量向著51.2T甚至更高無情攀升時,一個致命的物理瓶頸暴露無遺:從交換機核心ASIC晶片到機箱前面板的光模組之間,仍然存在著十幾釐米長的銅線PCB走線。在極高頻的電訊號面前,這段曾經微不足道的銅線變成了一片泥濘的沼澤,訊號衰減極其嚴重,不得不依賴大量高功耗的數字訊號處理晶片(DSP)來“搶救”訊號質量。結果是,光模組自身的功耗甚至開始逼近交換晶片本身,整個網路裝置變成了一頭難以散熱的“功耗巨獸”。在這堵全新的“功耗牆”面前,業界痛苦地意識到:光與電的距離,必須被無限拉近。於是,矽光子學迎來了自誕生以來最激進的一次形態剝離與重構——CPO(光電共封裝,Co-Packaged Optics) 時代的全面降臨。這一革新不僅是封裝工藝的升級,更意味著整個資料中心互連系統架構的徹底顛覆。在傳統交換機架構中,高速光模組通過長達數十釐米的 PCB 走線連接 ASIC 晶片,導致訊號在高速 I/O 上產生嚴重衰減,同時功耗高、板面熱量密集,限制了連接埠密度和頻寬擴展。而 CPO 通過將 矽光引擎(Optical Engine)直接封裝在交換機 ASIC 晶片所在的同一塊基板上,實現了光電器件與電子處理器的極限物理靠近,從根本上降低了高速電訊號的傳輸距離,從十幾釐米降至幾毫米。在這種架構下,高頻訊號的 PCB 線路損耗幾乎被消除,使 I/O 功耗降低了約 50%,同時減少了電磁干擾和訊號抖動。光模組不再是可插拔的獨立器件,而是作為 ASIC 的 緊密整合元件 出現在晶片旁邊,這使得光纖與晶片之間的延遲和功耗大幅降低。CPO 中的矽光引擎通常包括調製器、探測器、雷射器介面及必要的光路耦合結構,它們通過高密度微焊或矽基互連技術與 ASIC 電路相連,實現電光轉換的極致效率。工程上,CPO 對封裝和熱設計提出了前所未有的挑戰:需要精確控制晶片間的光學對準、管理高密度光電元件產生的熱量,並確保大規模製造的可靠性。同時,這種設計要求 ASIC 的物理引腳佈局、功率分佈以及 PCB 電源網路都必須重新規劃,以適應光電共封裝的緊湊架構。CPO 的成功意味著連接埠密度、頻寬效率和能效的革命性提升,為 800G、 1.6T 甚至更高的的資料中心高速互連提供了現實可行的工業化方案。總之,在 CPO 架構下,光纖不再是插在裝置外部的“附屬品”,而是直接“長”在晶片旁邊,與 ASIC 電路共同構成資料中心核心互連的高效引擎。更令人心潮澎湃的戰場,正在向計算晶片的最深處蔓延。過去,矽光技術主要聚焦於資料中心交換機或伺服器之間的高速互連,它的使命是替代銅線,實現遠距離、高頻寬、低功耗的資料傳輸。而如今,以 Ayar Labs 為代表的創新企業正在將矽光技術推向計算核心本身,致力於打造 “光學 I/O(Optical I/O)” 架構,將光互連直接嵌入到 GPU、CPU 或 AI 加速晶片的封裝內部。在傳統馮·諾依曼架構下,處理器與高頻寬記憶體(HBM)之間依賴數以千計的微型銅柱(micro-bump)和 PCB 走線進行電訊號傳輸,這種互連不僅受限於線長和電容/阻抗效應,還導致訊號延遲、功耗和熱量顯著增加。光學 I/O 的理念是讓光子直接承擔 GPU 與 GPU、GPU 與 HBM、甚至晶片與晶片之間的資料搬運。電訊號在離開計算核心的瞬間就被轉換為光子,通過矽光波導或光纖以光速在計算叢集中傳輸,隨後在目標封裝內重新轉換為電訊號,實現零延遲、低功耗的高速資料交換。但在技術上,光學 I/O 仍要依賴幾個關鍵創新:矽光整合:在晶片封裝或矽 interposer 上整合調製器、光波導、探測器以及光纖耦合介面,實現超高密度的光子通道。光電轉換器件微型化:調製器和探測器必須在亞毫米等級封裝,同時支援每秒數百 Gb 或 Tb 的光訊號頻寬。熱管理與功耗最佳化:光學器件在計算核心附近工作,必須設計精密的散熱系統,避免影響晶片性能。系統級協議與同步:光學 I/O 需要與 GPU/CPU 的時鐘、快取控制和記憶體控製器緊密配合,確保資料一致性和低延遲。雖然仍有關鍵技術的缺位,光學I/O的應用前景仍然令人振奮:在 AI 超算、分佈式 GPU 叢集或高性能計算(HPC)系統中,光學 I/O 可以大幅度降低 晶片間互連延遲,提升 頻寬密度,同時將系統功耗顯著下降。這意味著,未來的計算系統不再受制於銅線的物理極限,資料在晶片內部和晶片之間的傳輸將以光速完成。結語在2026年3月19日,GTC2026結束之後的今天,這段長達近四十年的科技史形成了一次首尾呼應。1980年代理查德·索雷夫在圖紙上推匯出的電漿體色散公式,1990年代安德魯·瑞克曼試圖在同一枚晶片上融合光與電的孤傲夢想,曾經在漫長的歲月裡被視為不合時宜的先知之語。然而今天,當人工智慧的巨浪試圖突破矽基電子的物理桎梏時,正是當年那些沉澱在微米級SOI波導裡的光,再次帶給人類邁向通用人工智慧(AGI)的希望。算力世界已迫不及待地向矽光子學敞開懷抱,而同行的,還有蓄勢待發的量子計算。那麼,下一個十年,矽光的進化將會如何澎湃,掀起怎樣的算力風暴? (半導體行業觀察)
【GTC 2026】黃仁勳的Token經濟學
素有AI行業年度風向標之稱的輝達GTC大會,今年3月16日至19日在美國加利福尼亞州聖荷西舉行。當地時間3月16日上午11點,也就是台北時間3月17日凌晨2點,輝達CEO黃仁勳在聖荷西SAP中心發表了超過兩小時的主題演講。黃仁勳在演講中預測,到2027年全球AI基礎設施相關需求將達到1兆美元。他還說,實際需求可能會比1兆美元高得多,輝達的產品甚至會供不應求。這個數字發佈後,輝達美股股價瞬時跳漲超過4%。但幾個小時後A股開盤,算力產業鏈股票集體下跌,天孚通訊(300394.SZ)收盤跌幅超10%,長光華芯(688048.SH)收盤跌幅亦達9.72%,多數龍頭股回吐了近5日漲幅。一邊是兆美元預期,一邊是產業鏈股票大跌,落差來自時間尺度。黃仁勳講的是未來的需求預期,而他預告的下一代Feynman晶片架構要到2028年才上市。另外,萬聯證券在3月16日發佈的研報中指出,A股電子類股截至3月15日的平均市盈率約為82倍,市場或在擔心“高處不勝寒”。但黃仁勳的這場演講值得仔細看的地方不在於兆美元這個數字本身,而在於他用兩個小時講了一套新的商業邏輯:資料中心正在從訓練模型的地方,變成生產Token的工廠。01. Token工廠Token是大語言模型處理資訊的基本單位,可以粗略理解為AI處理或生成的文字片段,一個漢字大約對應一到兩個Token。過去兩年,Token的消耗量發生了幾次量級上的跳躍。黃仁勳在演講中把這件事追溯到了三個節點:2022年底ChatGPT上線,AI學會了生成內容,開始大量消耗Token;ChatGPT o1模型出現後,AI學會了推理和反思,為了思考,它要在內部生成大量Token給自己看;Claude Code(Anthropic公司開發的AI程式設計工具)發佈後,AI能讀取檔案、編寫程式碼、編譯測試,每完成一個任務消耗的Token比簡單對話多出好幾個數量級。黃仁勳提到,輝達所有的軟體工程師都在用AI輔助程式設計。AI的工作分兩個階段:訓練是讓模型變聰明的過程,需要花一次大錢把模型練出來;推理是模型幹活的過程,每天都在發生,需求也越來越大。過去全球買GPU(圖形處理器,目前AI計算的核心硬體)主要是為了訓練,現在重心已經在向推理轉移。黃仁勳說,推理服務商的業務規模過去一年增長了100倍。IDC中國分析師杜昀龍也告訴經濟觀察報記者,目前國內推理伺服器不論增速還是佔比均已超過訓練,從伺服器出貨金額來看,推理佔比已接近60%。推理的需求在爆發,但Token還沒有形成市場定價體系。黃仁勳在演講中給出了他認為未來會出現的五檔價格:免費層,Token產出量大但響應速度慢;中等層,每百萬Token約3美元;高級層,每百萬Token約6美元;高速層,每百萬Token約45美元;頂級層,每百萬Token約150美元。模型越大、上下文越長、響應速度越快,Token就越貴。他以頂級層舉了個例子:一個研究團隊每天用5000萬Token,按每百萬Token150美元來算也就只有7500美元,對企業來說不算什麼。上下文窗口從32K個Token拉到400K個Token之後,AI能一次性讀完一整份合同或一整個程式碼庫,價格對應的是此前做不了的事情。有了分層定價,資料中心的經濟模型就變了。黃仁勳說,每一座資料中心都受電力限制,一座1GW(吉瓦,一種電力計量單位)的資料中心永遠不會變成2GW,這是電力和土地決定的。在固定功率下,誰消耗每瓦電力能產出的Token最多,誰的生產成本就最低。也就是說,同樣耗一度電,誰能生產更多Token,誰就能賺得更多。他在演講時展示了一組數字:同一個1GW資料中心,假設把算力分配給不同價格層級,使用輝達當前的Blackwell架構年營收約300億美元,換成新一代Vera Rubin約1500億美元,再加上Groq LPU推理加速器約3000億美元。同一座資料中心,換一套裝置,營收可以相差10倍。輝達2026財年全年營收2159億美元,資料中心業務貢獻了其中的1937億美元。按黃仁勳的邏輯,客戶現有的資料中心還沒有被充分利用,換上新一代裝置,同樣的電力條件下收入可以翻好幾倍。兆美元預期就是這麼來的,不是晶片漲價,是同樣的電力能生產出更多、更貴的Token。黃仁勳說,未來每一位CEO都會盯著自己Token工廠的效能,因為那直接就是收入。他還描述了一個正在矽谷出現的變化:現在越來越多工程師日常用AI寫程式碼、做研究、處理文件,這些操作都要消耗Token,企業需要為員工使用AI的開銷買單。黃仁勳預測這筆開銷會大到需要單獨列預算,就像企業給員工配電腦和軟體一樣。他還說,未來每個工程師入職時都會拿到一份年度Token預算,金額大約相當於基礎薪資的一半。02. 兩種晶片黃仁勳的這套Token經濟學對應的硬體,是GTC上正式發佈的Vera Rubin平台。黃仁勳在演講中說,過去談Hopper架構的時候他會舉起一塊晶片,但Vera Rubin不是一塊晶片的事,它是一整個系統。這套系統做到了百分之百的液冷,安裝時間從過去的兩天壓縮到了兩個小時。Vera Rubin由七款晶片組成。核心機架NVL72整合72顆Rubin GPU和36顆Vera CPU,通過NVLink 6(輝達自研的晶片間高速互連技術)相連。與上一代Blackwell相比,每瓦推理吞吐量最高提升10倍,單Token成本降至十分之一。輝達同時發佈了全新88核Vera CPU,為AI智能體場景下的工具呼叫和資料處理做了專門最佳化。黃仁勳在演講中稱,微軟CEO納德拉已向他確認,首批Vera Rubin機架已在Azure(微軟的雲端運算平台)上運行。但Vera Rubin有一個短板,黃仁勳在演講時說,當每個使用者每秒需要生成超過400個Token時,NVL72的頻寬就不夠用了。補上這個缺口的,是Groq這家成立於2016年的美國AI加速晶片公司。輝達此前收購了Groq的技術授權和核心團隊。Groq的LPU(語言處理單元)和GPU是完全不同的兩種晶片。GPU記憶體大、算力強,單顆Rubin GPU有288GB記憶體,適合處理複雜計算。LPU記憶體小但讀寫速度極快,單顆只有500MB儲存,裝不下大模型的完整參數,但生成Token的速度和延遲遠優於GPU。輝達通過一套叫Dynamo的推理調度軟體,把推理過程拆成了兩步:需要大量算力和記憶體的上下文理解交給Vera Rubin處理,對延遲敏感的Token生成交給Groq LPU。兩者通過乙太網路高速連接協同工作,延遲減少約一半。黃仁勳管這種方式叫解耦推理(即把推理過程拆分給不同晶片處理),核心想法是承認高吞吐和低延遲天然矛盾,不如讓兩種晶片各幹各擅長的事。他說,這套組合在45美元和150美元的高價格層級實現了相比上一代35倍的性能提升。從更長的時間維度看,同一個1GW的資料中心,兩年時間,Token生成速率可以從每秒2200萬提升到7億。黃仁勳給客戶的建議是,如果工作以高吞吐的批次推理為主,就完全用Vera Rubin;如果有大量程式設計、即時互動等需求,可以拿出25%的資料中心算力配Groq LPU。黃仁勳表示,Groq 3 LPU由三星代工,已在量產,預計今年三季度出貨。軟體方面,輝達發佈了企業級智能體平台NemoClaw,支援近期火爆的開放原始碼專案OpenClaw。OpenClaw在幾周之內成為GitHub(全球最大的開放原始碼託管平台)上增長最快的開放原始碼專案,黃仁勳把它的地位抬到和Linux同一等級,說它是智能體電腦的作業系統。但企業環境下直接用開放原始碼的OpenClaw有安全風險,因為智能體可以訪問公司的敏感資料、執行程式碼和外部通訊。NemoClaw就是輝達給OpenClaw加上的企業安全層。Adobe、Salesforce、SAP等17家企業軟體公司已宣佈採用輝達的Agent Toolkit(智能體開發工具包)。路線圖方面,輝達預告了2028年上市的下一代Feynman架構,首次同時支援銅纜和CPO(將光通訊元件直接整合到晶片上的技術)兩種互連方式。今年也是CUDA(輝達開發的GPU通用計算平台,被視為輝達軟體生態的基石)誕生20周年。據黃仁勳在演講中介紹,輝達目前60%的業務來自全球前五大雲服務商,另外40%分佈在主權AI、企業、工業、機器人等各個領域。在本次GTC大會上,輝達還宣佈了與Uber、比亞迪、吉利、現代、日產、五十鈴在自動駕駛領域的合作。受此消息推動,港股汽車類股17日集體走強,吉利汽車(00175.HK)盤中一度漲超5%,最終收漲4.55%。 (財經天下WEEKLY)