老黃超200億美元的推理閉環成型了

財大氣粗的老黃7天內接連收購Groq、AI21 Labs,總投入超200億美元。

平安夜剛砸200億把Groq的“TPU之父”團隊打包帶走;

轉頭又瞄準AI21 Labs,斥20-30億美金將其收入麾下,還帶走了AI21背後的200名頂尖AI博士。

而且,加上9月份9億美元買下的Enfabrica,收購3連招之後,輝達算是把“硬體-網路-架構”這條鏈子拉閉環了。

AI21和Groq更適配

輝達在AI訓練市場的份額早已超過90%,但推理市場卻是另一番景象:

定製ASIC晶片搶佔了37%部署份額,Google、博通等巨頭虎視眈眈,市場正變得越來越分散。

黃仁勳顯然不想在這場新較量中落後——搶人才就成了最直接的破局方式。

前幾天的Groq,不僅拿走了LPU,也帶走了公司90%的員工。

最新瞄準的AI21,表面看是一家估值14億美金的以色列初創公司,實則又是個“博士天團聚集地”。

三位創始人是科技圈頂流配置。

董事長Amnon Shashua是希伯來大學講席教授,手裡握著140多項專利,1999年創辦的Mobileye後來以153億美元賣給英特爾,讓他直接躋身以色列前20富豪;

聯合CEO Ori Goshen是連續創業者,前兩家公司不是被收購就是成了行業標竿;

還有史丹佛榮譽退休教授Yoav Shoham,曾是Google首席科學家,創業項目多次被巨頭打包帶走。

這群大佬帶領的200多位博士,手裡還握著Jamba混合架構這張王牌。

現在,輝達擁有了這個天團,於是事情就變得有趣了。

此前收購的Groq,它們的LPU使用的並不是HBM,而是速度極快,但記憶體受限的SRAM。

純Transformer模型在這上面表現不佳,因為KV快取會隨著上下文長度爆炸式增長。

而AI21博士天團手裡的Jamba架構正是Groq這類記憶體受限的推理矽片所需要的

Jamba採用Mamba-Transformer混搭設計,長文字處理速度比同類模型快2.5倍,相比DeepSeek、Llama、Google效率提升2-5倍,還能在256K上下文裡輕鬆跑起4GBKV快取。

收了Groq的LPU和核心團隊;拿下AI21,又把200個博士收入麾下,還能直接補上推理架構的短板。

輝達正式開始了對GoogleTPU衝擊的回應……

三重收購組合拳

回頭再看三重收購的組合拳,每一步都被老黃算得精準。

之前9億美元帶走了Enfabrica和CEO Rochan Sankar及其核心團隊,補上了網路技術,解決資料傳輸的卡脖子問題。

前幾天收購Groq的時候,拿技術又得人心。

不僅將推理矽握在手裡,連帶著“TPU之父”Jonathan Ross領銜的核心團隊一起,將90%的員工打包轉入輝達。

而且人均套現500萬美元,連工作不滿一年的員工都被取消了“懸崖期”,老黃這波操作也算得上良心。

AI21負責LLM架構,把算力轉化成能落地的商業解決方案。

三者一結合,輝達在推理市場的“硬體-網路-架構”閉環直接成型。

以前大家還在猜“GPU會不會被擠出推理賽道”,現在老黃用200多億美金給出了答案——

不僅要守住,還要通過垂直整合把優勢拉滿。

Google已經用TPU證明,GPU不是AI推理的唯一解,而老黃這波操作,就是要通過人才和技術的雙重佈局,對抗Google、博通的威脅。

三重收購、200個博士背後,是能讓推理效率翻倍的技術,也是能對抗Google、博通的底氣。 (量子位)