#
金融時報:美國靠造模型贏得先機,中國可能靠模型應用翻盤
談到 AI 競賽,很多人都會拿中美兩國進行比較。近期,《金融時報》坦言,中美 AI 競賽不是一場衝刺,而是一場馬拉松。雖然美國科技公司憑藉輝達的 AI 晶片,在大模型上繼續領先,但是從長遠來看,中國更有可能笑到最後。AI 競賽的勝負不是靠多厲害的模型決定的,而是看能不能把模型用起來。過去幾年,全球各大科技公司關注的焦點都是造模型。美國的 OpenAI、Google、Anthropic 依靠海量的算力和巨大的模型參數,不斷提升模型的綜合性能,模型也是越做越大。國內的 DeepSeek、阿里巴巴、月之暗面也在想辦法縮短與全球頂尖模型的差距。但是很多人都走進了一個誤區,把模型的技術參數當成是 AI 競賽的全部。就算再厲害的模型,如果只是躺在伺服器裡,不能幫助工廠提高效率,解決城市治理的問題,只是安裝在手機上增加更多的 AI 功能,到頭來只能是一個好玩的玩具。相比於美國,中國的優勢在於模型的應用。1. 能源和基建是中國發展的 AI 的基礎。 運行 AI 模型離不開資料中心,但是資料中心對電力耗費簡直是一個無底洞。根據高盛的預測,到2030年中國多發出來的電力,可以滿足全球資料中心電力需求的三倍。而在美國的13個供電區域中,有8個已達到電力供應的上限。談到基建,用黃仁勳的一句話就可以解釋清楚,在美國建立一座資料中心要三年,在中國一個周末就可以建成一座醫院。電力和基建確保中國可以更大規模地建設 AI 基礎設施。2. AI 的終極應用不是聊天的工具,而是要解決現實世界的問題。工廠裡的機器人、馬路上行駛的自動駕駛汽車,醫院裡的診斷系統。這些執行任務的裝置都需要被造出來。我們手中握有關鍵的礦產資源和全世界最完整的工業供應鏈。當美國還在糾結模型的參數時,中國的 AI 已經幫助工廠提高生產率,幫忙管理城市。3. 我們正在通過開源模型打通國內外市場。麻省理工學院和  Hugging Face 的研究顯示,中國自主的開源 AI 模型全球下載量已達總下載量的17.1%,超過美國的15.8%。這讓全球的開發者有了更多的選擇,可以不依賴於美國的雲服務和晶片,就可以定製自己所需的 AI 模型。在新興市場,中國的開源模型憑藉低成本和高適配性的優勢,迅速搶佔市場。微軟總裁史密斯直言,DeepSeek 在新興市場的市場份額已經超過了西方企業。雖然美國暫時在頂尖 AI 模型的研發上領先,但是卻面臨商業化變現的難題。 再加上昂貴的基建成本,緊張的能源供給,分散的產業佈局,很難讓先進的 AI 模型走出實驗室。技術是需要合作的,美國現在正在加大與中國脫鉤的力度,這將進一步削弱美國的技術影響力。這場 AI 競賽早就從誰的模型更厲害,轉向創新能力和應用能力的綜合較量。按照《金融時報》的觀點,美國在上半場贏得了造模型,而中國正在應用模型上面發力,參與下半場的競爭。在可以預見的未來,只有把技術轉化為生產力,讓 AI 可以真正服務於社會的玩家,才可能是最終的贏家。畢竟,能造出先進的模型是本事,能用得好,才是真本事。 (阿Gang說)
33億!“AI版微信”拿下天價種子輪,黃仁勳投了
團隊1/3是華人。智東西1月21日報導,今天,剛剛成立3個月的美國AI創企Humans&宣佈拿下一輪4.8億美元(約合人民幣33.41億元)的種子輪融資,估值達44.8億美元(約合人民幣311.86億元),直接晉身獨角獸行列。這輪融資由SV Angel和Google第七號員工、Humans&聯合創始人Georges Harik領投,參與投資的機構和個人包括輝達、亞馬遜創始人貝佐斯、Google風投(GV)、Emerson Collective(賈伯斯遺孀勞倫娜·鮑爾·賈伯斯旗下的公司)等。與許多AI創企一樣,Humans&中華人的存在感很強,18位創始成員中有6位華人,佔比高達1/3。▲Humans&創始團隊(圖源:Humans&官網)Humans&的核心理念是:AI應該賦能人類,而不是取代人類。創始人們稱,他們的目標是開發一種促進人與人協作的軟體,可以理解為“AI版的即時通訊工具(An AI version of an instant messaging app)”,同時也能處理搜尋網際網路等更適合機器完成的任務。該公司計畫利用現有的AI技術,以新的方式訓練AI。其目標是訓練出更具互動性的AI系統,比如能夠向使用者主動索取資訊,並將這些資訊儲存以備後用,同時具備“好奇心”和“記憶力”,可以無縫融入同事、朋友或家人的群聊中。不過,能在種子輪便斬獲如此大額的融資,Humans&可不是光靠理念。該公司的聯合創始人團隊共有5人,背景橫跨學術界與工業界,而創始成員則來自xAI、Anthropic、GoogleDeepMind、OpenAI、Meta、Reflection、AI2、史丹佛大學和麻省理工學院等知名企業和院校。五位聯合創始人中,Andi Peng曾在Anthropic擔任研究員,參與Claude 3.5至4.5的強化學習和後訓練工作。Georges Harik是Google第七號員工,曾參與建構Google最早的廣告系統。Eric Zelikman和Yuchen He都是前xAI研究員。其中,Eric Zelikman曾深度參與Grok2、Grok3、Grok4的開發,並開創性地提出了STaR演算法,這是首個通過自我生成的推理鏈來訓練語言模型進行推理的演算法。目前,Eric Zelikman擔任Humans&的CEO。創始人團隊的另一核心成員是Noah Goodman,他在史丹佛大學擔任心理學與電腦科學教授,同時也教授語言學,並在李飛飛創立的史丹佛以人為本AI研究所工作。▲Humans&聯合創始人團隊,從左到右分別為:Noah Goodman、Andi Peng、Georges Harik、Yuchen He、Eric Zelikman(圖源:Humans&)Humans&官宣融資之際,《紐約時報》也發佈了此前他們對Humans&團隊的採訪。2025年9月離開xAI後,Humans&的首席執行長Eric Zelikman組建了創始團隊,他認為,目前的聊天機器人被設計用來回答問題,但並不擅長提出問題,因為這項技術並沒有足夠努力去理解人們真正想要什麼。Eric Zelikman補充道:“AI擁有巨大的潛力,可以讓人們更好地協作,但當前這種‘提問—回答’的範式,無法帶我們走向那個未來。”同樣從頭部AI Lab出走的還有Andi Peng。在Anthropic,Andi Peng主要負責大模型對齊相關工作,避免AI說謊或傷害使用者的心理健康。但後來她逐漸意識到,還有一個更大的問題:和許多其他AI公司一樣,Anthropic正在試圖打造一種會系統性取代人類勞動力的技術。Andi Peng說道:“Anthropic正在訓練模型具備自主工作的能力,他們非常喜歡強調模型可以獨立運轉八小時、二十四小時、甚至五十小時來完成一項任務。但那從來不是我的動力。我認為機器和人類是互補的。”Humans&的另一位聯合創始人Georges Harik稱,該公司的很多投資者都是有血有肉的人,他們關心人類的未來走向。結語:頭部AI Lab人才集體出走,催生天價種子輪Humans&的種子輪融資規模驚人,但在當前的AI融資環境中,這並非個例。目前史上最大種子輪融資由Thinking Machines Lab保持,該公司去年7月完成20億美元融資,估值120億美元。此外,Unconventional AI、LMArena的種子輪融資也頗為可觀。雖然關於AI泡沫的警告甚囂塵上,但投資機構依然熱衷於押注這樣履歷耀眼、背景顯赫的團隊。不過,強大的創始陣容並不等同於可持續的產品落地與長期競爭力,未來這些創企將如何兌現其承諾,還需繼續關注。 (智東西)
Google剛掀了模型記憶的桌子,輝達又革了注意力的命
近期,Google的 Nested Learning 引發了一場模型界的記憶地震。很多人重新意識到,大模型不必永遠是「訓練完就封存」的唯讀權重,它也可以在推理過程中繼續變化。在 Nested Learning 裡,當模型讀到新的上下文時,它不只是把文字塞進注意力的快取裡臨時翻找,而是允許自己在推理過程中更改參數,讓新資訊變成它內部記憶的一部分。但就在人們還在消化這個想法時,輝達在2025年12月28日給出了一個更激進的答案,一篇名為《End-to-End Test-Time Training for Long Context》的論文。Google的記憶增強路線,還在努力解決記憶問題,把過去重要的東西保存得更完整。但輝達的研究人員則認為,記憶其實就是學習,「記住」就是「繼續訓練」。就像人不會記得小學時的課文字句,但像《豐碑》這種文章當時給我們的感受,會深深塑造我們之後的價值觀。輝達和史丹佛的研究者們相信,AI也應該這樣工作。01. 用學習,替代注意力式的記憶如果沿著時間線往回翻,你會發現 TTT(test-time training)並不是憑空出現的發明。早在2013年,Mikolov 等人就在語言模型裡嘗試過 dynamic evaluation。當時放的是讓模型解除凍結,在測試文字上繼續用下一詞預測的交叉熵損失 CE(也就是我們最經常理解的大語言模型的參數學習損失目標)做小步梯度更新,讓參數對當前文體、主題、局部統計規律發生適應。Krause 等人在 2018 年把它完善得更系統,更可行。也就是說,在大語言模型的早期,大家已經發現了模型在推理時動參數,即不違背語言建模的基本邏輯,甚至能帶來收益。在分析Nested Learning時候,大家都在討論記憶力的革新。但很少人會注意到它在上下文這個語境下,對注意力層的替代。但TTT-E2E 的出現,更明確的提出這個可能性。過去十年,Transformer 的輝煌建立在很大程度建立在注意力機制上。它把讀過的每一句話都做成索引(KV Cache),每次回答問題都要回過頭去精準翻閱舊書 。這種機制精確,但非常耗費記憶體。因此也有了各種群組注意力、線性注意力的改良方針,試圖壓縮其記憶體佔用,提升模型的上下文長度。而TTT的方案,則是直接放棄通過「內化」(權重更新)知識,來解決上下文處理的問題。無論上下文多長,它的推理狀態大小和計算量都是永遠不變的。因此在TTT家族中,不論上下文如何增長,其Latency(生成延遲)都不會有任何變化。這是TTT帶來的,足以在推理階段替代的注意力的核心能力:無延遲的記住近乎無限的上下文。但dynamic evaluation 那條線一直沒真正變成主流部署範式。這是因為它當時在工程上還很稚嫩,很難被有效地使用。這裡的主要Gap存在於訓練階段和推理階段無法對齊。訓練階段最佳化的是「凍結參數時開箱即用的表現」,卻沒有把「推理時將進行若干步更新」這件事當作模型行為的一部分寫進目標函數。這就導致工程現實中充滿了不穩定性,模型在沒有約束的情況下持續更新,災難性遺忘(學新的忘了舊的)、參數漂移(模型參數分佈變得很怪)、對異常片段的過擬合(會重複說奇怪話)就會變成默認風險。早期方法能緩解的手段主要是「小學習率、少步數、勤重設」,它們能讓系統勉強可用,但也幾乎把 TTT 鎖死在“短暫適應”的尺度上,很難發展成真正的長期記憶。而Nested Learning / Titans所做的,正是把這套邏輯從架構層面上變得可行。通過分開不同更新頻率的層級,讓各層獨自更新這種方式,穩定了參數更新。這也讓TTT從短微調發展成長期內部記憶的方式。因此,我們可以說它帶來了穩定的長程記憶更新方式。不過這是有代價的。輝達在論文裡把Nested Learning、Titans 這一支,歸到 TTT‑KVB 上。因為它們的更新目標其實和傳統TTT有些不同。它們更像是在教模型「怎麼存」,而不是直接教它「怎麼預測」。我們都知道,大語言模型的最終目標是「預測下一個token」,這是原初的學習目的。而Nested Learning的更新目標通常是讓模型從某種壓縮表示(如 key)重構出對應的 value,或者讓隱狀態在層內自洽地演化,這些都是為了建構可快速索引的內部記憶結構。這樣做確實可以間接幫助語言模型完成任務,因為更好的內部關聯記憶可能帶來更好的預測。但它與最終目標之間始終隔著一層距離。而輝達提出的TTT‑E2E 則更像最原初的dynamic evaluation,它的測試時更新目標就是整個網路末端的下一詞預測交叉熵 CE。為了做到只有一個目標,這個方法端到端的,不分層,從頭到尾只更新這一個CE。當損失函數就是最終任務本身時,模型在上下文裡學到的任何東西,都更直接地最佳化了後續預測。與模型的最終目標完全對齊。為了把這個差別說明白,他們在論文裡設計了一個「玩具模型」,在Transformer中移除了所有的自注意力層,只留下多層感知機(MLP)。這基本上把模型降級成了一個只能記住前一個詞的「二元語法模型」(bigram),在這種設定下,任何長程記憶能力都不可能來自注意力或快取,只能來自「你在測試時更新權重,把上下文壓進參數」這件事本身。然後在測試時,他們讓模型在讀到 x1 ,x2 ,x3 ,… 時不斷做練習:用 xt−1 預測 xt ,計算 CE,並對這個損失做一次小步梯度下降。這像是一個只能看清腳下一米的探險者,只能憑剛邁出的那一步來猜下一步。而你需要穿越一個10公里的洞穴(歷遍所有上下文及更改)。每走一步,你會先預測"根據我的方向感,下一步我應該看到岩石還是水坑?"然後走一步,看預測對不對。如果錯了,你就調整身體的姿態和步伐(梯度更新)。在「預測—糾正—調整」的循環裡改變了你的「肌肉記憶」(權重)走到第1000步時,你雖然看不到第1步那裡的巨石,但那塊巨石的資訊已經編碼在你此刻的步態、重心和方向感裡了。它通過999次的「預測-糾正-調整」傳遞下來,融入了你的身體。結果,這個沒有任何注意力快取的模型,靠著「訓練對一下詞的預測」這個目標Loss 曲線(藍色)隨著閱讀長度的增加迅速下降 。它幾乎緊貼著全注意力 Transformer 的曲線(橙色線)。這意味著,它單純靠修改自己的神經網路參數(MLP權重),就完美編碼了上下文資訊,達到了和把所有字都存下來(Full Attention)幾乎一樣的效果。相比之下,TTT‑KVB 的設計初衷是作為一個自注意力層的直接替代品。它的核心思想仍然是「鍵值繫結」(Key-Value Binding)。也就是說,它雖然不用傳統的注意力機制去 儲存 KV Cache,但它試圖用神經網路去學習 Key 和 Value 之間的對應關係。這就像希望把洞穴每塊石頭都畫在地圖上,去隨時呼叫。甚至巨石的紋理這種和走出洞穴無關的資訊也會畫進去。它的訓練效率相對就比較慢。論文在過渡實驗結果中證明了這一點。研究人員把 TTT‑KVB 的層內鍵值繫結這個目標取代為預測端到端的 next-token 目標後,語言建模的評估 loss 明顯下降。從實驗資料看,這個改變確實帶來了實質性的提升。在760M參數的模型上,TTT-KVB在8K上下文的loss為2.818,而將其簡化版本改用next-token prediction損失後(TTT-E2E all layers MH),loss降至2.806。這提升的0.012,在語言模型評估中其實是顯著的差距。這說明了,經過端到端的改造,模型對於預測下一個token這件事確實更確信,更擅長了。而且長上下文能力真的可以純靠測試時學習獲得,而不必依賴注意力快取。在這個邏輯下,記憶不再被設計成一套儲存結構,而被重新定義為一次持續發生的學習過程。記憶的價值不在於把過去保存得多完整,而在於它能否改變你下一步的判斷。但是,過去的dynamic evaluation的問題就在於沒有穩定的工程模式,既然要用一樣的思路,TTT‑E2E怎麼克服這些問題呢?這正是輝達接下來要做的第二件事:用元學習與一整套工程護欄把這種端到端的測試時學習做成穩定、可擴展的上下文記憶系統。02. 元學習的迴響,和工程的穩定元學習,這個概念和實踐實際上也出現的很早。其中有一支顯性元學習的想法一直到去年發佈的Deepmind DiscoRL 都被繼承著。這就是2017 年Finn 的 MAML體系。它是由內外兩個循環巢狀而成,內循環負責適應學習(梯度下降),外循環負責把適應學習變得更有效(學習梯度的梯度)。這樣,外面那層循環更像是對內循環步驟的反思,通過它,就可以學會如何高效的學習。TTT‑E2E所做的,正是利用這一套元學習的體系,幫助它去穩定端到端的資料。輝達的研究人員認為,過去dynamic evaluation的問題,主要在「訓練-測試不匹配」上。如果只用傳統方式訓練一個凍結的語言模型,然後在測試時突然要求它邊讀邊更新參數,那整體肯定穩定不了,災難性的漂移、遺忘都是常事。因此,訓練階段就要把測試階段的學習流程包含進去,讓模型在出廠時就習慣在推理時繼續學。這就是元學習入場的時候。它要在訓練時幫助模型學會怎樣更新自己,才能更會回答接下來的問題。具體的操作,就是利用元學習,讓模型自己找到最適合推理時更新的初始參數W0。把它寫成更直觀的過程,就是兩段循環套在一起。內循環:就是模型讀到一段上下文時,給出下一個詞的猜測。然後立刻對照實際上出現的下一個詞,去更新自己的參數。這和傳統的下一個token 預測模型的訓練一致。外循環:是在訓練階段給內循環反覆模擬「上崗狀態」。它給內循環的模型很多段文字,讓它按同樣的復盤方式做幾次小校正,然後檢查校正之後,內循環後面的預測是不是確實更準、更穩。只有當內循環的參數更新真的帶來收益時,外循環才獎勵它,如果這種更新方式會造成漂移或遺忘,外循環就懲罰它。久而久之,模型學到了一種更合適的出廠狀態。帶著這些初始參數去上崗,內循環的小校正(梯度更新)就不容易把自己改壞。外循環的教師,在這裡學到的是在測試時更新中,那些方向的梯度更新是穩定的(防止梯度爆炸),那些更新能在不破壞通用能力的前提下快速吸收上下文規律(防止災難性遺忘),那些初始化讓同樣的學習率、同樣的步數能產生更可靠的收益(提升訓練效率)。再把這些都融合到模型初始的參數里。一個元學習,直接讓模型自己解決核心的工程困境,使得端到端的模式變為了可能。但這僅僅是可能,並不是達到了穩定。為了進一步確保工程上的可能性,TTT‑E2E還是在工程中做了多重折中的安全閥。第一個安全閥是 mini‑batch 化和滑動窗口注意力。理論上講,在測試時每讀一個 token 就更新一次參數,是最細粒度、最完美的線上學習,但它可成本太高了。但每次給他的的token batch太大,模型又根本沒有短期記憶,那麼它在更新之前對一個batch裡吼main的 token 就根本記不住,梯度也會越來越錯。所以,TTT‑E2E一方面把batch的大小做到相對較小。而且還保留滑動窗口注意力作為短期記憶的方法。窗口注意力像手電筒,保證你在一個更新塊內至少還看得見最近的上下文,從而讓 block 內的預測不至於崩壞。論文明確提出了一個窗口大小和batch大小的規範,即窗口大小 k 最好不小於測試時更新的塊大小 b,否則你會在塊內變回「局部失憶」的模型。第二個安全閥,目標是防止。他們沒有非常激進的把所有層都改成TTT層。而是凍結了 embedding、歸一化和注意力層,只更新 MLP。並且每次不更新整個神經網路,只更新最後 1/4 的 blocks。這樣底層的通用語言能力、注意力的讀寫通道保持不動,TTT只在上層做一種可控的學習模組。為了進一步防止線上更新把預訓練知識沖掉,他們還在可更新的 blocks 裡加了一套靜態的第二 MLP。有一套MLP 負責寫入當下上下文,另一套負責保住出廠能力。這是在結構上給災難性遺忘劃了一片隔離區。參數可以漂移抹去過去的記憶,但只能在一塊被圈起來的可寫區裡漂移。當這些部件拼好時,TTT-E2E終於實現了最早版本TTT未竟的目標,為它帶來了完整的工程化軀體。那麼它的結果如何呢?03. 用Loss證明自己我們看模型訓練效果,最主要的是看模型的loss變化。loss 指的是語言模型在下一詞預測任務上的平均損失,一般就是上面說的交叉熵CE的大小。它越小,說明模型預測越準。而在記憶中,則是看loss在上下文中的變化。如果 loss 在更長上下文裡持續下降,說明模型確實把更早的資訊用起來了,預測的更好了。反之,如果上下文變長但 loss 不降反升,說明資訊雖然記住了,但沒用,屬於學而不思則惘了。在這一項上,TTT‑E2E的優勢非常明顯。當上下文一路加到 64K、128K時,其他類型的架構,比如Mamba 2、Gated DeltaNet 這些線性時間模型就開始掉隊了,甚至連 TTT‑KVB,在更長上下文裡也沒能把曲線拉回來。只有 TTT‑E2E 的線幾乎像釘住了一樣,從 8K 到 128K 沒有出現優勢稀釋的跡象。這說明別人是上下文越長越難學到,而TTT‑E2E 則是越跑越會用上下文。而且,它也延續了學習參數最大的優勢,就是成本壓縮。如果用全注意力,上下文越長,prefill 的延遲就會一路飆升,因為它每生成一步都要掃描更長的歷史。相反,SWA、RNN/SSM、TTT‑KVB、TTT‑E2E 的延遲幾乎是平的。它是靠學進去,而不是一直看著舊上下文去處理新的上下文的。在 H100 上,128K prefill 時,TTT‑E2E 大約比 full attention 快 2.7×。另一項,則是看Loss的收斂速度,Loss收斂的越快,說明模型越高效的在學習。在 32K 和 128K 兩種長度下,TTT‑E2E 是唯一一種在整個上下文範圍裡都能壓過 full attention 的方法,而且它的總體優勢有很大一部分來自序列更早的位置。這正是「學習而非儲存」發揮特長的地方。模型不是等到最後才靠記憶取回某個細節,而是從一開始就讓每一段上下文都在把模型推向更適合下一段預測的參數區域。它是在背書,更是在邊讀邊形成更適合這本書的閱讀習慣。當然,這種方法並非面面俱到。TTT‑E2E 在海底尋針這種需要精確檢索的測試上仍然被full attention碾壓,包括 TTT‑E2E在內的線性路線一直在長上下文檢索上表現並不好。這並不矛盾,當記憶被定義為「學習帶來的預測收益」時,它就更像壓縮和概括,而不是逐字存檔。對寫作連貫性、長文理解、風格約束這種任務,這種壓縮很划算。用學習壓縮換取長上下文的可擴展性,讓模型在 128K 這樣的尺度上既跑得動,跑得省,又確實變得更會預測。這就是TTT的核心意義之一。另外一個可能制約這種架構落地的因素,是訓練成本。即使有了各種最佳化,TTT-E2E的訓練延遲仍然比標準Transformer高出50-100%。這在學術研究的規模上可以接受,但當擴展到工業級的數兆token訓練時,這個額外成本就有點略高了。04. 回歸原初的學習,可能才更符合持續學習的期待Nested Learning 這場革命的意義,是再一次把「推理時更新」從過去的沉寂中帶入了當下的討論的範疇,讓持續學習找到了新發力點。TTT-E2E 的意義,不只是又一個長上下文方案,而是重新定義了記憶這件事。記憶不是把過去搬進現在,而是讓過去改變未來。在注意力機制因二次方成本而逼近物理極限的今天,這種'把資訊學進參數'的路線,可能是唯一能讓模型真正從百萬 token 上下文裡持續成長的工程答案。在一個上下文窗口越來越長、資訊越來越多、但人們越來越不願意為傳統注意力二次方成本買單的時代,這種把記憶當作學習、把學習當作壓縮的路線,可能會在相當長一段時間裡成為持續學習最現實的工程答案之一。它不一定無所不能,但它比當下的任何記憶方案都更接近我們對智能的本質期待:「不是記住一切,而是能從一切中學會變聰明」。 (騰訊科技)
300萬一晚的月球酒店來了,00後拉到輝達+YC背書,卻遭質疑割韭菜
自從載人航天任務出現,太空旅遊的概念就一直沒停過。幻想著像《流浪地球》九萬公里的太空電梯一樣,直接來一次獨行月球的體驗。但很明顯太空電梯是不切實際,火箭還是目前更靠譜的方式之一。這不,又有人出來說準備用火箭,把你送上月球了,因為現在馬斯克的 SpaceX 成本能降下來,帶你去月球度個假並非不可能。但這回打算做這件事情的人,看起來還真不像是說說而已。一家由輝達和 Y Combinator 支援的新興創業公司,計畫在 2032 年前在月球上建造第一家酒店,每晚起價約 416667 美元。六年的時間,在月球上建一個酒店,你覺得可能嗎。評論區的網友毫不留情地說,這看起來就是個玩笑。還有網友若無其事地,認真列出各項價格表,實際上每一行都在陰陽怪氣地吐槽,太空旅遊太離譜,明顯就是割韭菜。但是也有網友說,「如果不是 Y Combinator 的支援,我真會覺得這是個玩笑。現在我還是有點不敢相信」。Y Combinator 算得上是全球最有影響力的創業加速平台了,愛彼迎、Reddit 這些都是從 YC 走出去的知名公司。不只 Y Combinator 支援,輝達也支援,這就讓月球酒店這件事情,變得朦朧起來了。提出這個暢想的公司 GRU Space 是一家去年才成立的公司,在 LinkedIn 上顯示的員工數量只有 2-10 人。在今年,他們被 YC 選中,參加了 W26 的創業加速營,即今年冬季加速營,時間 1-3 月。22 歲的公司創始人 Skyler Chan, 提前從加州大學伯克利分校,電子工程與電腦科學系學士學位畢業。期間,他在特斯拉實習過 4 個月,而特斯拉的這段經歷,儼然成為了他宣傳自己太空旅行計畫的一大亮點。同時,他曾經還創辦了一家造機器人的公司,主要是可以為外星棲息地建造外殼,名字 Mars Habitat at Berkeley 伯克利火星棲息地,加上學校的名字還真煞有介事。但這個公司網站已經 404 了,取而代之的就是 GRU Space 這個新的創業計畫。GRU Space 目前僅有的三位員工雖然只有 2-10 人,項目的準備工作卻做得相當充足,除了這個能引起大家轉發的視訊,他們的首頁網站也足夠酷炫和全面,有酒店預訂、團隊介紹和招兵買馬等內容;甚至還有周邊售賣,和一本 17 頁的白皮書。點開白皮書之前,我先看到了他們的招聘,我以為可能會招很多人,有需要做工程的、需要研究物理和化學材料、需要電腦軟硬體模擬……但是,都沒有,他們就招一個崗位。洋洋灑灑幾千個字,寫的全是求職者要做的事,即便是在「你將擁有什麼」裡面,也全是各種需要做的工作,他們把能做這些工作的機會,當成一種恩賜,一種獎賞。要做的事情有那些呢,負責整個技術堆疊,月球棲息地原型演示,及相關生命維持關鍵結構的設計、分析、建造、測試和生產。從空白頁到手繪草圖→CAD→FEA→DFM→裝配→測試→演示,以極快的速度完成。在資料不完整的情況下,做出艱難的決定,從第一性原理出發進行推理而不是類比,交付硬體而不是潤色幻燈片。為我們的月球棲息地原型演示設計結構和機械佈局,重點關注類似飛行的系統和生命維持限制。為原位資源利用、風化層處理、壓力殼、介面和棲息地尺度試驗裝置設計結構和機制。我看著都頭大,關鍵這些內容,還都是出現在「What You’ll Own 你將擁有什麼」裡面。不知道馬斯克的 Grok 5,能頂好幾個博士的 AI 能不能勝任;但是 8-13 萬美元的年薪,要弄 AI 來做這些,光是用 GPU 燒掉的錢可能都不夠付。看得頭暈腦脹的時候,正好隨手下單買幾樣他們的周邊創始人不太靠譜、招聘也不靠譜,17 頁的白皮書總該有點真材實料了吧。GRU Space 的全稱是 Galactic Resource Utilization(銀河資源利用)。和名字一樣,白皮書裡提到,他們的計畫是資源利用,要用「月球原本的泥土(風化層)」來建房子,而不是從地球帶材料。他們聲稱只要帶去一種「活化劑」藥水,就能把月球土變成混凝土。此外,為了證明自己不是瞎忽悠,他們甚至算出了一張詳細的成本表。 白皮書顯示,2032 年建成的第一版充氣酒店,每人每晚的內部成本是 416667 美元。 請注意,有零有整。而到了第二階段的酒店,利用上他們的「月球土程式設計混凝土」技術後,成本就能暴跌到 83333 美元;當然,這一切的前提,還是得 SpaceX 的星艦把運輸成本降到白菜價,而他們只需要負責在月球表面把酒店建起來。白皮書裡還寫到了為什麼不是 SpaceX 來做這件事。他們相當自信地寫著,如果你坐波音 787 飛到法國南部,你會留在飛機上過夜嗎? 那怕飛機上有吃有喝有睡覺的地方,你也不會一直待在停機坪上。意思就是,他們把 SpaceX 的星艦比作飛機,把自己比作法國南部的酒店。我只能說,SpaceX 不做,有沒有可能是因為這事兒目前根本不賺錢。當然,白皮書裡還提到了為什麼他們會有這個想法。他們說不是為了科學,單純就是地球上的體驗已經不夠尊貴了。他們放了一張珠穆朗瑪峰排起長隊的著名照片 ,然後說,「如今,只要你能把一隻腳邁在另一隻腳前面,你就能把珠峰加入購物車,然後被拖著排隊上山。」潛台詞是,地球上的裝 X 聖地(像是珠峰等)已經大眾化了,不僅不酷,還很擁擠。為了讓富豪們找回尊貴感,我們必須去月球。17 頁通篇看下來,這個酒店計畫,除了 YC 的創業加速營靠譜,剩下的內容都像是 PPT 產品。但是,輝達的投資又是怎麼回事,他們自己在宣傳的時候,那可是毫不遮掩的寫著「由輝達支援」。網站首頁,右下角寫著支援的機構,有 YC、輝達、甚至還有 SpaceX但實際上,輝達的支援其實並不是投資。這位 22 歲的大學畢業生,又巧妙地玩了一個文字遊戲。他們只是加入了輝達的 Inception 計畫,這並不是一個投資項目,不給錢不佔股份。Inception 計畫,也叫輝達初創加速計畫,其中具體的幫助是,提供技術和算力資源,例如 GPU/雲端運算的優惠等;申請門檻也比 YC 要低的多。輝達初創加速計畫這讓我想到了網上的十年爛梗,說自己的獲獎經歷,是 2006 年時代雜誌風雲人物、2008 感動中國的特別獎。有了 YC 的支援,也不一定就意味著公司一定能成功。根據 Y Combinator 在自己網頁公開的資料,從 2005 年以來,YC 已投資超過 5000 家公司,每三個月就有超過 10000 家公司申請加入,錄取率通常只有 1%。Y Combinator 完整公司名錄|https://www.ycombinator.com/companiesYC 目前有超過 400 家估值超過 1 億美元的公司,和超過 100 家估值超過 10 億美元的公司。相比較於總的 5000+ 公司,這些估值超過 1 億美元的公司僅佔 8%。https://ycgraveyard.iamwillwang.com/同時,根據第三方 YC Graveyard (YC 墳墓)的統計,一些不活躍,甚至已經停止的公司數量,在去年年初,就已經來到了 910 家。和之前我們寫過的靈魂電腦一樣,一樣是剛畢業的年輕人,一樣是有過失敗的創業經歷,一樣是給人感覺,「Fake it, Until you make it」。雖然這些腦洞大開的創業,每一年都會有,最後的結局也不盡相同。但在 AI 時代,這種年輕人的創業機會變得越來越普遍。30 歲以下富豪榜中,來自 AI 相關的佔據 9 位,預測市場有 3 位|圖片來源:https://www.instagram.com/p/DSoM07rD6T1前段時間,福布斯統計了全球 30 歲以下白手起家的富豪榜,其中來自 AI 程式設計工具 Cursor 的聯合創始人就有 4 位,淨資產都來到了 13 億美元;還有 Lovable 的創始人,26 歲,淨資產 16 億美元;以及這段時間備受關注的 Meta AI 實驗室老大,曾經是 Scale AI 的 CEO Alexandr Wang。看著這些 30 歲以下的富豪榜,還有那些熱衷於創業的年輕人,好像在 AI 這個巨大催化劑的作用下,我們的野心被無限放大,也變得相當「廉價」,就像 AI 宣傳自己,一切都觸手可及一樣。以前的「Fake it until you make it」,至少還得有個車庫敲程式碼,現在只需要一個精美的網頁、一份甚至可能是由 ChatGPT 潤色的白皮書,再加上幾個並沒有真正掏錢的「頂級合作夥伴」;只要你敢想。距離月球那 38 萬公里太遠了,遠到足夠讓這群 22 歲的年輕人換好幾個賽道。或許對於 GRU Space 來說,能不能真的把酒店開到月球並不重要,重要的是,他們已經成功地把這個昂貴的夢,以 41 萬美元一晚的期貨價格,或者幾百塊一件衛衣的現貨價格,兜售給了渴望奇蹟的人們。用狄更斯話來說,這是最好的時代,也是最壞的時代。 (愛范兒)
昨晚請教了北美專家,聊聊周末刷屏的儲存
上周五儲存再次爆發,主要還是大摩早晨發的兩篇報告(我們周五早晨已發星球),剛好晚上我們請教了北美的儲存專家,側面驗證新邏輯。另外我們再交流幾個話題:3D DRAM、輝達在CES上發佈的新一代 GPU 架構對儲存的影響、以及未來儲存價格的判斷。1/CES2026輝達架構影響從我們以前的儲存框架來講,只是朦朧地知道,在接下來面對更多長文字的時候,可能需要更多的儲存支援。當時行業對轉折原因的分析較為分散,對儲存的判斷不夠清晰。但從25年8月份第三周開始,行情就出現了一個明顯的轉折。尤其是CES之後,輝達在 CES 2026 發佈代號為“Vera”的新一代 GPU 架構,核心升級在於引入專為大模型推理最佳化的計算單元,並配套推出“Context Memory Platform”(CMP,即推理上下文記憶體平台);如果把邏輯推導到我們底層的計算和應用產品線上去講,從第一代、第二代開始就出現了這個問題:即我們所有的大模型都是 Transformer 架構。在這種架構下,都是採用 QKV 的計算方式。當文字越來越長時,KV 快取的容量就會越來越大。在模型早期,KV 快取是直接放在 HBM裡的,因為它必須有足夠的頻寬才能和 GPU 通訊。所以回看兩年前,HBM 突然被叫到了異常的高度,不論多少錢都要去做。背後的邏輯是:輸入的文字越來越長,對 HBM 的需求一定是長期穩定的。因此,幾家原廠才會不遺餘力地將 HBM 作為最高優先順序進行研發投入。雖然良率很低,但每年都在迭代,因為 KV 快取最初就是存在 HBM 裡的。但兩年前大家就發現這是一個問題,因為 HBM 良率低且極其昂貴。那麼有沒有其他方式?其實兩三年前整個行業就預見到了這個問題,於是很多儲存引擎或資料庫軟體應運而生,也就是想辦法把資料從HBM中拿出來。但從 HBM 裡面拿出來,拿出來往那去放?輝達其實在 DPU系列上一直有佈局。在搭載 B200、B300的時候就配有DPU。到了現在的 BlueField-4(BF4),已經是第四代了。BlueField 的核心邏輯就是通過一張 DPU(資料處理器) 來管理幾張卡的資料。其實在去年,DPU 本身就已經具備了解除安裝/外遷KV 快取 的能力,只是當時模型的發展還沒到那個臨界點,軟體層面的最佳化也還沒像今年 CES 展示的這麼明確。在今年 CES 2026 上,輝達正式推出了基於 BF4 的軟體定義邏輯,將每個 GPU 理論上能支援的最大儲存容量具象化了——即通過 DPU 擴展,單 GPU 可支援高達 16TB 的儲存容量。這個數字的量化非常關鍵。之前關注不多的人可能覺得這是一個新增的東西,但實際上,它只是把大家對儲存需求的估值給具體量化了。這導致這一輪市場對儲存的觀點發生了變化。但從整體上看,無論是架構邏輯還是底層原因,在更長期的路線圖上,它的發展方向其實是一脈相承的,並沒有發生根本性的巨變。2/一些儲存的關鍵問題(1)真實缺口僅 5%-10%,為何漲價預期高達 50%?核心邏輯:恐慌性搶購放大效應供需真相:實際物理缺口並不極端(Global Supply ~12w vs Demand ~12w),缺口約 5-10% 。恐慌傳導:上游原材料漲價 20% + 龍頭(華邦)轉產高利產品(DDR4/NAND)-> 供應端收縮訊號明確 。下游由於庫存極低(疫情後未補庫),恐慌情緒被點燃 -> “怕斷貨”心理導致需求被數倍放大 -> 即使提價也無法滿足需求 。價格指引:2025 Q4 已漲 30%,2026 Q1-Q2 預計再漲 30%-50% 。漲價節奏方面,2025年CQ4為行業漲價起點,但當時漲價未充分落地,2026年CQ1、CQ2漲價趨勢明確,市場信心充足,訂單量較高;不過隨著真實訂單和付款推進,2026年下半年行業或將逐步梳理非緊急需求,需求格局將更清晰。(2)漲價傳導機制:這次不一樣?靈魂拷問:這輪漲價是需求拉動還是因為上游漲價被迫跟進?邏輯鏈條:上游:晶圓代工漲價 ~20% 。競對:台系大廠(華邦等)計畫漲價 50%-100% 。應對:國內順勢跟漲 -> 2025 全年漲 30%,Q4 單季漲 20%+,小客戶漲 40% 。展望:未來一年預期再漲 30%-50% 。隱憂:漲價主要由供給側(產能調整、原材料)驅動,而非單純的需求側爆發,需警惕下游承受力 。(3)為什麼模組廠這次可能會“餓死”?為什麼:以前周期上行時,模組廠都能跟著喝湯,這次為什麼原廠不給貨了?邏輯鏈條:HBM 擠出效應:HBM 需要消耗大量晶圓 + 良率低吃產能 -> 且 HBM 單晶圓毛利遠高於 DDR4/5 。策略逆轉:原廠(美光等)“All in AI” -> 只有把晶圓做成 HBM 或 SSD 才划算 -> 拒絕向模組廠出售晶圓(視為低效產能和潛在競爭對手)。結果:模組廠賴以生存的“低買高賣”模式失效,未來 3-5 年面臨持續的晶圓短缺。3/3D DRAM及封裝技術相關上周和一家Fabless晶片供應商交流,他說目前唯一能量產的3D dram之後國內的那家頂流,下一步就是期待手機26年能量產。今天的專家說未來幾年預計不會落地什麼新的技術,像3D dram等先進封裝技術被定義十年以上的長期研發計畫...短期沒有什麼儲存新技術,僅能通過軟體層面最佳化現有SSD產品 (北向牧風)
輝達封死了ASIC的後路?
NVIDIA 計畫憑藉下一代 Feynman 晶片主導推理堆疊,因為該公司可以將 LPU 單元整合到架構中。乍看之下,NVIDIA 就 Groq 的 LPU 單元達成的 IP 授權協議似乎只是小打小鬧,畢竟收購規模和涉及的營收數額都相當龐大。但實際上,NVIDIA 的目標是通過 LPU 在推理領域佔據領先地位,我們此前已對此進行了深入報導。至於 NVIDIA 將如何整合 LPU,目前已有多種方案;不過,根據GPU 專家 AGF 的觀點,LPU 單元或許會通過台積電的混合鍵合技術堆疊在下一代 Feynman GPU 上。輝達要堵死ASIC的道路專家認為,該方案的實現方式可能類似於AMD在X3D CPU上的做法,即利用台積電的SoIC混合鍵合技術將3D V-Cache晶片整合到主計算晶片上。AGF指出,考慮到SRAM的擴展性有限,將SRAM整合到單晶片上可能並非Feynman GPU的正確選擇,因為採用先進工藝節點會浪費高端矽片,並大幅增加每片晶圓的成本。AGF認為,NVIDIA會將LPU單元堆疊到Feynman計算晶片上。AGF表示,Groq LPU 模組將於 2028 年首次出現在 Feynman(Rubin 後世代)。確定性、編譯器驅動的資料流,配合靜態低延遲調度和低批處理場景中的高模型浮點利用率(MFU),將在有利工作負載下為費曼帶來巨大的推理性能提升。但單片晶片的 SRAM 縮放停滯非常嚴苛:位元單元面積從 N5(~0.021 μm²)到 N3E 幾乎沒有變化,甚至 N2 也只能達到~0.0175 μm²,密度為~38 Mb/mm²。這是一種非常昂貴的晶圓面積使用。NVIDIA Feynman 在台積電 A16 上,配備背面供電+全 GAA 將面臨 SRAM 的門檻和成本物理。那麼解決方案是什麼?很簡單,就是製作分離的 SRAM 晶片,並將它們疊放在主計算晶片(也就是 AMD X3D)上。背面電源傳輸簡化了頂部的高密度混合粘結,使 3D 疊加垂直整合 SRAM 更實用,即避免前端布線的噩夢。所以預計 Feynman 核心會在 A16 上混合邏輯/計算晶片,實現最大密度/孔徑+堆疊 SRAM,在更便宜/成熟的節點上實現極高封裝頻寬且不會帶來巨大密度損失。這保留了 HBM 作為容量(訓練/預填充),而 SRAM 堆疊則修復低延遲解碼 MFU,這正是 Pouladian 的“作弊碼”。這似乎讓廠商放棄了所有 ASIC 成功的機會....現在看來,這種方案似乎合情合理。方案中,像A16(1.6nm)這樣的晶片將用於主Feynman晶片,其中包含計算模組(張量單元、控制邏輯等),而獨立的LPU晶片則包含大型SRAM儲存體。此外,為了將這些晶片連接起來,台積電的混合鍵合技術至關重要,因為它能夠實現寬介面,並且與封裝外儲存器相比,每位元能耗更低。更重要的是,由於A16採用背面供電設計,正面可以用於垂直SRAM連接,從而確保低延遲解碼響應。然而,這種技術也存在一些問題,例如NVIDIA將如何應對散熱限制,因為在高計算密度的工藝流程中堆疊晶片本身就是一個挑戰。而且,對於專注於持續吞吐量的LPU來說,這可能會造成瓶頸。更重要的是,這種方法也會極大地增加執行層面的影響,因為LPU依賴於固定的執行順序,這自然會在確定性和靈活性之間造成衝突。即使NVIDIA能夠解決硬體層面的限制,主要問題仍然在於CUDA在LPU式執行模式下的行為,因為它需要顯式的記憶體分配,而CUDA核心的設計初衷是面向硬體抽象。對於NVIDIA來說,將SRAM整合到AI架構中並非易事,因為這需要精湛的工程技術才能確保LPU-GPU環境得到充分最佳化。然而,如果NVIDIA想要在推理領域保持領先地位,這或許是它願意付出的代價。Groq 的 LPU 架構是關鍵過去幾個月,人工智慧行業的計算需求發生了翻天覆地的變化。像OpenAI、Meta、Google等公司在致力於訓練前沿模型的同時,也在尋求建構強大的推理堆疊,因為這才是大多數超大規模資料中心的主要盈利點。Google發佈 Ironwood TPU 時,業界將其吹捧為專注於推理的利器,而這款 ASIC 晶片也被譽為輝達的替代品,這主要是因為當時有說法稱 Jensen 尚未推出一款在推理吞吐量方面佔據主導地位的解決方案。我們有 Rubin CPX,但我稍後會討論它。談到推理,計算需求會發生顯著變化,因為在訓練過程中,業界更看重吞吐量而非延遲和高運算強度,這也是為什麼現代加速器都配備了 HBM 和海量張量核心的原因。由於超大規模資料中心正轉向推理,它們現在需要快速、可預測且前饋式的執行引擎,因為響應延遲是主要瓶頸。為了實現快速計算,NVIDIA 等公司針對大規模上下文推理(預填充和通用推理)等工作負載推出了 Rubin CPX,而 Google 則宣稱其 TPU 方案具有更高的能效。然而,在解碼方面,可供選擇的方案並不多。解碼是指Transformer模型推理過程中的詞元生成階段,它作為人工智慧工作負載分類的關鍵環節,其重要性日益凸顯。解碼需要確定性和低延遲,而考慮到推理環境中使用HBM帶來的限制(延遲和功耗),Groq的獨特之處在於它使用了SRAM(靜態隨機存取儲存器)。既然我已經闡明了為什麼需要重新審視推理計算,現在是時候討論LPU了。LPU是 Groq 前 CEO Jonathan Ross 的傑作,順便一提,他最近已加入 NVIDIA。Ross 因其在 Google TPU 方面的工作而聞名,因此我們可以肯定,NVIDIA 正在內部獲得一項重要的資產。LPU 是 Groq 針對推理類工作負載的解決方案,該公司區別於其他公司的關鍵在於其兩大核心優勢。首先是確定性執行和片上 SRAM 作為主要權重儲存。這是 Groq 通過確保可預測性來提升速度的方法。Groq此前已展示了兩款領先的解決方案:GroqChip和基於合作夥伴的GroqCard。根據官方檔案披露的資訊,這些晶片配備230MB片上SRAM,片上記憶體頻寬高達80TB/s。SRAM的使用是LPU的關鍵優勢之一,因為它能顯著降低延遲。與HBM相比,考慮到DRAM訪問和記憶體控製器佇列帶來的延遲,SRAM的優勢顯而易見。片上SRAM使Groq能夠實現數十TB/s的內部頻寬,從而提供領先的吞吐量。SRAM 還使 Groq 能夠提供一個節能平台,因為訪問 SRAM 所需的每位元能量顯著降低,並消除了 PHY 開銷。此外,在解碼過程中,LPU 顯著降低了每個令牌的能耗,考慮到解碼工作負載是記憶體密集型的,這一點至關重要。這是 LPU 的架構方面,雖然這看似重要,但這只是 LPU 性能的一部分。另一個關鍵因素是利用確定性周期,即通過編譯時調度來消除核心間的時間差異。編譯時調度確保解碼流水線中不存在“延遲”,這是一個至關重要的因素,因為它能夠實現流水線的完美利用,從而相對於現代加速器實現更高的吞吐量。總而言之,LPU 完全專用於滿足超大規模資料中心所需的推理功能,但業界目前忽略了一個關鍵問題。LPU 是真實有效的推理硬體,但它們高度專業化,尚未成為主流的默認平台,而這正是 NVIDIA 的用武之地。除了上述AGF的方法,將LPU整合到NVIDIA產品中的另一種方法是將其作為機架級推理系統(類似於Rubin CPX)的一部分,並搭配網路基礎設施。這樣一來,GPU可以處理預填充/長上下文資訊,而LPU則專注於解碼,這意味著在推理任務方面,NVIDIA已經解決了所有問題。這有望將LPU從實驗性選項轉變為標準推理方法,從而確保其在超大規模資料中心得到廣泛應用。毫無疑問,這筆交易標誌著輝達在推進其產品組合方面取得的最大成就之一,因為所有跡象都表明,推理將是輝達接下來要討論的選項,而 LPU 將成為該公司在人工智慧工作負載領域戰略的核心部分。為了規避反壟斷風險,選擇授權在日勤,CNBC率先報導了這一消息,聲稱輝達將以200億美元的巨額交易“收購”Groq公司,這將是詹森·黃仁勳迄今為止最大的一筆收購。此消息在業內引發軒然大波,有人認為監管調查會阻礙這筆交易,也有人斷言Groq的末日已至。然而,隨後Groq在其官網上發佈官方聲明,稱已與輝達達成“非獨家許可協議”,授予這家人工智慧巨頭使用其推理技術的權利。“我們計畫將 Groq 的低延遲處理器整合到 NVIDIA AI Factory 架構中,從而擴展該平台,使其能夠服務於更廣泛的 AI 推理和即時工作負載。雖然我們正在吸納優秀人才並購買 Groq 的智慧財產權許可,但我們不會收購 Groq 這家公司。”輝達首席執行長黃仁勳在一封內部郵件中表示因此,在Groq發表聲明後,至少從表面上看,合併的說法不攻自破。現在看來,這一系列事件頗為耐人尋味,尤其是考慮到這筆交易距離被視為全面收購只差一步之遙,那就是官方披露中未提及此事。這是輝達典型的“反向收購”策略。如果有人不知道這意味著什麼,這是微軟的慣用伎倆。早在2024年,這家科技巨頭就宣佈以6.53億美元收購Inflection,其中包括Mustafa Suleyman和Karén Simonya等人加入微軟,後者曾是微軟人工智慧戰略的先鋒。反向收購是指一家公司從一家初創公司挖走關鍵人才,並保留“最基本的”公司架構,從而避免被認定為合併。現在看來,詹森似乎也採用了類似的策略來規避美國聯邦貿易委員會(FTC)的調查。他將與Groq的交易包裝成“非獨家許可協議”,從而使輝達實際上游離於《哈特-斯科特-羅迪諾反壟斷改進法案》(HSR法案)的管轄範圍之外。值得注意的是,Groq提到GroqCloud將繼續營運,但僅以“精簡架構”的形式存在。事情的經過是這樣的:輝達斥資200億美元收購了Groq的人才和智慧財產權,並成功避開了監管調查,從而在短短幾天內就完成了交易。而談到他們現在擁有的硬體資源,這才是輝達收購Groq這筆交易中最引人注目的部分。 (EDA365電子論壇)
“日本製造”該如何升級?
中山淳史:日本企業夾在擁有“GAFAM”和輝達的美國和擁有壓倒性工業生產力的中國之間,是否存在突破口呢?豐田正準備在中國上海開發和生產高檔車品牌“凌志”的EV,計畫2027年投產……在上海車展上展出的豐田的凌志EV中山淳史:日本企業夾在擁有“GAFAM”和輝達的美國和擁有壓倒性工業生產力的中國之間。如果作壁上觀,今後將會體驗到類似於在“客場”球場比賽的疏離感,是否存在突破口呢?豐田的轉換豐田正準備在中國上海開發和生產高檔車品牌“凌志”的純電動汽車(EV),計畫2027年投產。豐田最初考慮在日本開發。但是,即使在日本進行企劃,在EV的最大市場中國,當地企業不斷推出超預期的功能和技術,消費者也趨之若鶩。“3倍速”的速度感承受考驗。在日本4~5年被視為開發周期的常識,但中國製造商擅長使用人工智慧(AI)和在虛擬空間再現現實的數字孿生技術,只需1年半就能造出新款汽車。在日本國內汽車產量接近世界30%的1980~90年代初,象徵“日本製造”的就是豐田。類似於各國政府和企業嚮往並去學習的1930年代的美國福特汽車。但是,目前中國汽車產量佔全球總產量的34%。雖說“凌志”是豐田的旗艦品牌,但豐田可能是時候改變想法,轉向到中國等世界尋找競爭力源泉的“Made by Japan(由日本製造)”了。機器人處於關鍵時刻不僅僅是汽車。在AI半導體領域掌握世界主導權的輝達高管也表示:“日本已經不再是機器人大國”。確實言之有理。國際機器人聯合會的統計顯示,在中國運行的工業機器人有202萬台,達到日本的4.4倍。除了能自主學習、完全無人、24小時持續生產、被稱為“黑燈工廠”的巨大工廠增加上外,大腦部分也由美國和中國分享市場。另一方面,用AI驅動機器人需要學習在開發和製造一線產生的龐巨量資料。製造業歷史悠久的日本擁有不遜色於中國的資料量,如果充分運用,或許還能奪回工業機器人的霸主地位和製造業本身的競爭力。希望日本企業能帶著信心在全球範圍內推出資料驅動型的產品和服務。為此,現在是時候擺脫企業和產業的框架,嘗試大規模資料合作等跨領域措施了。在有“工業糧食”之稱的半導體領域,日本也沒有退路。關鍵是“電路線寬為2奈米(奈米為10億分之1米)”的AI時代最尖端半導體,力爭成為代工企業的Rapidus掌握著成敗。Rapidus力爭2027年下半年開始量產,2026年將看到端倪。在半導體這個可以說是國策的項目上,可以說是“國家高薪聘請美國家庭教師(IBM)、使國內企業接受英才教育、將長期處於空白狀態的國內技術連續從小學生水平提高到大學、研究生水平”的艱難事業。但是,日本沒有別的選擇。重要的是保持動物精神(野性),進入最尖端領域。在左右競爭力的純電動汽車、機器人、半導體領域,日本不能退出世界級水平的競爭。 (日經中文網)