#Google
🎯記憶體、PCB、低軌衛星後,下一個接棒主流浮現!Line@連結:https://lin.ee/mua8YUP🎯記憶體飆、PCB漲三個月、低軌衛星飛天……你不敢買的話,還有一個選擇:AI眼鏡。🚀2026年:AI眼鏡的「放量元年」以前的眼鏡叫「科技垃圾」,又重、又熱、還沒軟體用。 現在的AI眼鏡叫「外掛大腦」。它不需要炫砲的3D畫面,它只要能聽懂你的指令、看懂眼前的法文菜單、翻譯會議上的各種語言。HSBC預測:2040年市場規模衝上2,000億美元,用戶從1,500萬爆增到2.89億人。 這不是科幻片,這是2026年就會在你我生活中上演的「錢潮」。台股供應鏈誰是「真金」?看這四條線:1.獲利大翻身的「光學老兵」:6209今國光爆點:2025年營收衝上9年新高,靠的不是傳統相機,而是Google!關鍵技術:今國光轉型深耕「光波導」與「光引擎」,這是AI眼鏡的「視網膜」。反差:過去被市場冷落,現在是Google XR產品,2026年量產的首席光學盟友。法人估計2026年EPS有望倍增,毛利率直接衝破21%!2.全球前四強的「關鍵材料」:3645達邁爆點: 它是Meta AR眼鏡的隱形大將!當Meta喊出2026年產能要衝2,000萬副時,誰能供貨?只有達邁。關鍵技術:AI眼鏡要輕、要散熱、電路要細,全靠它的透明PI(聚醯亞胺薄膜)。地位:達邁剛砸5億擴建產線,2026年正式投產。這不是在蹭題材,這是「產能被包走」的前奏!3.耳朵(聲學之王):2439美律、6679鈺太美律:Meta聲學核心,想像空間直接拉滿。鈺太:D-Mic市佔稱霸,讓AI聽清楚你的指令,它是唯一救贖。4.投影技術:3294英濟、3504揚明光守住LCoS與微投影光學引擎,這是讓影像投射在鏡片上的關鍵技術。🔴想知道幾檔裡面,哪一檔才是真正的「黑馬」?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
Google4D世界模型來了,比SOTA快300倍!
Google DeepMind 發佈 D4RT,徹底顛覆了動態 4D 重建範式。它拋棄了複雜的傳統流水線,用一個統一的「時空查詢」介面,同時搞定全像素追蹤、深度估計與相機位姿。不僅精度屠榜,速度更比現有 SOTA 快出 300 倍。這是具身智能與自動駕駛以及 AR 的新基石,AI 終於能像人類一樣,即時看懂這個流動的世界。如果是幾年前,你問一位電腦視覺工程師:「我想把這段視訊裡的所有東西——無論它是靜止的房子還是奔跑的狗——都在 3D 世界裡重建出來,並且還能隨時知道它們下一秒會去那兒,需要多久?」他大概會遞給你一根菸,讓你先去買幾塊頂級顯示卡,然後給你畫一個由四五個不同模型拼湊起來的流程圖:先算光流,再算深度,再估相機位姿,最後還得用一晚上的時間去跑最佳化,祈禱結果別崩。但Google DeepMind 剛剛發佈的 D4RT(Dynamic 4D Reconstruction and Tracking),試圖終結這種混亂。這篇論文在電腦視覺領域扔下了一枚關於「效率革命」的重磅炸彈。它把原本割裂的 3D 重建、相機追蹤、動態物體捕捉,統一成了一個極簡的「查詢」動作。更重要的是,它的速度比現有 SOTA技術快了 18 到 300 倍。如果在你的認知裡,高品質的 4D 重建還是好萊塢特效工作室裡那些昂貴且緩慢的渲染農場,耗費漫長的時間等待生成完畢,那麼 D4RT 正在把這種能力變成一種可以塞進機器人大腦甚至 AR 眼鏡裡的即時直覺。Demo 演示為了理解 D4RT 到底做到了什麼,我們需要先看一眼它眼中的世界。在論文展示的演示中,最直觀的震撼來自於對「動態混亂」的駕馭能力。想像一下這個畫面:一隻天鵝在水面上劃過,或者一朵花在風中快速綻放。傳統的 3D 重建演算法(比如 MegaSaM 或 )處理這種場景通常是一場災難——因為它們假設世界是靜止的,所以它們往往會在 3D 空間裡留下一串「重影」,就像老式膠片重疊曝光一樣,天鵝變成了長著幾十個脖子的怪物,或者花朵直接變成了一團無法辨認的噪點。但 D4RT 給出的結果極其乾淨。它不僅可以精準還原天鵝的 3D 形態,還完美剝離了相機的運動和天鵝自身的運動。在它的視野裡,時間變成了一個可以隨意拖動的滑塊。更令人印象深刻的是它的全像素追蹤能力。你可以點選視訊中花瓣上的任意一個像素,D4RT 就能畫出這個點在過去和未來的完整 3D 軌跡,那怕這個點在中間幾幀被蜜蜂遮擋了,或者跑到了畫面之外,模型依然能根據上下文「腦補」出它的去向。這種視覺效果給人的感覺是:AI 不再是在一幀幀地「看」視訊,而是把整段視訊吞下去,在大腦裡生成了一個完整的、流動的全息全景圖,然後你可以隨意從任何角度、任何時間去檢視它。模型能力對比圖拆解「神話」是真的快,還是文字遊戲?科技公司發論文,資料通常都很漂亮。作為觀察者,我們需要剝離 PR 濾鏡,看看資料背後的定語。Google聲稱 D4RT 比之前的 SOTA 快了 300 倍,處理一分鐘的視訊只需要 5 秒鐘。這是真的嗎?答案是:在特定維度上,是真的。這裡的「300倍」指的是吞吐量,具體來說是「在保持相同影格率(FPS)的前提下,模型能同時追蹤多少條 3D 軌跡」。資料對比:在 24 FPS 的標準電影影格率下,之前的強者 SpatialTrackerV2 隻能同時追蹤 84條軌跡,再多就卡了;而 D4RT 可以輕鬆處理 1570條。如果是和 DELTA 這種更慢的模型比,那就是 314 倍的差距。實際意義:這意味著之前的技術可能只能盯著畫面裡的主角(比如一個人),而 D4RT 可以同時盯著背景裡走動的路人、飄落的樹葉和遠處的車流——即所謂的「全像素級感知」。它比同類技術強在那兒?目前市面上的 4D 重建技術主要分兩派:「拼裝派」(如 MegaSaM):把深度估計、光流、分割等多個現成模型串起來。雖然效果不錯,但不僅慢,而且一旦一個環節出錯(比如光流飄了),後面全完。「多頭派」(如 VGGT):雖然是一個大模型,但為了輸出不同的任務(深度、位姿、點雲),需要掛載不同的解碼頭,結構臃腫。D4RT 的牛,在於它做到了架構層面的統一。它不需要為深度單獨做一個解碼器,也不需要為位姿單獨做一個。它只用同一個介面解決所有問題。有沒有代價?當然有。D4RT 的「快」主要體現在推理階段。在訓練階段,它依然是一個龐然大物。它的編碼器使用了 ViT-g,擁有 10 億參數,並且需要在 64 個 TPU 晶片上訓練兩天。這絕不是普通開發者在自家車庫裡能復現的玩具,它是典型的「大廠重武器」。技術解碼 把 4D 重建變成「搜尋引擎」那麼,D4RT 到底是怎麼做到的?論文的核心邏輯可以用一句話概括:先全域「閱讀」視訊,再按需「搜尋」答案。不再逐幀解碼,而是「全域記憶」傳統的視訊處理往往是線性的,處理第 10 幀時可能已經「忘」了第 1 幀的細節。D4RT 的第一步是使用一個巨大的 Transformer 編碼器(Encoder),把整段視訊壓縮成一個全域場景表徵(Global Scene Representation, F)。你可以把這個 F 想像成 AI 對這段視訊形成的「長期記憶」。一旦這個記憶生成了,原本龐大的視訊資料就被濃縮在了這裡。「那裡不會點那裡」的查詢機制這是 D4RT 最天才的設計。它發明了一種通用的查詢(Query)語言。當 AI 想要知道某個像素的資訊時,它會向解碼器(Decoder)傳送一個查詢 q:這個公式翻譯成人話就是:平行計算的藝術因為每一個查詢(Query)都是獨立的,D4RT 不需要像穿針引線一樣按順序計算。它可以一次性扔出幾萬個問題,利用 GPU/TPU 的平行能力同時算出答案。這就是為什麼它能比別人快 300 倍的根本原因:它把一個複雜的序列幾何問題,變成了一個大規模平行的搜尋問題。關鍵的「作弊」技巧:9x9 Patch論文作者還發現了一個有趣的細節:如果只告訴解碼器坐標點,AI 有時候會「臉盲」,分不清紋理相似的區域。於是,他們在查詢時順便把那個像素點周圍 9x9的小方塊圖像(RGB Patch)也喂給了模型。這就像是你讓人在人群中找人,光給個坐標不行,還得給他一張那個人臉部的特寫照片。消融實驗證明,這個小小的設計極大地提升了重建的銳度和細節。產業影響 Google的野心與具身智能的眼睛D4RT 的出現,對Google現有的業務版圖和未來的 AI 戰略有著極強的互補性。具身智能與自動駕駛的最後一塊拼圖現在的機器人之所以笨,很大程度上是因為它們「看不懂」動態環境。一個掃地機器人能避開沙發,但很難預判一隻正在跑過來的貓。D4RT 提供的即時、密集、動態的 4D 感知,正是機器人急需的技能。它能讓機器人理解:那個東西不僅現在在那裡,而且下一秒它會出現在我左邊。對於自動駕駛而言,這種對動態物體(如行人、車輛)的像素級軌跡預測,是提升安全性的關鍵。增強現實(AR)的基石Google一直在 AR 領域尋找突破口(從當年的Google眼鏡,到現在的 Project Astra)。要在眼鏡端實現逼真的 AR,必須要有極低延遲的場景理解。D4RT 展示的高效推理能力(尤其是在移動端晶片上的潛力),讓「即時把虛擬怪獸藏在真實沙發後面」變得在工程上可行。對普通人的影響 視訊編輯的「魔法化」對於普通使用者,這項技術最快落地的場景可能是手機相簿和視訊編輯軟體。想像一下,你拍了一段孩子踢球的視訊。有了 D4RT,你可以像在《駭客帝國》裡一樣,在影片播放過程中隨意旋轉視角(儘管你拍攝時並沒有移動),或者輕易地把路人從複雜的背景中「扣」掉,甚至改變視訊中光源的方向。這是 D4RT 這種 4D 重建技術成熟後的應用之一。結語D4RT 讓我們看到了一種新的可能性:AI 對世界的理解,正在從二維的「圖像識別」跨越到四維的「時空洞察」。它告訴我們,要看清這個流動的世界,關鍵不在於每一幀都看得多仔細,而在於如何建立一個能夠隨時回應疑問的全域記憶。在 AI的眼中,過去並沒有消逝,未來也不再不可捉摸,它們只是同一個四維坐標系裡,等待被查詢的兩個不同參數而已。 (新智元)
AI將比工業革命大100倍,普通人最值得做這一件事
在昨天達沃斯世界經濟論壇上,Google DeepMind的CEO、諾貝爾獎得主戴密斯·哈薩比斯說出了一個讓全場震驚的判斷:“AI帶來的變革,將是工業革命的10倍規模、10倍速度。”主持人迅速接話:“那就是100倍。”“是的,100倍。”哈薩比斯確認道。無獨有偶,就在幾天前,矽谷傳奇投資人馬克·安德森也在一場播客中拋出類似觀點:“為什麼一切即將擴大十倍?因為當技術發生根本性突破時,基於現有市場資料的預測完全失效。”問題是:在這場百年未見的巨變中,普通人的最佳機會在那裡?答案可能讓很多人意外,也讓一些人不屑一顧。普通人最值得做的,不是去學 Python 程式設計,不是去捲大廠職位,更不是去all in 炒幣,而是成為一名內容創作者,或者更準確地說,成為一家“一人公司”(One-Person Business)。因為這是人類歷史上,個人槓桿率最高、門檻最低、上限最高的一次機會窗口。AI時代的真正衝擊:不是失業,而是工資制度本身的衰亡一、一篇文章,1.5億瀏覽量2025年1月12日,一個叫Dan Koe的美國人在X(原推特)上發了一篇長文,標題是《How to fix your entire life in 1 day》(如何在一天內修復你的整個人生)。一周後,這篇文章的瀏覽量突破了1.5億。1.5億是什麼概念?X全球月活使用者約6億——意味著平台上每四個人,就有一個看到了這篇文章。有人好奇這篇文章賺了多少錢。Dan Koe曬出了X平台14天的分成:4495美元。1.5億瀏覽量,才賺4495美元?但Dan Koe去年的總收入是400多萬美元。錢從那來的?來自他的付費訂閱、書籍銷售、AI工具銷售。所有這些,都建立在他六年如一日的內容創作之上。那篇爆款文章不是終點,而是漏斗的入口。1.5億瀏覽量意味著品牌曝光和信任積累,真正的收入來自那些被內容吸引、進而購買他產品的一小部分人。Dan Koe的收入曲線是這樣的:2019年:1萬美元2020年:10萬美元2021年:15萬美元2022年:80萬美元2023年:250萬美元2024年:400萬美元+六年,從1萬到400萬。他說了一句話,我覺得值得每個人記住:“Please for the love of all things holy don't quit after 2 months.” 拜託,千萬別兩個月就放棄。Dan Koe的故事之所以值得關注,不是因為他是個例外,而是因為他代表了一種正在崛起的新物種:超級個體。一個人,借助網際網路和AI,做著過去需要一整個團隊才能完成的事。而這個物種的數量,正在以指數級增長。二、為什麼是內容創作——三大底層改變你可能會說:這不就是個網紅故事嗎?每個時代都有幾個幸運兒。此言差矣。這不是運氣,而是底層邏輯的改變。我們可以從用三個維度來解釋。【邏輯一:供給驅動的市場爆發】馬克·安德森的基金a16z投資了Substack(一個付費的寫作平台)。很多人不理解:寫作能有多大市場?安德森的回答是:“傳統市場分析完全失效。”他解釋說,在Substack出現之前,許多才華橫溢的作者被困在傳統媒體機構中,受限於機構的立場或商業模式,無法自由表達或從中獲利。這導致了一個巨大的“供給缺口”。而當你提供一種新的變現機制,你就能憑空創造出原本不存在的供給——那些原本不寫作或無法獨立生存的作者。這些新供給會進而激發原本不可見的潛在需求。“Substack不僅僅是替代了舊報紙,它可能將內容產業的市場規模擴大10倍甚至1000倍。”這就是“供給側解鎖”的威力。過去人們批評網際網路充滿了短影片和貓片,認為使用者只想當“沙發土豆”。但這種批評忽略了市場的啞鈴型結構——雖然大眾娛樂有巨大市場,但在另一端,對於高品質、深度內容的潛在需求同樣驚人。長播客的成功就打破了“使用者注意力只有幾秒鐘”的迷思——只要供給質量足夠高,使用者願意花3小時觀看。問題從來不是缺乏需求,而是缺乏優質的供給。而AI,正是人類歷史上最大的供給側變革。過去,一個人想做內容創作,需要會寫作、會剪輯、會設計、會營運。現在,AI可以幫你完成其中80%的執行工作。門檻降低了,但這不意味著價值消失——恰恰相反。安德森特別提到一個概念:“非同質化作者”。AI可以生成大量平庸的內容,這反而讓真正獨特、具備個人品牌的作者變得更有價值。Substack實際上是在通過技術手段,讓這些“非同質化”的個體得以建立自己的商業帝國。尖峰報告:穩定幣到底是一場怎樣的財富大轉移?【邏輯二:納瓦爾的“槓桿三要素”】矽谷傳奇天使投資人納瓦爾·拉瓦坎納有一套著名的“致富框架”,被無數人奉為圭臬。其核心是三個要素:1. 特殊知識(Specific Knowledge):你獨特的經歷、洞察、表達,這是無法被培訓、無法被覆制的。納瓦爾說:“特殊知識往往來自你的熱情和好奇心,而不是去學當下最熱門的東西。”2. 責任(Accountability):用自己的名字承擔風險。社會獎勵那些有勇氣在自己名下冒險的人。大多數人不敢,所以敢的人獲得超額回報。3. 槓桿(Leverage):讓你的投入產出比遠超1:1。關於槓桿,納瓦爾有一句堪稱劃時代的觀點:“程式碼和媒體是無需許可的槓桿。”什麼意思?傳統槓桿(資本、人力)需要別人的許可——你要融資、要招人。但程式碼和媒體不需要。你今天就可以開始寫作、錄視訊、做播客,不需要任何人批准。他還說:“這是全新的槓桿形式,也是最民主的形式。它是邊際成本為零的產品複製——包括書籍、媒體、電影和程式碼。所有新財富都是從這裡產生的。”“只要你是最好的,網際網路今天使任何小眾興趣都能規模化擴展。”內容創作,恰好同時滿足這三個要素:你用自己的名字(責任),分享你獨特的思考(特定知識),通過網際網路觸達數百萬人(槓桿)。而正如納瓦爾所言,“學會銷售,學會建構。如果你兩樣都會,你將勢不可擋。”內容創作本質上就是在學習銷售,銷售你的想法、你的人格、你的世界觀。都2026年了,全世界最會搞錢的這群大聰明為什開始狂搞自媒體?【邏輯三:AI放大器效應——一個人就是一支團隊】Dan Koe是怎麼工作的?根據矽谷著名連續創業者Greg Isenberg的消息和分析,Dan Koe每天早上打開ChatGPT和Claude,像使用內部策略團隊一樣使用它們。他會把表現最好的帖子喂給AI,讓AI分析隱藏的模式——結構、節奏、好奇心缺口、情感回報。然後他建立一套可重複的系統,把2小時的工作變成7天的內容。他的核心方法是:1. 在Twitter上快速驗證:每天寫兩三條高密度帖子,那條火了,就是市場訊號。2. 一個來源驅動所有內容:把驗證過的想法擴展成Newsletter,Newsletter變成YouTube指令碼,再跨平台復用到LinkedIn、Instagram、Threads、Shorts。3. 用AI壓縮研究時間:把長視訊丟給Claude,6小時的研究壓縮成1000字摘要,再與自己的素材庫比對,找到獨特角度。他有一套“提示詞堆疊”:YouTube標題生成器(基於他表現最好的15個標題訓練出30個新標題)、深度帖子生成器(提取悖論、轉變弧線、行動步驟)、內容創意生成器(根據驗證過的格式輸出60個推文創意)。哈薩比斯在達沃斯說了一句話,精準描述了這種狀態:“你可能能夠做到過去需要10個人才能完成的工作。如果你有創業精神,在遊戲設計、電影、項目方面有創意,你可能比過去更容易進入這些行業。”一個人,就是一家公司。一個人,就是一支團隊。這在人類歷史上從未發生過。三、為什麼不是程式設計或投資?你可能在想:為什麼偏偏是內容創作?做軟體不行嗎?打工不行嗎?創業不行嗎?讓我一個個說。【做軟體?在國內C端幾乎賺不到錢】前幾天跟朋友聊天,他說了一句話讓我印象深刻:“身邊做AI的人很多,但在國內做C端AI產品賺到錢的,除了賣課,好像真想不到其它的了。”做出海的有,給企業做解決方案的有,搞培訓教課的也有。但國內C端AI產品,要麼做了但沒賺到什麼錢,要麼做得很小眾,養活自己都勉強。AI熱了這麼久,國內使用者量也不小,按理說C端應該有機會。但實際情況是,大家寧願去做ToB、做出海,就是不碰國內C端。為什麼?因為做了發現賺不到錢。國內使用者付費意願本來就低,AI產品又特別容易被覆制,你剛做出個東西,就有一堆類似的。外加大廠直接免費送,用流量和錢砸你。一個小團隊,沒能力跟人家耗。但內容不一樣。內容的護城河是你這個人。你的經歷、你的表達、你的人格;這些沒法被覆制,沒法被大廠砸錢砸掉。【打工?你只是個時日不多的螺絲釘】Anthropic(claude模型的母公司)的CEO Dario Amodei阿莫戴伊在達沃斯說,AI可能在5年內消滅50%的入門級白領工作。哈薩比斯雖然認為時間線會更長,但他承認今年就會開始看到一些跡象,比如入門級工作和實習崗位的減少。而Node.js的創始人Dahl今天就在推特上表示,“人類編寫程式碼的時代已經結束。”“黑天鵝之父”塔勒布有一句很經典也很扎心的話:“最危險的毒品有三種:海洛因、碳水化合物,和月薪。”打工者用時間換錢,永遠無法獲得槓桿。你的價值被鎖死在每小時、每月能產出多少。我看到網友的一段話,寫得還是很有道理的:“別跟我扯行業、崗位、背景。那怕你是技術崗,不會曝光、不敢說話、沒人知道你,你就是個隨時可替換的螺絲釘。”很多人還在賭一件事:熬。熬資歷,熬年頭,熬到高級經理。但你算過機率嗎?能熬上去的那點人,不比做出一個自媒體號多,甚至更少。而且更殘酷的是:你熬輸了,啥都沒留下;你做自媒體,那怕失敗,至少留下了內容、曝光、經驗和認知。現在這個年代,影響力就是簡歷。不是你寫給HR的那張紙,是市場天天給你打的分。【傳統創業?門檻太高,風險太大】傳統創業需要:資金、團隊、供應鏈、辦公室……內容創業只需要:一台電腦、你的思想、持續輸出。Dan Koe總結了一個“新商業劇本”:“先做創作者→ 建立受眾 → 積累現金和槓桿 → 享受生活……或者用它來啟動創業。”內容創作是所有事情的“前置任務”。你先有了受眾和信任,再做任何生意都事半功倍——無論是賣課、賣產品、做諮詢、還是真的去創業融資。這也是為什麼越來越多聰明人的路徑變成了:先建立個人品牌,再考慮下一步做什麼。因為有了受眾,你做什麼都有人買單;沒有受眾,你做什麼都是從零開始。【一個正在成型的共識】我越來越相信一個判斷:未來所有工作都將是:專業技能 + 自媒體。你會什麼固然重要,但是有多少人知道你更重要。沒人認識你,不能被看到,你就不值錢。再努力,也只是更便宜的努力。要麼早點把自己當成一門生意來經營,要麼等著被現實教育:公司不養閒人,時代不等無名者。四、為什麼現在是最好的時代?Sahil Bloom,《五種財富》的作者,另一位成功的內容創作者,在一次播客中說了一段話,我覺得是對這個時代最好的註解:“我可以坐在書桌前,每周寫一份新聞通訊,觸及全球數百萬讀者。可能是印度的18歲青年,也可能是內布拉斯加州的90歲老人,但他們可以在我還活著的時候,即時閱讀和參與這些想法。這是多麼不可思議的時代?”他說得對。這確實是人類歷史上成為內容創作者的最佳時機。原因有幾個:【前所未有的全球觸達能力】數位化創作工具讓個人能夠突破地理限制,通過網際網路直接與全球受眾即時互動。這是歷史上前所未有的傳播規模。過去,你想讓一百萬人聽到你的聲音,需要出版社、電視台、報社。現在,你只需要一個帳號和持續輸出的內容。納瓦爾說過,“網際網路使任何小眾興趣,只要你是最好的,都能規模化擴展。”在網際網路之前,全世界最好的手沖咖啡師可能只在一個小鎮上被認可。現在,他可以通過YouTube教全世界的人沖咖啡,賣課程、賣咖啡豆、接代言。【複利式影響力積累】Sahil Bloom提到一個概念:內容創作的本質是複利。“給朋友發條簡訊會產生未來人際關係的複利效應。”每個微小創作單元(文章、視訊、推文)都是在建構持續增值的數位資產池。你今天寫的文章,可能五年後還在為你帶來流量和客戶。他提出的“每日解決一個問題”方法,將內容生產轉化為可積累的長期影響力工程。不是追求每篇都爆,而是持續建立一個資訊庫,讓時間成為你的朋友。納瓦爾也說過類似的話:“所有生活中的回報,無論是財富、關係還是知識,都來自複利。”內容是少數幾種可以複利的資產。【對抗社會連接悖論的機遇】我們處在一個奇怪的時代:技術連接與現實疏離並存。每個人都線上上,但真正的深度連接越來越稀缺。這恰恰是內容創作者的機會。優質內容創作成為稀缺的情感連接管道。通過深度觀點分享(播客、長文、視訊),創作者能建立超越表層社交的實質精神聯結。這也是為什麼Dan Koe那篇文章能有1.5億瀏覽量:人們渴望有人告訴他們如何修復自己的人生,渴望有人提供方向感。誰能持續提供這種價值,誰就能建立起最深的信任。【非線性成功的可能性】Sahil Bloom自己就是例子:“從高薪工作轉型寫作卻獲得更大成就。”數字時代的內容價值評估體系(閱讀量、互動深度、社會影響)已超越傳統財務標準。個人專業知識(如金融、技術、設計)可通過內容產品化轉化為多維財富——時間自由、社會影響力、被動收入。傳統路徑是線性的:升職、加薪、慢慢積累。內容創作的路徑是非線性的:可能很長時間沒有反饋,然後突然爆發。Dan Koe的收入曲線就是這樣,前三年才從1萬到15萬,但後三年從15萬到400萬。這就是槓桿的威力:一旦找到了產品-市場匹配,增長是指數級的。五、但時間窗口正在關閉哈薩比斯在達沃斯說了一句讓我印象深刻的話:“通常這樣的轉變需要一到兩代人,但這次的速度和變革的規模都是前所未有的。”這意味著什麼?意味著先發優勢的窗口期極短。Dan Koe花了六年建立起17萬郵件訂閱者和數百萬社交媒體粉絲。這六年積累的信任,是AI無法複製的。而現在,AI降低了入門門檻,但同時也讓競爭更加激烈。在Dan Koe那篇文章爆火後,X平台上已經湧現出大量模仿者,各種AI技能教學和勵志文章,什麼“How to change your life in 2026”“The one skill you need”“Why most people will never succeed”……結構一樣,圖片風格一樣,連“讓我告訴你真相”的語氣都一模一樣。這種寫法甚至成了一個meme,引發了大量模仿和惡搞。但爆火的依然是Dan Koe,而不是模仿者。為什麼?一方面,信任需要時間積累。Dan Koe寫了六年,有真實的失敗經歷和可追溯的成長歷程。AI可以模仿他的句子結構,但無法複製那段歷史。另一方面,超級個體賽道已經非常擁擠。每個人都想成為下一個Dan Koe——他的學員們的目標通常都是“建立個人品牌”“通過內容創作變現”“逃離朝九晚五”。Dan Koe自己也說:今年,你將與大量使用AI的寫作者競爭。但不用擔心,因為這正是你真正的聲音和思考方式閃耀的時候。AI是一個資料庫,它繪製地圖,但你的寫作可以朝任何方向走,可以比AI更快地調整。作為一人企業,這是你的優勢。這就是時間窗口的意義:越早開始,你就越有可能在AI氾濫的時代建立起不可替代的信任資產。等到所有人都在用AI寫內容的時候,唯一能脫穎而出的,就是那些有真實積累、有獨特視角、有人格魅力的人。而建立這些,需要時間。窗口不會永遠開著。六、所以,從今天開始哈薩比斯在達沃斯說,面對這場100倍的變革,他對人類保持樂觀:“我們極其適應性強,因為我們的心智是如此通用。”他給年輕人的建議是:“精通這些新工具,成為這些工具的原生使用者。這幾乎相當於給你超能力。”納瓦爾說得更直接:“成為世界上做你所做之事最好的人。不斷重新定義你做的事,直到你真的是最好的。”這不是關於賺錢的故事。這是關於在AI時代找到“不可替代”位置的故事。AI可以寫程式碼,可以生成圖像,可以分析資料,但AI無法成為“你”。你的經歷、你的思考、你的表達、你的故事,這些是真正的稀缺資源。而內容創作,就是把這些稀缺資源轉化為可複利資產的最佳方式。所以,從今天開始。用你的名字,分享你的思考。不需要完美,不需要許可,不需要等待。但正如Dan Koe所說,千萬別兩個月就放棄。至於具體怎麼做?如何找到自己的定位?如何建立內容飛輪?如何用AI提升效率而不是被AI替代?網上已經有很多套路,或者問AI也可以拿到標準答案。但是,如果你想要更系統更特殊的方法論和實操指南,歡迎加入經叔的知識星球,今年會有更多關於“一人公司”的獨家內容,幫助大家抓住時間窗口。但在那之前,最重要的是——先開始。【懂】 (不懂經)
高盛:成本暴降70%!GoogleTPU強勢追趕,性價比已追平輝達
高盛表示,Google/Broadcom 的TPU正在迅速縮小與輝達GPU在推理成本上的差距。從TPU v6升級至TPU v7,單位代幣推理成本下降約70%,與輝達GB200 NVL72基本持平。這並不意味著輝達地位被動搖,但它清晰地表明,AI晶片競爭核心評價體系正在從“誰算得更快”,轉向“誰算得更便宜、更可持續”。在AI資本開支仍維持高位、但商業化壓力不斷上升的當下,市場關注點正在發生一場悄然卻深刻的轉移:大模型還能不能繼續“無視成本地跑下去”。據追風交易台,高盛最新發佈的AI晶片研究報告,並未延續市場熟悉的“算力、製程、參數規模”對比,而是從更貼近商業現實的角度切入——推理階段的單位成本。通過建構一條“推理成本曲線”,高盛試圖回答一個對AI產業至關重要的問題:在模型進入高頻呼叫階段後,不同晶片方案在折舊、能耗和系統利用率等約束下,每處理一百萬個token究竟需要付出多少真實成本。研究結論指向了一次正在加速、但尚未被充分消化的變化:Google/Broadcom 的TPU正在迅速縮小與輝達GPU在推理成本上的差距。從TPU v6升級至TPU v7,單位token推理成本下降約70%,使其在絕對成本層面與輝達GB200 NVL72基本持平,部分測算情形下甚至略具優勢。這並不意味著輝達的地位被動搖,但它清晰地表明,AI晶片競爭的核心評價體系正在從“誰算得更快”,轉向“誰算得更便宜、更可持續”。當訓練逐漸成為前期投入,而推理成為長期現金流來源,成本曲線的斜率,正在取代峰值算力,成為決定產業格局的關鍵變數。一、從算力領先到成本效率,AI晶片競爭的評價標準正在切換在AI發展的早期階段,訓練算力幾乎決定了一切。誰能更快訓練出更大的模型,誰就擁有技術話語權。然而,隨著大模型逐步進入部署與商業化階段,推理負載開始遠遠超過訓練本身,成本問題被迅速放大。高盛指出,在這一階段,晶片的性價比不再只由單卡性能決定,而是由系統層面的效率共同塑造,包括算力密度、互聯效率、記憶體頻寬以及能源消耗等多重因素。基於這一邏輯建構的推理成本曲線顯示,Google/Broadcom TPU在原始計算性能和系統效率上的進步,已經足以在成本維度上與輝達正面競爭。相比之下,AMD和亞馬遜Trainium在代際成本下降幅度上仍較為有限。從現階段測算結果看,兩者的單位推理成本仍明顯高於輝達和Google方案,對主流市場的衝擊相對有限。二、TPU成本躍遷的背後,是系統工程能力而非單點突破TPU v7實現大幅降本,並非來自單一技術突破,而是系統級最佳化能力的集中釋放。高盛認為,隨著計算晶片本身逐步逼近物理極限,未來推理成本能否繼續下降,將越來越依賴“計算相鄰技術”的進步。這些技術包括:更高頻寬、更低延遲的網路互聯;高頻寬記憶體(HBM)和儲存方案的持續整合;先進封裝技術(如台積電CoWoS);以及機架級解決方案在密度與能效上的提升。TPU在這些方面的協同最佳化,使其在推理場景中展現出明顯的經濟性優勢。這一趨勢也與Google自身的算力部署高度一致。TPU在Google內部工作負載中的使用比例持續上升,已廣泛用於Gemini模型的訓練與推理。同時,具備成熟軟體能力的外部客戶也在加速採用TPU方案,其中最引人注目的案例是Anthropic向Broadcom下達的約210億美元訂單,相關產品預計將在2026年中開始交付。不過,高盛同時強調,輝達仍然掌握“上市時間”優勢。在TPU v7剛剛追平GB200 NVL72之際,輝達已經推進至GB300 NVL72,並計畫在2026年下半年交付VR200 NVL144。持續的產品迭代節奏,仍是其維持客戶黏性的關鍵籌碼。三、投資含義再平衡:ASIC崛起,但輝達的護城河尚未被擊穿從投資視角看,高盛並未因TPU的快速追趕而下調對輝達的判斷。該機構仍維持對輝達與Broadcom的買入評級,認為兩者最直接繫結AI資本開支中最具可持續性的部分,並將長期受益於網路、封裝和系統級技術升級。在ASIC陣營中,Broadcom的受益邏輯尤為清晰。高盛已將其2026財年每股收益預期上調至10.87美元,較市場一致預期高出約6%,並認為市場仍低估了其在AI網路與定製計算領域的長期盈利能力。AMD和亞馬遜Trainium當前仍處於追趕階段,但高盛也指出,AMD的機架級方案存在後發優勢的可能性。預計在2026年末,基於MI455X的Helios機架方案有望在部分訓練與推理場景中實現約70%的推理成本下降,值得持續跟蹤。更重要的是,這份研報給出的並非“贏家通吃”的結論,而是一幅逐漸清晰的產業分工圖景:GPU繼續主導訓練與通用算力市場,而定製ASIC在規模化、可預測的推理負載中不斷滲透。在這一過程中,輝達的CUDA生態與系統級研發投入仍構成堅實護城河,但其估值邏輯也將持續接受“推理成本下行”的現實檢驗。當AI真正進入“每一個token都要算回報”的階段,算力競爭終究要回到經濟學本身。TPU成本暴降70%,並不是一次簡單的技術追趕,而是一次對AI商業模式可行性的關鍵壓力測試。而這,或許正是GPU與ASIC之爭背後,市場最應認真對待的訊號。 (invest wallstreet)
浙江人均存款超17萬,深圳水貝市場推出投資銅條 | 財經日日評
1月LPR連續8個月保持不變1月20日,1月LPR(貸款市場報價利率)報價出爐,5年期和1年期利率均維持不變:5年期以上LPR為3.5%,上月為3.5%。1年期LPR為3%,上月為3%。央行資料顯示,自2025年5月份1年期和5年期以上LPR雙雙下降10個基點以來,兩個期限品種LPR均已連續8個月保持不變。同日,財政部官網連續發佈5個檔案,其中包括實施中小微企業貸款貼息政策、最佳化實施服務業經營主體貸款貼息政策、實施民間投資專項擔保計畫、最佳化實施裝置更新貸款財政貼息政策、最佳化實施個人消費貸款財政貼息政策。(綜合央行官網)|點評|央行此前已進行了結構性降息,本月維持政策利率不變符合市場預期。去年全年,央行更傾向於通過總量型貨幣政策工具,為市場投放固定期限的流動性。今年央行曾明確表示,將更多考慮價格型貨幣政策的使用。不過,金融部門支援實體經濟的前提是自身保持健康運作,國內商業銀行淨息差持續處於歷史低位,結構性降息除了支援特定行業外,還有降低銀行負債成本的考量。央行全面下調政策利率面臨一定約束,在此情況下,財政部正積極運用財政政策,進一步加大對實體經濟的支援力度。財政部這次推出的政策組合拳,從支援小微企業到提振內需,既有政策的最佳化延續,又包含一批增量政策,將成為國內經濟更全面復甦的有效助力。2025年浙江省人均存款達到17.77萬1月20日消息,廣東、浙江、吉林、河北、寧夏5個省份近日發佈2025年金融運行資料。截至去年末,5個省份的本外幣存款餘額均較去年初增長均超5%。其中,住戶存款餘額增速甚至達到了8%—9%。據測算,2025年浙江省人均存款達到17.77萬元,廣東省人均存款為11.83萬元,河北、吉林、寧夏的人均存款分別為12.8萬元、12.76萬元和9.23萬元。央行資料顯示,截至2025年12月末,全國住戶本外幣存款餘額為167兆元,同比增長9.71%,與上述5個省份的增速相當。如果按照全國總人口140489萬人估算,相當於人均存款11.89萬元。(第一財經)|點評|去年居民儲蓄量整體保持較快增長,部分省份的住戶貸款量卻出現明顯減少,更多反映出大家對於經濟預期的不確定感。當前樓市仍處於探底階段,不僅造成部分家庭財富持續縮水,還導致以往居民的主要投資管道受阻,市場中缺少持續有吸引力的投資標的,進一步抑制了投資和消費的活力。在此情況下,即使利率已下行至低位,帶來的提振作用也較為有限。要打破需求收縮、預期轉弱的惡性循環,根本還是要修復居民信心,這也是現階段政策的發力方向。當大家對未來就業、收入和財富增值有了穩定可靠的預期,對於經濟增長有了實感,投資和消費意願自然會回升。GoogleAI介面呼叫量5個月增長140%1月20日消息,Google通過Google雲平台,以應用程式程式設計介面(API)的形式對外授權Gemini模型的使用權限。內部資料顯示,自2025年3月Gemini 2.5版本首次發佈以來,Gemini介面呼叫量從約350億次一路攀升,到8月已增至約850億次,實現超過140%的增長;Gemini企業訂閱使用者已增長至800萬。Gemini的熱銷有望進一步提振Google雲核心伺服器銷售業務的營收,還有望推動Google基於Gemini模型的軟體銷售業務。2025年第三季度,Google雲業務營收達152億美元,同比增長34%,其中AI相關收入已達到“每季度數十億美元”規模,雲業務訂單積壓環比激增46%至1550億美元。(財聯社)|點評|大模型競賽中,僅靠技術優勢難以構成持久有效壁壘,規模可觀的使用者和繁榮的開發者生態,被視為商業化閉環的第一步。為了爭奪更多入口,目前大模型呼叫多處於免費或是低變現階段。通過呼叫API介面,使用者可以快速接入大模型,並將AI能力直接整合到自己的應用中。Google的Gemini呼叫量增長迅速,可見市場對其產品的認可。目前來看,AI應用直接產生的收入在Google營收佔比中不算大,但賦能效應顯著。呼叫Gemini,增強了使用者對Google雲伺服器的依賴。同時,Gemini正被Google深度整合進核心產品,已經帶動其搜尋與廣告業務的較快增長,後續或將成為驅動整個生態的引擎。OpenAI年化營收突破200億美元1月20日消息,OpenAI首席財務官在一篇部落格文章中表示,公司2025年年化營收已超200億美元,而2024年這一數字為60億美元,營收增長與算力規模的擴張緊密相關。OpenAI的算力規模從2024年的0.6吉瓦提升至2025年的1.9吉瓦。據悉,在過去約一年時間裡,OpenAI已宣佈了規模約1.4兆美元的基礎設施合作協議。上周,OpenA宣佈將開始在ChatGPT中向部分美國使用者展示廣告,以加大從這款人工智慧聊天機器人身上獲取收入的力度,從而為研發這項技術所面臨的高昂成本提供資金支援。OpenAI政策主管Chris Lehane在達沃斯接受採訪時透露,該公司計畫在2026年發佈其首款硬體裝置。(財聯社)|點評|OpenAI通過持續擴大算力規模,有效拉動了營收增長,然而一個不容忽視的事實是,其虧損的增速已超過營收增長。目前,公司收入主要來源於個人使用者訂閱,同時企業使用者也在過去一年呈現爆發態勢。算力規模不斷擴張,支撐了更多使用者訪問並推動收入提升,但也帶來了愈加沉重的算力支出。此外,AI大模型迭代成本日益攀升,為維持技術領先地位並確保使用者付費意願,OpenAI不得不持續投入大量資金以鞏固其競爭優勢。靠融資為生始終不是長久之計,OpenAI正在更加積極地進行商業化轉型。為AI大模型的回答中加入廣告是現階段OpenAI最容易實現,能迅速帶來可觀收益的選項。Google憑藉競價排名的廣告業務賺得盆滿缽滿,OpenAI也正在探索儘可能少損害使用者信任度的廣告投放方式。海力士為員工發放人均64萬元年終獎1月20日消息,全球記憶體巨頭SK海力士將向全體員工發放人均超1.36億韓元(約合64萬元人民幣)的績效獎金,創公司成立以來最高紀錄。員工能拿到這筆巨額獎金的重要原因在於去年9月,SK海力士與工會達成歷史性勞資協議,廢除此前“利潤分享金(PS)不超過基本工資10倍”的上限,改為將年度營業利潤的10%納入獎金池。按照市場一致預期,SK海力士2025年的營業利潤將逼近45兆韓元(約合2127.15億元人民幣),由此形成4.5兆韓元(約合212.72億元人民幣)的獎金總額。據悉,獎金發放採用“8:1:1”結構化模式:80%將於1月底業績公佈後即時兌現,剩餘20%分兩年遞延支付,且每年可享受10%利息收益。(每經網)|點評|前幾年行業低迷期間,SK海力士幾乎沒有為員工發放年終獎,企業盈利能力提升後,年終獎也同步得到提升。這種與員工共享成長成果的舉措,有效增強了員工對公司的長期忠誠度。作為輝達AI晶片的主要記憶體供應商,在輝達晶片需求激增的帶動下,相關產品價格也實現顯著上漲,從而獲得豐厚利潤,這也成為公司能夠更慷慨回報員工的重要基礎。SK海力士和美光等全球記憶體巨頭都曾表示,2026年的產能均已提前被預訂,SK海力士業績今年大機率還將保持高速增長的態勢。不過,AI晶片帶來的記憶體短缺或許很難長時間延續,AI行業的戰略重心已從技術迭代轉向商業化探索,對算力的擴張需求未來或將有所放緩。深圳水貝推出投資銅條1月20日消息,深圳水貝有商家試探性推出了投資銅條,純度為999.9,規格有500克和1000克,不過以1000克居多,一根1000克的投資銅條的報價從180元至280元。除了實體商場之外,淘寶等網站上也可以搜到類似產品。同花順資料顯示,2025年現貨銅價震盪上揚,年初報價73830元/噸,年末上漲至99180元/噸,全年上漲34.34%。特別是去年12月,滬銅期貨盤中一度沖高至102660元/噸,刷新歷史新高點。2026年以來,銅價繼續高舉高打。1月14日,倫敦金屬交易所期銅創出每噸13407美元的歷史新高;國內銅期貨也飆升至每噸10萬元以上。(21經濟網)|點評|黃金自古以來就具有貨幣屬性,銅則是典型的工業金屬。銅價近期確實漲幅可觀,但投資銅條更多是一種噱頭,幾乎沒有投資價值。黃金在全球擁有成熟、高度標準化的投資市場和回購體系,而銅的交易通常以噸為單位,市面上按克出售的投資銅條缺乏流動性,在回收時往往只能按廢料處理,折價幅度極大,導致實物銅很難作為一種投資品。近兩年,AI與新能源行業為銅帶來了新的需求增長點。無論是算力中心的快速擴張,還是電網系統的升級改造,都離不開銅的廣泛應用,從而推動銅價持續走強。然而,過高的銅價已開始對市場需求產生抑制效應。隨著供需關係逐步趨向平衡,銅價能否延續此前強勢上漲的態勢仍存在不確定性。雪球封禁多個違規帳號1月20日,投資社區雪球發佈公告稱,為積極響應並貫徹落實2026年中國證監會系統工作會議精神,同時為深入推進國家網信辦會同中國證監會開展的“涉資本市場網上虛假不實資訊專項整治”行動,雪球啟動專項治理工作。依據專項工作要求,平台對違規帳號“杭州新城路”“輪迴666”“福祿娃爺爺”作出永久封禁處置。周一,浙江證監局發佈行政處罰決定書,對雪球大V金永榮操縱證券市場行為作出處罰。金永榮因通過“搶帽子”交易的方式操縱市場,被沒收違法所得4162.39萬元,並處以同等金額的罰款,合計罰沒8324.78萬元。同時,浙江證監局對其採取3年證券市場禁入措施。(財聯社)|點評|隨著A股市場的活躍,社交媒體中的各路“股神”如雨後春筍般冒出,部分大V通過散佈虛假消息、非法薦股等方式,“收割”普通交易者。監管部門協同社交平台,對此現象集中打擊,是保護投資者的具體舉措。雪球大V金永榮就曾預先購入某些股票,再利用自己積累的影響力,在雪球上大肆吹噓相關個股,誘騙粉絲買入抬升股價後高位賣出套利。此類行為已構成嚴重違法違規,受到嚴厲懲處實屬必然。A股行情火爆,吸引了大量投資經驗不足的新股民入市。少量大V自身投資能力有限,刻意以誇張話術包裝炒股策略,其真正目的並非通過市場獲利,而是企圖從粉絲身上謀取利益。周二兩市震盪調整滬指跌0.01%1月20日,三大指數集體收跌,創業板指一度跌超2%。滬深兩市成交額2.78兆,較上一個交易日放量694億。盤面上,全市場超3100隻個股下跌。從類股來看,化工類股逆勢爆發,十餘隻成分股漲停,貴金屬概念延續強勢,房地產類股表現活躍,AI應用端局部走高。下跌方面,算力硬體、商業航天等類股跌幅居前。截至收盤,滬指報4113.65點,跌0.01%,成交額為12215億元;深成指報14155.63點,跌0.97%,成交額為15563億元;創指報3277.98點,跌1.79%,成交額為7093億元。(新浪財經)|點評|周二兩市早盤快速調整,市場承接力度偏強。從類股上看,市場對川普施壓格陵蘭島的擔憂提升,午後黃金價格一度沖高,貴金屬類股跟漲。三部門延續住房退稅政策等多項房地產支援政策近期密集出台,房地產類股全天領漲。擴內需政策陸續推出,市場對內需修復的預期走強,消費類股早盤走高。跌停個股數量減少,但ETF方向的拋壓依舊存在,商業航天和AI應用全面回落,市場整體的投機氣氛逐漸降溫。監管層對市場交易過熱的干預行動仍在繼續,社交媒體中的“黑嘴”遭到集中監管。近期市場內的賺錢效應明顯降低,同時,場內積累的風險也得到了初步釋放。 (吳曉波頻道)
Fortune雜誌─蘋果Google聯手:一場奇襲
上周,蘋果與Google意外宣佈達成一項人工智慧合作協議,迅速在科技行業掀起軒然大波,並推動Google市值一度突破4兆美元大關。根據協議,蘋果將把Google的AI技術整合到自家的移動作業系統中,包括用於升級Siri語音助手。Google首席執行長桑達爾·皮查伊與蘋果首席執行長蒂姆·庫克。近日,兩家公司宣佈達成一項重大合作協議,蘋果智能相關功能包括新版Siri語言助手將採用Google的Gemini大模型及相關AI技術。圖片來源:Anna Moneymaker—Getty ImagesGoogle重獲AI領先地位自2022年11月OpenAI推出ChatGPT後的近兩年間,Google在AI領域的表現曾備受質疑。在追趕OpenAI的ChatGPT和Anthropic的Claude過程中,這家搜尋巨頭似乎步履維艱。Google的聊天機器人Bard及後續Gemini模型曾在公開場合出現事實錯誤,比如推薦在比薩上塗膠水、生成“黑人納粹”這種有歷史錯誤的圖像。然而,Google最新的Gemini 3大模型已成為市面上最先進的模型之一,獲得了使用者和企業的廣泛認可。Google雲服務也吸引了大批客戶,這與它自研的TPU晶片有一定關係。在運行AI模型時,TPU相比輝達的GPU具備成本與速度上的雙重優勢。蘋果在聲明中稱,經過“審慎考量”,認定Google的AI技術為其基礎模型“提供了最強大的支援”。這對Gemini而言無疑是重要背書,而此前蘋果一直首選OpenAI作為“蘋果智能”的技術供應商。美銀分析師認為,此次合作鞏固了“Gemini作為移動裝置端領先大語言模型的地位”,並有助於增強投資者對Google搜尋業務穩定性及長期盈利能力的信心。AI智能體初創公司創始人、劍橋大學賈奇商學院戰略與政策講師哈姆扎·穆達西爾指出,蘋果的選擇可能不僅基於技術能力的考量。由於蘋果禁止合作夥伴使用其使用者資料訓練模型,穆達西推測,蘋果可能認為,Google所能夠提供資料隱私和智慧財產權方面的保障是OpenAI和Anthropic難以企及的。合作也將為Google帶來直接的營收增長。儘管相關財務細節尚未披露,但據彭博社早前報導,蘋果可能每年會向Google支付約10億美元的技術使用費。不過對Google來說,這項合作更大的意義在於擠進了蘋果的管道。蘋果在全球擁有大約 15億iPhone使用者。通過為新版Siri提供支援,蘋果使用者未來通過Siri進行網購或消費,Google都有望從中獲得一定的分成。長遠看,Gemini聊天應用未來甚至可能預裝到新款iPhone中。對蘋果而言,此次合作有利有弊蘋果首席執行長蒂姆·庫克。圖片來源:David Paul Morris/Bloomberg via Getty Images有利的一面是,蘋果能夠向使用者提供功能更強大的Siri語音助手等功能,成本較低,而且保障了使用者的隱私。韋德布什證券公司分析師丹·艾夫斯表示,該合作為蘋果“加速推進2026年及以後的AI戰略奠定了堅實的基礎”。然而,蘋果仍需依賴外部合作夥伴提供核心AI功能暴露出其短板。擅長垂直整合的蘋果,在自研大語言模型方面卻仍面臨重重困難。生成式AI時代開啟以來,這個難題始終困擾著蘋果。2025年,多項“蘋果智能”功能推遲上線,新版Siri發佈也一再延期。這些延誤不僅損害了蘋果作為科技領軍者的聲譽,也引發了使用者的不滿。甚至有使用者因為iPhone 16廣告中宣傳的AI功能未能如期上線,而對蘋果提起了集體訴訟。蘋果CEO蒂姆·庫克曾承諾2026年推出升級版Siri,外界普遍預期會搭載蘋果自研大模型。但顯然蘋果自有模型尚未準備就緒,最終轉向了Google的技術。未來科技集團的分析師丹尼爾·紐曼指出,長期以來,憑藉龐大的使用者基數和銷售網路,蘋果在追逐AI等新趨勢時可以更從容,但2026年對蘋果來說是“成敗攸關的一年”。日前,庫克已經對公司的管理層進行了人事調整,任命一位曾參與GoogleGemini項目的高管負責AI業務。如果蘋果智能的延期發佈確實與隱私與安全有關,那麼使用者的等待或許是值得的。理想情況下,蘋果希望打造一個既能媲美頂尖模型,又能完全在iPhone上本地運行,而不需要將使用者資料上傳到雲端。穆達西爾認為,蘋果可能正攻克模型功耗與散熱等技術難題。與Google合作,既可以為蘋果爭取時間,在模型壓縮與架構設計方面實現突破,又能夠在一定程度上緩解來自華爾街的壓力。部分支援蘋果的人指出,蘋果從來不是新技術的先行者,例如世界上第一款MP3播放器、智慧型手機、無線耳機、智能手錶,都不是蘋果發明的,這家科技巨頭卻總能憑藉設計創新和行銷策略而後來居上。蘋果也有從合作夥伴學習關鍵技術而後自研的傳統,如晶片。而在搜尋領域,蘋果Safari瀏覽器長期整合Google搜尋,並未自研,也沒有影響其發展。未來蘋果在AI領域是否會複製這樣的模式,尚待觀察。對OpenAI無疑構成利空OpenAI首席執行長山姆·奧爾特曼。圖片來源:Florian Gaertner/Photothek via Getty Images蘋果與Google的合作並非排他性協議,意味著蘋果可能仍然會在部分“蘋果智能”功能中採用OpenAI的模型,但蘋果選擇與Google合作,對OpenAI來說無疑是一記重擊。這強化了一種觀點:Google不僅追上了OpenAI,更在模型能力上實現反超。一旦失去蘋果生態,OpenAI將難以實現使用者群的進一步增長。目前,OpenAI聲稱它的周活躍使用者超過8億人,但近期資料顯示增長可能放緩。OpenAI首席執行長山姆·奧爾特曼曾稱,許多人已經將ChatGPT視為AI的代名詞。但是在蘋果使用者通過Siri體驗過Gemini模型的出色性能之後,這種認知可能會發生改變。奧爾特曼上月對媒體表示,他認為蘋果是OpenAI的長期主要競爭對手。OpenAI正聯合蘋果前首席設計師喬尼·艾夫研發新型AI裝置,旨在挑戰智慧型手機作為AI助手主要載體的地位,這款裝置有望在今年亮相。以前,只要蘋果還依賴ChatGPT為Siri提供技術支援,OpenAI就能清晰瞭解競爭對手的能力。但今後,OpenAI恐怕很難再深入瞭解蘋果AI的進展,從而難以將其新產品定位為“iPhone殺手”。OpenAI希望通過這款新裝置,將使用者牢牢鎖定在自己的系統中,這種做法有些類似於蘋果硬體+iOS的閉環生態,能夠有效防止使用者流向功能相近的競品。另外,OpenAI還要繼續推進技術突破,從而具備超越Google的決定性優勢,並長期保持。唯有如此,OpenAI才有可能促使蘋果未來重新加大對它的技術依賴。又或者,彎道超車的OpenAI,或許真的有可能憑藉一款跨時代的AI硬體,終結對蘋果裝置和管道的依賴。(財富中文網)編者語曾被質疑落後的Google,憑藉TPU晶片、Gemini模型和雲生態的綜合優勢,贏得了最挑剔的客戶蘋果的認可,標誌著AI競賽已從模型能力的單點比拚,升級為“晶片—模型—雲—生態”的全鏈條對抗。選擇GoogleGemini驅動Siri,而非堅守“全端自研”,證明在AI時代,頂尖的技術實力與擁有龐大使用者的硬體生態結合,才能形成更強的競爭力。對於建構生態圍牆的中國手機廠商與AI公司,開放合作也是一個打開市場空間的可選項。 (財富FORTUNE)
僅用一周時間,Google就讓OpenAI認清現實
究竟是什麼樣的更新,才能讓GoogleCEO皮查伊稱之為“眾望所歸”(Answering a top request from our users)?那就是GoogleGemini最新的Personal Intelligence功能。它通過使用者Gmail、Google Photos、YouTube和搜尋等應用的資料,讓AI能夠跨資料來源推理,提供個性化回答。真正意義上實現了AI全能管家。幾乎同時,Google還與蘋果達成多年期合作,Gemini 3將成為新版Siri的技術底座。還有通用商務協議的發佈。一系列動作密集而迅猛。資本市場的反應也是立竿見影,Alphabet市值突破4兆美元,19年來首次超越蘋果。這一系列更新背後,是Google全端優勢的體現。從硬體到軟體,得益於Google在AI產業鏈的每個環節都有佈局,而他們也正在用技術堆疊控制越來越多的生態。Google釋放的訊號很明確,不僅要贏,還要贏得更徹底。技術代差可以追趕,資金差距可以彌補,但生態位的差距一旦形成,OpenAI們可能就永遠無法追趕上Google了。01Google和蘋果的合作,是一次世紀握手。1月12日,兩家公司聯合宣佈達成多年期合作協議,Gemini 3將成為下一代蘋果智能(Apple Intelligence)的技術底座。這次合作並非單純的提供基座大模型那麼簡單。文章《“套殼”GoogleGemini,但蘋果還沒死心自研模型》中提到,Gemini作為後台訓練導師與複雜任務處理引擎(負責資訊摘要、跨應用調度等),蘋果自研模型處理本地敏感資料。所有使用者互動與資料流轉通過蘋果私有雲完成,Siri控制權與隱私標準仍由蘋果掌控,核心落地場景為今年晚些時候推出的新版個性化Siri。根據外媒報導,這筆交易預計每年為Google帶來約10億美元的收入,但更重要的價值是資料。Siri每天處理約15億次請求,這些互動資料將進一步強化Gemini的Agent能力。即便不觸碰任何使用者的敏感資料,但是Gemini依然會瞭解使用者的需求和處理結果。因此,當使用者習慣在新版Siri中完成各種任務時,Google就掌控了從使用者意圖到應用執行的完整鏈條。幾乎在同一時間,Google在美國零售聯合會推出通用商務協議(Universal Commerce Protocol,UCP)。這是一個開放原始碼的AI電商標準,可以讓AI代理與商業系統無縫對接。Google與Shopify、Walmart、Target、Wayfair、Etsy等20余家零售和支付巨頭聯手打造這一協議,使使用者可以直接在Gemini應用和AI Mode中完成商品搜尋、比價、下單和支付,無需跳轉到商家網站。這種“原生結帳”體驗徹底改寫了電商的流量邏輯,入口從獨立電商網站轉移到了AI對話介面。在零售端,Gemini還接入了Google Shopping Graph。這是一個包含超過百億商品資訊的知識庫,支援AR虛擬試穿、價格保護、即時庫存查詢等功能。說回Google的Personal Intelligence功能,它與ChatGPT僅能參考過往對話歷史不同,這個功能主打的是可以跨應用推理,分析資料點之間的關係。Google提供的案例顯示,當使用者站在輪胎店排隊卻不知道自己的2019款本田小型貨車需要什麼型號的輪胎時,Gemini可以從Google Photos中識別車輛配置,從Gmail收據中找到車牌詳細資訊,然後建議不同的選項。比如一種適合日常駕駛,另一種適合全天候條件,參考的是在Google Photos中找到的家庭前往俄克拉荷馬州的公路旅行記錄。使用者可以單獨控制每個資料來源的存取權,在隱私保護和功能體驗之間取得平衡。Google強調,Gemini不會直接在Gmail收件箱或Google Photos庫上進行訓練,而是僅使用“有限資訊,如Gemini中的特定提示和模型的響應”來改進這一能力,且會採取措施過濾或模糊對話中的個人資料。目前該功能已向AI Pro和Ultra訂閱使用者開放測試。02AI產業正在進入一個被稱之為“inference economics”(推理經濟學)的時代。在這個時代,競爭優勢不再由訓練模型的參數量定義,而是由“以最低成本提供有用資訊”的能力決定。而Google在這方面的佈局堪稱教科書等級。Google使用自研的TPU晶片訓練模型,它的優勢主要集中體現在在推理環節上。這是因為GPU每做一次運算,都要頻繁地從快取或記憶體(HBM)中讀寫資料。這種“存取-計算-存取”的循環在推理時會消耗大量頻寬和電力。TPU讓資料在處理單元之間直接傳遞。一旦權重載入進陣列,資料流進去就能連續完成成千上萬次乘加操作,無需中間寫回記憶體。不僅如此,為了兼顧圖形渲染、科學計算等任務,GPU擁有複雜的調度邏輯、分支預測和指令快取。這些在純粹的推理運算中屬於“無效載荷”,但又必須耗費計算資源。TPU剝離了所有非AI相關的電路。在推理時,由於模型結構是固定的,TPU能以極高效率的批處理(Batching),幾乎沒有時鐘周期被浪費在指令調度上。此外,Google在TPU Pod中使用了自研的OCI(光學電路交換)技術。相比於輝達依賴的電纜和 NVLink 開關,Google的光學互聯能以更低的功耗提供數 Tbps 的跨晶片頻寬。這使得 TPU 在處理超長上下文或超大模型推理時,通訊開銷更小。當Gemini每天處理數十億次查詢時,每次推理那怕只節省幾美分,累積下來就是數億美元的成本優勢。更深層的優勢體現在商業模式上。Google並不追求AI訂閱收入的最大化,Gemini Advanced的定價策略比ChatGPT Plus更便宜,甚至在某些場景下完全免費,比如edu帳號可以全年免費。Google的戰略是“羊毛出在豬身上”,強化生態鎖定、增加使用者停留時間、提升廣告定向精度。根據財報,Google約80%的收入仍然來自廣告。對於Google來說,AI 並不是一個新生意,而是一次“廣告引擎的史詩級大修”。Google將Gemini深度嵌入。用得越多,使用者的資料畫像就越清晰,廣告推送也就越精準。不僅如此,傳統的藍色連結是搜尋引擎讓你盡快離開,點選去別的網站。但是和Gemini對話截然相反,Google需要使用者繼續留在Gemini裡。使用者停留時間越長,展示高價值廣告的機會就越多。Google不靠賣AI賺錢,而是用AI讓現有的廣告生意變得更賺錢。迭代速度的優勢同樣關鍵。從DeepMind的研究idea到TPU的晶片最佳化,再到模型訓練和產品部署,Google可以在一個閉環內完成整個鏈條。而像OpenAI這樣的AI企業,想要更新就需要協調微軟的Azure雲、輝達的晶片供應、第三方的資料合作,決策鏈條冗長,響應速度必然慢半拍。在AI軍備競賽的“以周計算”節奏中,這種速度差異可能決定市場窗口的得失。所以Google才會更新得越來越快,同時他們還在擴大優勢,形成“贏家總贏”的局面。打下推理成本後,通過與蘋果的合作,Google獲得了大量的Siri請求資料,相當於ChatGPT日均25億次提示詞的60%。而通過UCP,Google還將在電商AI入口的爭奪戰中搶得先機。這不是簡單的技術合作,而是對流量分發權的重新定義。資料飛輪是Google最難以複製的護城河。Google擁有Search、YouTube、Gmail、Maps等九個使用者超過10億的產品,每天產生的資料量遠超任何競爭對手。Personal Intelligence功能的推出,讓這些資料首次被深度整合到AI體驗中。使用者每一次與Gemini的互動,都在強化模型對個體偏好的理解,形成正反饋循環。這種“資料→模型→體驗→更多資料”的飛輪效應,是OpenAI等獨立AI公司難以企及的。03視角切換到OpenAI這邊,他們此刻正陷入前所未有的困境。2025年底,就在Gemini 3發佈後不久,OpenAI CEO Sam Altman向全體員工發出了“紅色警報”(code red)。OpenAI公司暫停了所有商業化項目,包括廣告平台、個人助手Pulse、購物代理以及健康AI工具的開發。全員轉向一個目標,那就是追上Gemini 3的水平。奧特曼後來在播客中承認,這種“紅色警報”狀態通常會持續6到8周,但他補充說:“Gemini 3的影響沒有我們擔心的那麼大。”然而市場資料講述了另一個故事。根據Similarweb的分析,ChatGPT在生成式AI市場的份額從2025年1月的87.2%跌至2026年1月的64%,而Gemini在同期從5.7%漲至21%。ChatGPT的網路流量在近幾周下降了22%,從12月初的約2.03億日均訪問量降至1.58億,而Gemini的使用量保持穩定在5500萬至6000萬日均訪問量。此消彼長之間,ChatGPT的統治地位正在被撼動。根據Google財報電話會議,Gemini的月活躍使用者從2025年7月的4.5億增長到10月的6.5億,三個月內增長44%。反觀,Similarweb的資料顯示,ChatGPT同期增長僅為5%-6%。蘋果合作的“降級”更是一記重擊。OpenAI曾是蘋果在AI領域的首選合作夥伴,ChatGPT被整合到蘋果智能中,用於處理複雜查詢。但在Google與蘋果的新協議下,OpenAI的角色被邊緣化了。投資研究公司Equisights Research的CEO Parth Talsania一針見血地指出:“蘋果選擇Gemini作為Siri的底層技術,意味著OpenAI轉變為輔助角色。ChatGPT仍然可用於複雜的、使用者主動選擇的查詢,但不再是默認的智能層。”更深層的跡像在於,Google全端優勢正在放大。OpenAI沒有自己的搜尋引擎、作業系統以及產品矩陣。每一個APP之間除了帳號相通以外,都是獨立運作的。但Google可以將Gemini無縫嵌入Gmail、Docs、YouTube等使用者日常使用的工具中,反之還有Personal Intelligence功能。ChatGPT卻只能要求使用者主動離開現有工作流程,使用者想生成視訊就得從ChatGPT裡退出來打開Sora App。Google很清楚一件事:使用者對AI模型本身並不忠誠。這個行業的殘酷真相是,使用者會毫不猶豫地在ChatGPT、Gemini、Claude之間來回切換,誰的模型在某個任務上表現更好,他們就用誰。資料顯示,越來越多的開發者開始使用LangChain這樣的抽象層,讓應用可以在不同的AI提供商之間無縫切換,而不需要重寫程式碼。這種“多模型策略”正在成為常態,ChatGPT用於寫作,Claude用於任務編排,Gemini用於多模態理解。但使用者對他們的資料、使用習慣、費用預算和工作效率倒是非常忠誠。他們的資料不可能輕易遷移到其他平台,這些習慣也不可能一夜之間改變。所以Google的戰略就是抓住這些真正的忠誠度,通過更大的AI生態讓使用者感受到持續的價值增長,鎖住使用者。當使用者發現在Gmail裡就能直接用Gemini起草郵件,在Google Docs裡就能讓AI幫忙潤色文章,在YouTube裡就能獲得視訊摘要,他們為什麼還要打開一個獨立的ChatGPT標籤頁?這種“無縫體驗”遠比模型更有吸引力。別的模型可能更聰明,但Gemini就在每天使用的工具裡,不需要切換窗口,不需要複製貼上,這就夠了。關鍵的是,Google還在不斷降低使用者使用AI的門檻,用價格戰進一步擴大優勢。免費使用者現在可以在Gemini CLI中使用Gemini 3,以前只有付費使用者才能使用。1月初,新使用者年訂閱Google One的AI Pro半價促銷。這些動作的目標很明確:讓更多使用者進入Google的生態系統,讓他們習慣在Google的產品中使用AI,讓遷移的成本變得越來越高。當技術競賽演變為生態位競爭,先發優勢和資金儲備都不再是決定性因素。Google正在用全端建造一個AI帝國。而對於OpenAI和其他競爭者來說,亮出“紅色警報”並不能解決問題,他們想要追上Google的腳步,只會越來越艱難。 (字母AI)
Google剛掀了模型記憶的桌子,輝達又革了注意力的命
近期,Google的 Nested Learning 引發了一場模型界的記憶地震。很多人重新意識到,大模型不必永遠是「訓練完就封存」的唯讀權重,它也可以在推理過程中繼續變化。在 Nested Learning 裡,當模型讀到新的上下文時,它不只是把文字塞進注意力的快取裡臨時翻找,而是允許自己在推理過程中更改參數,讓新資訊變成它內部記憶的一部分。但就在人們還在消化這個想法時,輝達在2025年12月28日給出了一個更激進的答案,一篇名為《End-to-End Test-Time Training for Long Context》的論文。Google的記憶增強路線,還在努力解決記憶問題,把過去重要的東西保存得更完整。但輝達的研究人員則認為,記憶其實就是學習,「記住」就是「繼續訓練」。就像人不會記得小學時的課文字句,但像《豐碑》這種文章當時給我們的感受,會深深塑造我們之後的價值觀。輝達和史丹佛的研究者們相信,AI也應該這樣工作。01. 用學習,替代注意力式的記憶如果沿著時間線往回翻,你會發現 TTT(test-time training)並不是憑空出現的發明。早在2013年,Mikolov 等人就在語言模型裡嘗試過 dynamic evaluation。當時放的是讓模型解除凍結,在測試文字上繼續用下一詞預測的交叉熵損失 CE(也就是我們最經常理解的大語言模型的參數學習損失目標)做小步梯度更新,讓參數對當前文體、主題、局部統計規律發生適應。Krause 等人在 2018 年把它完善得更系統,更可行。也就是說,在大語言模型的早期,大家已經發現了模型在推理時動參數,即不違背語言建模的基本邏輯,甚至能帶來收益。在分析Nested Learning時候,大家都在討論記憶力的革新。但很少人會注意到它在上下文這個語境下,對注意力層的替代。但TTT-E2E 的出現,更明確的提出這個可能性。過去十年,Transformer 的輝煌建立在很大程度建立在注意力機制上。它把讀過的每一句話都做成索引(KV Cache),每次回答問題都要回過頭去精準翻閱舊書 。這種機制精確,但非常耗費記憶體。因此也有了各種群組注意力、線性注意力的改良方針,試圖壓縮其記憶體佔用,提升模型的上下文長度。而TTT的方案,則是直接放棄通過「內化」(權重更新)知識,來解決上下文處理的問題。無論上下文多長,它的推理狀態大小和計算量都是永遠不變的。因此在TTT家族中,不論上下文如何增長,其Latency(生成延遲)都不會有任何變化。這是TTT帶來的,足以在推理階段替代的注意力的核心能力:無延遲的記住近乎無限的上下文。但dynamic evaluation 那條線一直沒真正變成主流部署範式。這是因為它當時在工程上還很稚嫩,很難被有效地使用。這裡的主要Gap存在於訓練階段和推理階段無法對齊。訓練階段最佳化的是「凍結參數時開箱即用的表現」,卻沒有把「推理時將進行若干步更新」這件事當作模型行為的一部分寫進目標函數。這就導致工程現實中充滿了不穩定性,模型在沒有約束的情況下持續更新,災難性遺忘(學新的忘了舊的)、參數漂移(模型參數分佈變得很怪)、對異常片段的過擬合(會重複說奇怪話)就會變成默認風險。早期方法能緩解的手段主要是「小學習率、少步數、勤重設」,它們能讓系統勉強可用,但也幾乎把 TTT 鎖死在“短暫適應”的尺度上,很難發展成真正的長期記憶。而Nested Learning / Titans所做的,正是把這套邏輯從架構層面上變得可行。通過分開不同更新頻率的層級,讓各層獨自更新這種方式,穩定了參數更新。這也讓TTT從短微調發展成長期內部記憶的方式。因此,我們可以說它帶來了穩定的長程記憶更新方式。不過這是有代價的。輝達在論文裡把Nested Learning、Titans 這一支,歸到 TTT‑KVB 上。因為它們的更新目標其實和傳統TTT有些不同。它們更像是在教模型「怎麼存」,而不是直接教它「怎麼預測」。我們都知道,大語言模型的最終目標是「預測下一個token」,這是原初的學習目的。而Nested Learning的更新目標通常是讓模型從某種壓縮表示(如 key)重構出對應的 value,或者讓隱狀態在層內自洽地演化,這些都是為了建構可快速索引的內部記憶結構。這樣做確實可以間接幫助語言模型完成任務,因為更好的內部關聯記憶可能帶來更好的預測。但它與最終目標之間始終隔著一層距離。而輝達提出的TTT‑E2E 則更像最原初的dynamic evaluation,它的測試時更新目標就是整個網路末端的下一詞預測交叉熵 CE。為了做到只有一個目標,這個方法端到端的,不分層,從頭到尾只更新這一個CE。當損失函數就是最終任務本身時,模型在上下文裡學到的任何東西,都更直接地最佳化了後續預測。與模型的最終目標完全對齊。為了把這個差別說明白,他們在論文裡設計了一個「玩具模型」,在Transformer中移除了所有的自注意力層,只留下多層感知機(MLP)。這基本上把模型降級成了一個只能記住前一個詞的「二元語法模型」(bigram),在這種設定下,任何長程記憶能力都不可能來自注意力或快取,只能來自「你在測試時更新權重,把上下文壓進參數」這件事本身。然後在測試時,他們讓模型在讀到 x1 ,x2 ,x3 ,… 時不斷做練習:用 xt−1 預測 xt ,計算 CE,並對這個損失做一次小步梯度下降。這像是一個只能看清腳下一米的探險者,只能憑剛邁出的那一步來猜下一步。而你需要穿越一個10公里的洞穴(歷遍所有上下文及更改)。每走一步,你會先預測"根據我的方向感,下一步我應該看到岩石還是水坑?"然後走一步,看預測對不對。如果錯了,你就調整身體的姿態和步伐(梯度更新)。在「預測—糾正—調整」的循環裡改變了你的「肌肉記憶」(權重)走到第1000步時,你雖然看不到第1步那裡的巨石,但那塊巨石的資訊已經編碼在你此刻的步態、重心和方向感裡了。它通過999次的「預測-糾正-調整」傳遞下來,融入了你的身體。結果,這個沒有任何注意力快取的模型,靠著「訓練對一下詞的預測」這個目標Loss 曲線(藍色)隨著閱讀長度的增加迅速下降 。它幾乎緊貼著全注意力 Transformer 的曲線(橙色線)。這意味著,它單純靠修改自己的神經網路參數(MLP權重),就完美編碼了上下文資訊,達到了和把所有字都存下來(Full Attention)幾乎一樣的效果。相比之下,TTT‑KVB 的設計初衷是作為一個自注意力層的直接替代品。它的核心思想仍然是「鍵值繫結」(Key-Value Binding)。也就是說,它雖然不用傳統的注意力機制去 儲存 KV Cache,但它試圖用神經網路去學習 Key 和 Value 之間的對應關係。這就像希望把洞穴每塊石頭都畫在地圖上,去隨時呼叫。甚至巨石的紋理這種和走出洞穴無關的資訊也會畫進去。它的訓練效率相對就比較慢。論文在過渡實驗結果中證明了這一點。研究人員把 TTT‑KVB 的層內鍵值繫結這個目標取代為預測端到端的 next-token 目標後,語言建模的評估 loss 明顯下降。從實驗資料看,這個改變確實帶來了實質性的提升。在760M參數的模型上,TTT-KVB在8K上下文的loss為2.818,而將其簡化版本改用next-token prediction損失後(TTT-E2E all layers MH),loss降至2.806。這提升的0.012,在語言模型評估中其實是顯著的差距。這說明了,經過端到端的改造,模型對於預測下一個token這件事確實更確信,更擅長了。而且長上下文能力真的可以純靠測試時學習獲得,而不必依賴注意力快取。在這個邏輯下,記憶不再被設計成一套儲存結構,而被重新定義為一次持續發生的學習過程。記憶的價值不在於把過去保存得多完整,而在於它能否改變你下一步的判斷。但是,過去的dynamic evaluation的問題就在於沒有穩定的工程模式,既然要用一樣的思路,TTT‑E2E怎麼克服這些問題呢?這正是輝達接下來要做的第二件事:用元學習與一整套工程護欄把這種端到端的測試時學習做成穩定、可擴展的上下文記憶系統。02. 元學習的迴響,和工程的穩定元學習,這個概念和實踐實際上也出現的很早。其中有一支顯性元學習的想法一直到去年發佈的Deepmind DiscoRL 都被繼承著。這就是2017 年Finn 的 MAML體系。它是由內外兩個循環巢狀而成,內循環負責適應學習(梯度下降),外循環負責把適應學習變得更有效(學習梯度的梯度)。這樣,外面那層循環更像是對內循環步驟的反思,通過它,就可以學會如何高效的學習。TTT‑E2E所做的,正是利用這一套元學習的體系,幫助它去穩定端到端的資料。輝達的研究人員認為,過去dynamic evaluation的問題,主要在「訓練-測試不匹配」上。如果只用傳統方式訓練一個凍結的語言模型,然後在測試時突然要求它邊讀邊更新參數,那整體肯定穩定不了,災難性的漂移、遺忘都是常事。因此,訓練階段就要把測試階段的學習流程包含進去,讓模型在出廠時就習慣在推理時繼續學。這就是元學習入場的時候。它要在訓練時幫助模型學會怎樣更新自己,才能更會回答接下來的問題。具體的操作,就是利用元學習,讓模型自己找到最適合推理時更新的初始參數W0。把它寫成更直觀的過程,就是兩段循環套在一起。內循環:就是模型讀到一段上下文時,給出下一個詞的猜測。然後立刻對照實際上出現的下一個詞,去更新自己的參數。這和傳統的下一個token 預測模型的訓練一致。外循環:是在訓練階段給內循環反覆模擬「上崗狀態」。它給內循環的模型很多段文字,讓它按同樣的復盤方式做幾次小校正,然後檢查校正之後,內循環後面的預測是不是確實更準、更穩。只有當內循環的參數更新真的帶來收益時,外循環才獎勵它,如果這種更新方式會造成漂移或遺忘,外循環就懲罰它。久而久之,模型學到了一種更合適的出廠狀態。帶著這些初始參數去上崗,內循環的小校正(梯度更新)就不容易把自己改壞。外循環的教師,在這裡學到的是在測試時更新中,那些方向的梯度更新是穩定的(防止梯度爆炸),那些更新能在不破壞通用能力的前提下快速吸收上下文規律(防止災難性遺忘),那些初始化讓同樣的學習率、同樣的步數能產生更可靠的收益(提升訓練效率)。再把這些都融合到模型初始的參數里。一個元學習,直接讓模型自己解決核心的工程困境,使得端到端的模式變為了可能。但這僅僅是可能,並不是達到了穩定。為了進一步確保工程上的可能性,TTT‑E2E還是在工程中做了多重折中的安全閥。第一個安全閥是 mini‑batch 化和滑動窗口注意力。理論上講,在測試時每讀一個 token 就更新一次參數,是最細粒度、最完美的線上學習,但它可成本太高了。但每次給他的的token batch太大,模型又根本沒有短期記憶,那麼它在更新之前對一個batch裡吼main的 token 就根本記不住,梯度也會越來越錯。所以,TTT‑E2E一方面把batch的大小做到相對較小。而且還保留滑動窗口注意力作為短期記憶的方法。窗口注意力像手電筒,保證你在一個更新塊內至少還看得見最近的上下文,從而讓 block 內的預測不至於崩壞。論文明確提出了一個窗口大小和batch大小的規範,即窗口大小 k 最好不小於測試時更新的塊大小 b,否則你會在塊內變回「局部失憶」的模型。第二個安全閥,目標是防止。他們沒有非常激進的把所有層都改成TTT層。而是凍結了 embedding、歸一化和注意力層,只更新 MLP。並且每次不更新整個神經網路,只更新最後 1/4 的 blocks。這樣底層的通用語言能力、注意力的讀寫通道保持不動,TTT只在上層做一種可控的學習模組。為了進一步防止線上更新把預訓練知識沖掉,他們還在可更新的 blocks 裡加了一套靜態的第二 MLP。有一套MLP 負責寫入當下上下文,另一套負責保住出廠能力。這是在結構上給災難性遺忘劃了一片隔離區。參數可以漂移抹去過去的記憶,但只能在一塊被圈起來的可寫區裡漂移。當這些部件拼好時,TTT-E2E終於實現了最早版本TTT未竟的目標,為它帶來了完整的工程化軀體。那麼它的結果如何呢?03. 用Loss證明自己我們看模型訓練效果,最主要的是看模型的loss變化。loss 指的是語言模型在下一詞預測任務上的平均損失,一般就是上面說的交叉熵CE的大小。它越小,說明模型預測越準。而在記憶中,則是看loss在上下文中的變化。如果 loss 在更長上下文裡持續下降,說明模型確實把更早的資訊用起來了,預測的更好了。反之,如果上下文變長但 loss 不降反升,說明資訊雖然記住了,但沒用,屬於學而不思則惘了。在這一項上,TTT‑E2E的優勢非常明顯。當上下文一路加到 64K、128K時,其他類型的架構,比如Mamba 2、Gated DeltaNet 這些線性時間模型就開始掉隊了,甚至連 TTT‑KVB,在更長上下文裡也沒能把曲線拉回來。只有 TTT‑E2E 的線幾乎像釘住了一樣,從 8K 到 128K 沒有出現優勢稀釋的跡象。這說明別人是上下文越長越難學到,而TTT‑E2E 則是越跑越會用上下文。而且,它也延續了學習參數最大的優勢,就是成本壓縮。如果用全注意力,上下文越長,prefill 的延遲就會一路飆升,因為它每生成一步都要掃描更長的歷史。相反,SWA、RNN/SSM、TTT‑KVB、TTT‑E2E 的延遲幾乎是平的。它是靠學進去,而不是一直看著舊上下文去處理新的上下文的。在 H100 上,128K prefill 時,TTT‑E2E 大約比 full attention 快 2.7×。另一項,則是看Loss的收斂速度,Loss收斂的越快,說明模型越高效的在學習。在 32K 和 128K 兩種長度下,TTT‑E2E 是唯一一種在整個上下文範圍裡都能壓過 full attention 的方法,而且它的總體優勢有很大一部分來自序列更早的位置。這正是「學習而非儲存」發揮特長的地方。模型不是等到最後才靠記憶取回某個細節,而是從一開始就讓每一段上下文都在把模型推向更適合下一段預測的參數區域。它是在背書,更是在邊讀邊形成更適合這本書的閱讀習慣。當然,這種方法並非面面俱到。TTT‑E2E 在海底尋針這種需要精確檢索的測試上仍然被full attention碾壓,包括 TTT‑E2E在內的線性路線一直在長上下文檢索上表現並不好。這並不矛盾,當記憶被定義為「學習帶來的預測收益」時,它就更像壓縮和概括,而不是逐字存檔。對寫作連貫性、長文理解、風格約束這種任務,這種壓縮很划算。用學習壓縮換取長上下文的可擴展性,讓模型在 128K 這樣的尺度上既跑得動,跑得省,又確實變得更會預測。這就是TTT的核心意義之一。另外一個可能制約這種架構落地的因素,是訓練成本。即使有了各種最佳化,TTT-E2E的訓練延遲仍然比標準Transformer高出50-100%。這在學術研究的規模上可以接受,但當擴展到工業級的數兆token訓練時,這個額外成本就有點略高了。04. 回歸原初的學習,可能才更符合持續學習的期待Nested Learning 這場革命的意義,是再一次把「推理時更新」從過去的沉寂中帶入了當下的討論的範疇,讓持續學習找到了新發力點。TTT-E2E 的意義,不只是又一個長上下文方案,而是重新定義了記憶這件事。記憶不是把過去搬進現在,而是讓過去改變未來。在注意力機制因二次方成本而逼近物理極限的今天,這種'把資訊學進參數'的路線,可能是唯一能讓模型真正從百萬 token 上下文裡持續成長的工程答案。在一個上下文窗口越來越長、資訊越來越多、但人們越來越不願意為傳統注意力二次方成本買單的時代,這種把記憶當作學習、把學習當作壓縮的路線,可能會在相當長一段時間裡成為持續學習最現實的工程答案之一。它不一定無所不能,但它比當下的任何記憶方案都更接近我們對智能的本質期待:「不是記住一切,而是能從一切中學會變聰明」。 (騰訊科技)