#算法
Google公開全新極限壓縮演算法:LLM提速8倍、記憶體佔用狂降6倍,精度零損失
Google帶來了一套有深厚理論基礎的全新量化演算法。這套演算法的出現,直接瞄準了當前AI領域的兩大痛點:大模型極其吃記憶體的鍵值快取(KV Cache),以及高維向量搜尋的算力瓶頸。直接把大模型推理中最燒錢的那塊記憶體砍掉六分之五,同時推理速度提升最高8倍,精度還沒有任何下降。說人話就是如果這個演算法真的有效,記憶體價格將有望大幅降低,也不要那麼多的GPU來訓練大模型了,當然根據傑文斯悖論,記憶體和GPU可能又會迎來一波更大的需求。這組演算法叫 TurboQuant,將在 ICLR 2026 正式發表。(實際上論文的預印本2025年就發了)記憶體瓶頸卡在那裡要理解 TurboQuant 解決的問題,先得搞清楚大模型推理時最貴的東西是什麼。大模型處理資訊的方式,本質上是把一切轉化成向量——一串數字。維度越高,向量能承載的資訊越複雜,也越精確。但高維向量極其耗記憶體。推理過程中有一個叫 KV Cache(鍵值快取)的機制,相當於模型的臨時記事本,把之前算過的結果存起來,避免重複計算。模型上下文越長,這個記事本佔的空間越大,記憶體很快就被撐滿了。解決思路自然是壓縮向量。但傳統的向量量化方法有一個隱藏成本:壓縮時需要存一批次化常數,這些常數本身又要佔掉1到2個位元,部分抵消了壓縮的效果。TurboQuant 就是衝著這個隱藏成本來的。TurboQuant 分兩步走第一步是 PolarQuant——處理主體壓縮。傳統量化用的是直角坐標系,相當於告訴你往東走3步、往北走4步。PolarQuant 改用極坐標,變成沿某個角度走5步。這樣一來,向量被拆成兩個量:半徑(代表資料的強度)和角度(代表資料的方向/含義)。極坐標有一個好處:角度的分佈規律是已知的、高度集中的,像一個固定的圓形網格,而不是邊界隨時在變的方形網格。不需要再額外算一遍資料歸一化,量化常數這個記憶體開銷就被徹底消掉了。第二步是 QJL——用1個位元處理殘餘誤差。第一步壓縮之後,還會留下一點點誤差。QJL 用 Johnson-Lindenstrauss 變換處理這個殘差:把每個數壓縮成一個符號位,+1 或 -1,記憶體開銷為零。關鍵是 QJL 用了一個特殊的估計量,把高精度的 query 和低精度的壓縮資料組合起來,使得最終計算注意力分數時誤差不會累積偏移。兩步合在一起,TurboQuant 用大部分位元做高品質的主體壓縮,再用1個位元做誤差修正,整體實現了零額外開銷。實驗資料Google在多個標準長上下文基準上做了測評,包括 LongBench、Needle In A Haystack、ZeroSCROLLS、RULER 和 L-Eval,使用 Gemma 和 Mistral 兩個開源模型。主要結論:TurboQuant 把 KV Cache 壓縮到 3 位元,不需要任何訓練或微調,模型精度沒有任何下降。在長上下文針尖大海撈針任務中,壓縮比達到至少6倍,結果依然滿分。在速度上,4位元的 TurboQuant 在 H100 GPU 上計算注意力 logits 的速度是原始32位元未量化版本的8倍。在向量檢索任務上,TurboQuant 在 GloVe 資料集上的1@k召回率超過了 PQ 和 RabbiQ 等當前最優方法,而後者還用了更大的碼本和針對資料集的專項調優。意義在那裡這套極限壓縮技術的出現,不僅直接解決了Gemini等大模型的鍵值快取瓶頸,更將深刻改變現代搜尋的格局。如今的搜尋引擎正在從關鍵詞匹配進化為理解意圖和含義,這離不開在數十億級向量庫中尋找最相似內容的向量搜尋技術。借助TurboQuant,以最小的記憶體、幾乎為零的預處理時間建構和查詢超大型向量索引成為可能,且精度達到當前最高水平。隨著AI技術全面融入各類產品,這類基礎級的向量量化突破將爆發出前所未有的威力。Google研究人員強調,這三個演算法不只是工程最佳化,背後有完整的理論證明,性能接近理論下界,因此在大規模系統中具有可信賴的魯棒性。TurboQuant、QJL 和 PolarQuant 的論文將分別在 ICLR 2026 和 AISTATS 2026 正式亮相。 (AI寒武紀)
Google 發了個壓縮演算法,記憶體砍 6 倍,速度快 8 倍,精度零損失
Google Research 昨天發了篇部落格,介紹了一個叫 TurboQuant 的壓縮演算法,將在下個月的 ICLR 2026 上正式發表。一句話概括:把大模型的 KV Cache 壓縮到 3 bit,記憶體佔用降 6 倍,推理速度快 8 倍,精度損失為零。零。不是「接近零」,不是「可忽略」,是在所有基準測試上跑出了和未壓縮版本一模一樣的分數。這,就值得好好說說了。先說 KV Cache大模型在生成回答時,有個東西叫 KV Cache,也就是 Key-Value 快取。你可以把它理解成模型的「草稿紙」,每生成一個 token,它都要回頭看看之前寫了什麼,而 KV Cache 就是儲存這些「之前寫了什麼」的地方。問題在於……這張草稿紙會越來越大。KV Cache 越聊越胖對話越長,草稿紙越厚。上下文窗口從 8K 到 128K 再到百萬級,KV Cache 的記憶體佔用也跟著線性膨脹。到了一定程度,GPU 的視訊記憶體就不夠用了,要麼縮短上下文,要麼加更多顯示卡。這就是為什麼之前對於 1M token 的上下文模型,比如說 Claude 的模型,它會在超過一定窗口之後,要收取更高價格。因為費卡啊!所以 KV Cache 壓縮,一直是業界的剛需。老辦法的尷尬傳統的做法是向量量化,把 32 位的浮點數壓成更少的位數。聽起來很直接對吧?但這裡有個尷尬的地方:量化本身需要儲存一些「校準常數」,這些常數得用全精度保存,每個數字額外佔 1 到 2 bit。打個比方,你好不容易把行李箱裡的衣服用真空袋抽成了紙片,正準備拉上拉鏈,結果發現每個真空袋上還得貼一張 A4 大小的操作說明。十件衣服十張說明,箱子又鼓起來了。壓縮的悖論壓縮帶來的好處,被壓縮本身的開銷吃掉了一部分。TurboQuant 要解決的,就是這個問題。極坐標的妙用TurboQuant 其實是兩個演算法的組合:PolarQuant 和 QJL。先說 PolarQuant。PolarQuant 坐標轉換示意傳統量化在笛卡爾坐標系下工作,也就是我們熟悉的 X、Y、Z 軸。PolarQuant 做了一件事:把向量從笛卡爾坐標系轉換到極坐標系。這是什麼意思呢?想像你在一張方格紙上標記一個點的位置。笛卡爾坐標系的做法是:向右走 3 格,向上走 4 格。極坐標的做法則是:朝 53 度方向,走 5 步。方格紙到羅盤的轉換描述同一個點,但極坐標的表示方式有個天然優勢:角度的分佈是可預測的、集中的。這意味著,你不需要額外儲存那些佔空間的校準常數了。方格紙換成了羅盤,清單就不需要了。這一步,PolarQuant 負責主要的壓縮工作,把資料壓到很小的體積,同時保留了關鍵資訊。1 bit 掃尾但光靠 PolarQuant 還不夠……壓縮之後總會有殘餘誤差。這時候 QJL 登場了,全稱 Quantized Johnson-Lindenstrauss。QJL 的思路相當大膽:它用 Johnson-Lindenstrauss 變換來處理殘餘誤差向量,然後把每個值壓縮到……1 個 bit。對,就是正或負,+1 或 -1,沒有中間地帶。聽起來粗暴得離譜對吧?但妙的地方在於,QJL 在計算 attention 分數時,用的是未壓縮的高精度 query 向量和壓縮後的 key 向量配合工作。高精度的那一側「兜住了」低精度那一側的誤差。額外記憶體開銷:零。PolarQuant 做主力壓縮,QJL 做 1-bit 掃尾,兩者合在一起就是 TurboQuant。最終實現了 3-bit 的 KV Cache 壓縮,而且不需要重新訓練模型,不需要微調,不需要針對特定資料集做校準。拿來就能用。TurboQuant 兩步壓縮流程跑分全滿:::來看效果。Google 的團隊在五個長上下文基準測試上做了驗證:LongBench、Needle In A Haystack(大海撈針)、ZeroSCROLLS、RULER、L-Eval,用的模型是開放原始碼的 Gemma 和 Mistral。結果是:所有基準測試上,壓縮後的模型和未壓縮版本得分完全一致。TurboQuant 成績單在 NVIDIA H100 GPU 上,4-bit 的 TurboQuant 在計算 attention logits 時比 32-bit 未量化的 key 快了 8 倍。而在向量搜尋任務上,TurboQuant 也打敗了現有最好的方法(Product Quantization 和 RabbiQ),在 GloVe 資料集上的召回率更高,同時記憶體佔用更少。換句話說,壓得更小,跑得更快,還找得更準。不只是論文:::通常一篇論文發完,大家看看就過去了。但 TurboQuant 的情況,有些不一樣。論文放出來沒幾天,社區就已經有人用 PyTorch、MLX(Apple Silicon)和 C/CUDA(給 llama.cpp 用的)分別做出了可運行的實現,而且核心指標都得到了驗證。可以說,演算法本身夠簡潔,不依賴複雜的訓練流程,獨立開發者幾天就能復現。團隊陣容方面,除了 Google 的 Amir Zandieh 和 Vahab Mirrokni(Google Fellow),還有來自 KAIST 和 NYU 的研究者參與,三篇相關論文分別發在 ICLR 2026、AAAI 2025 和 AISTATS 2026。未來影響:::TurboQuant 解決的問題,表面上看是「省視訊記憶體、提速度」。但往遠了想,它動的其實是 AI 部署的門檻。現在跑大模型,動輒需要幾塊 H100,一年下來光算力成本就是天文數字。如果 KV Cache 能壓縮 6 倍,同樣的視訊記憶體就能裝下更長的上下文,或者服務更多的並行請求。對雲端來說,這直接就是成本帳。而對本地部署來說,意義可能更大。32GB 視訊記憶體的消費級顯示卡,原本只能勉強跑個 7B 模型的長上下文,壓縮 6 倍之後,想像空間就打開了。更遠一點……手機、邊緣裝置、嵌入式系統,這些地方記憶體寸土寸金,TurboQuant 這類技術可能是 AI 真正進入這些場景的前提條件。有人評論稱:這可能是 2026 年最重要的創新之一。說「最重要」可能有些誇張了。但我想,至少可以說,最性感的 AI 突破,未必來自下一個兆參數的巨無霸模型,而可能來自這種聰明的數學技巧。壓縮、量化、高效計算,這也許才是,讓 AI 真正無處不在的關鍵。 (AGI Hunt)
【以美襲擊伊朗】華裔學者對伊朗的預測為什麼火了:AI泡沫背後的戰爭帳單
最近,一段2024年上傳到YouTube的視訊突然在全球社交媒體上火了起來。視訊裡,加拿大華裔學者江學勤(Jiang Xueqin)冷靜地作出了三個預測:川普會贏下大選、美國會對伊朗開戰、而且美國會輸掉這場戰爭。前兩個已成事實,第三個還懸在那裡,像一個沒人敢碰的深水炸彈,吊著所有關注中東局勢的人的胃口。最近,江學勤在《Breaking Points》節目中系統解釋了他的判斷依據。這個視訊短短兩天已經有500多萬觀看人數。他的分析不光是軍事層面的推演,更多指向了一個更深層、也更令人不安的結構性問題——這場戰爭真正的發動機,其實不在五角大樓的作戰室,而在矽谷的機房和華爾街的交易終端。換句話說,看這場戰爭,不能光盯著導彈的軌跡,還得看清楚錢是怎麼流的。沙漠裡的伺服器:美國科技巨頭正在中東布什麼局?過去幾年,有個現象沒怎麼引起注意——中東那些靠石油發家的國家,正在悄悄變臉。沙烏地阿拉伯、阿聯、卡達,過去的天際線是鑽井塔,現在冒出來的是成片的資料中心。亞馬遜的AWS在阿聯建了中東最大的雲端運算叢集之一,微軟的Azure也在卡達和沙烏地阿拉伯落地,Google雲則瞄準了利雅德。這些項目表面上是商業投資,其實背後是一條正在鋪開的AI產業鏈。為什麼偏偏是中東?說到底,就三個原因:能源便宜、錢多、位置好。這場佈局的規模大得驚人。光2023到2025這幾年,微軟就在阿聯和沙烏地阿拉伯砸了上百億美元建資料中心;亞馬遜在巴林和阿聯的業務也在不停擴張;甲骨文更是和沙烏地阿拉伯政府簽了協議,一起搞雲基礎設施。與此同時,阿聯本土的AI公司G42,正跟幾家美國科技巨頭深度合作,想把阿布扎比搞成全球AI研發的新中心。這些投資不光是商業行為,背後是一盤地緣科技的大棋——誰控制了這個地區的算力,誰就在AI時代的全球版圖上多了一個據點。先說能源。訓練一個大型AI模型,耗電量大到嚇人。一個巨量資料中心的用電量,能頂一座中型城市。而中東有的是便宜的天然氣,發電成本比歐美低得多,在這地方搞資料中心,帳怎麼算都划算。再說資本。沙烏地阿拉伯的主權財富基金PIF、阿布扎比的投資局ADIA、穆巴達拉——這些機構手裡攥著幾兆美元,正拚命往美國科技圈砸錢。有公開資料顯示,光2024到2025年,中東主權基金對美國AI公司和基礎設施的投資就超過了一千億美元。最後是地理位置。中東正好卡在亞、歐、非三洲的交界處,是全球資料傳輸繞不開的樞紐。江學勤在節目裡提了一個細節——阿聯的一個亞馬遜資料中心已經遭到攻擊。這個事很值得琢磨,說明AI基礎設施已經從“旁觀者”變成了戰場上的靶子。石油美元正在換賽道:從油井流進晶片要說清楚美國這一波AI泡沫的錢是從那來的,就得先搞明白一個運轉了快五十年的金融機制——石油美元循環。1974年,美國和沙烏地阿拉伯簽了一份秘密協議:沙烏地阿拉伯賣石油只用美元結算,美國則提供軍事保護。這套安排的厲害之處在於,全球只要有人買石油,就得用美元,而產油國手裡攢下的美元,又通過買美債、投資美國資產的方式流回美國。這個閉環是美元霸權的基石,也是美國能常年借錢不手軟的底氣。沙烏地阿拉伯Neom新城的資料中心(概念圖)但到了2020年代,這個循環裡多了一個新出口——AI。錢是怎麼流過去的?分好幾層。最上面,是沙烏地阿拉伯PIF直接入股美國科技公司和基金,金額動輒百億;中間層,是中東的家族辦公室和二級基金通過矽谷的風投進入早期AI公司;最底層,是石油出口賺來的美元,通過貿易、央行儲備、買美債這些常規管道,不斷給美國的金融市場“補水”。這三層加在一起,就是一條從波斯灣到矽谷的錢道。回頭看看OpenAI那一波波動輒幾百億的估值,輝達兩年翻幾倍的市值,還有科技巨頭們動不動千億等級的AI基建計畫——這些錢從那來?很大一部分,就來自中東。海灣國家的主權財富基金不光直接投資美國的AI公司和晶片企業,還通過買科技股、進私募、投風投,給整個AI生態提供了關鍵的資金支撐。可以說,石油美元正在換跑道,從油井轉向晶片。而美國的AI泡沫,如果這算泡沫的話,正是這條跑道的終點站。換句話說,美國這輪AI繁榮,不光是技術突破堆出來的,也是中東資本持續輸血養出來的。一旦戰爭把這條血管切斷,後果會是系統性的。五萬美元的無人機對上百萬美元的攔截彈從軍事角度,江學勤有一個獨到的觀察:伊朗根本沒打算跟美國正面硬剛,它的打法是用不對稱消耗,拖到美國自己先撐不住。這套帳算得很簡單。伊朗一架自殺式無人機,成本大概五萬美元。美國用來攔它的“愛國者”導彈,一枚就是幾百萬美元。就算打下來了,帳面上也是伊朗贏。而且伊朗為了這一天,準備了二十年。2024年那場所謂的“十二天戰爭”,讓他們摸清了美國和以色列防空體系的套路和軟肋。但比無人機更要命的,是伊朗對海灣基礎設施的打擊能力。江學勤在節目裡點了一個很現實的威脅——伊朗和它的代理人,正在有計畫地瞄準沙烏地阿拉伯、阿聯這些海灣國家的命門,比如石油設施,還有海水淡化廠。他舉了個例子:要是利雅德的淡化水廠被端了,那座上千萬人口的城市,撐不過兩周就會斷水。這可不是紙上談兵,這是幾千萬人活生生的處境。而從資本的角度看,一旦海灣國家的安全出了大問題,外資第一個跑,主權基金也得把錢抽回去搞重建,那流向美國AI的錢,說斷就斷。假如真的打起來,會發生什麼?我們來做個思想實驗。假設明天,波斯灣打起來了。胡塞武裝把曼德海峽一封,伊朗對沙烏地阿拉伯阿美的油井動手,阿聯的資料中心因為安全威脅被迫停擺。然後呢?第一步,能源市場先炸。全球五分之一左右的石油要從荷姆茲海峽走,油價幾天之內就能飆到兩百美元以上。第二步,資本市場跟著崩。海灣主權基金會緊急叫停海外投資,拋美股換現金,華爾街會迎來一場流動性地震。第三步,也是最致命的——AI產業鏈斷了。中東的資料中心關了,資本的管道被切斷,剩下的資料中心因為能源漲價營運成本飆升……美國的AI產業會面臨一場供給和資金兩頭擠的危機。這不是危言聳聽。現在美國AI產業的估值,靠兩個前提撐著:一是資本持續流入,二是算力不停擴張。這兩條都依賴一個穩定的中東。一旦戰爭把這個平衡打碎,泡沫不會慢慢洩氣,而是直接爆掉。輝達的股價、科技巨頭的市值、跟AI掛鉤的債券和衍生品,全得重估。而AI泡沫一旦破了,通過金融系統傳導開,殺傷力可能比2008年的次貸危機還要大。更深的一層,是信心。AI現在估值這麼高,很大程度上靠的是一個故事:人工智慧會改變一切,所以現在砸多少錢都值。這個故事要繼續講下去,就得有源源不斷的錢來撐股價、撐研發、撐擴張。一旦戰爭切斷了一條主輸血線,市場信心的崩塌會比實際損失來得更快。歷史早就演過——2000年網際網路泡沫,2008年次貸危機,都不是因為基本面歸零,而是因為邊際資金撤了,引發恐慌踩踏。AI泡沫要真破,也逃不過這個劇本。既然戰爭後果這麼嚴重,為什麼還會打?江學勤給了三層解釋。第一層是歷史的慣性——“帝國傲慢”。從羅馬到大英,每一個處在權力頂峰的帝國,都容易高估自己,低估對手。美國在阿富汗和伊拉克挨了那麼多教訓,按理說該長記性。但二十年過去,記憶淡了,新一茬決策者正踩著同樣的坑往前走。第二層是利益交換。沙烏地阿拉伯和以色列通過給川普家族——包括他的私募基金和競選活動——輸送了大量資金,換取了美國對伊朗動武的承諾。這種操作把國家級的戰爭決策跟私人的商業利益攪在一起,理性戰略自然讓位給了交易邏輯。第三層最隱秘,也最危險——戰爭本身,可能就是一種政治工具。在美國的憲法框架下,戰爭可以讓總統拿到大量緊急權力,比如限制公民自由、推遲選舉、壓制反對聲音。對一個想鞏固權力的人來說,一場持續的海外衝突,可能是最好用的國內政治工具。結語:演算法背後,是戰火的影子我們現在看到的,是一個前所未有的局面——人工智慧,這項被寄予厚望的技術,它的經濟底盤,竟然如此深地嵌在地緣政治的火藥桶裡。矽谷的工程師在調參,利雅德的王子在簽投資協議,德黑蘭的指揮官在部署無人機,華盛頓的政客在盤算選票和利益——這四件事看似不搭邊,其實早就纏在一起。江學勤的預測會不會全中,誰也說不準。但他點出的那個結構性矛盾是實的:美國的AI繁榮,其實是建在一個很脆的地緣政治平衡上。而那些推著戰爭往前走的力量,正好在拆這個平衡。這就像有人一邊給氣球打氣,一邊拿著針在旁邊比劃——不是會不會爆,而是什麼時候爆。對普通人來說,這意味著什麼呢?意味著你手機裡那個語音助手,你用的搜尋引擎,你每天離不開的那些自動化工具——這些看起來輕飄飄的數字服務,背後連著波斯灣的油輪、沙漠裡的伺服器,還有中東上空的無人機。技術從來不在真空裡,它一直活在權力、資本和戰爭的縫隙裡。我們聊AI的未來,或許也該抬頭看看,那些在頭頂轉的,到底是伺服器的散熱扇,還是戰火的味道。 (科工力量)
DeepMind讓大模型自己寫出多智能體學習新演算法!不靠人類直覺,程式碼級進化直接干翻SOTA
GoogleDeepMind剛剛投下一枚研究炸彈在不完全資訊博弈領域,多智能體強化學習(MARL)的進步,長期以來都高度依賴人類專家手動去煉丹但現在,這個極度依賴人類直覺的瓶頸被打破了。GoogleDeepMind團隊利用AlphaEvolve(基於 Gemini 的編碼代理,用於設計高級演算法),無需手動調整,無需反覆試驗,無需人類直覺,硬生生從原始碼層面進化出了全新的學習演算法,一舉擊敗了現有的最優基線演算法。AlphaEvolve 將演算法原始碼視為基因組:→ LLM 充當變異引擎→ 提出語義上有意義的程式碼變更→ 在真實遊戲基準測試中自動評估適配度→ 保留優勝者,進一步進化在11項遊戲測試中,VAD-CFR演算法有10項超越當前所有頂尖基準模型。SHOR-PSRO求解器完勝納什均衡、AlphaRank及PRD等傳統解法paper:https://arxiv.org/pdf/2602.16928以下是論文中的一些值得探討的點:讓大模型當"基因操作員”傳統的機器學習自動化發現,要麼侷限於超參數最佳化,要麼採用隨機語法的遺傳程式設計。而DeepMind這次使用的方法更加硬核——把演算法的Python原始碼本身當作“基因組”。整個框架由Gemini大模型作為底層支撐,運行流程非常直接:首先初始化一個種群,裡面裝滿標準基線演算法的原始碼(比如標準CFR程式碼或均勻PSRO程式碼)。接著,系統根據適應度選出父代演算法,直接把程式碼喂給大模型,要求它修改程式碼以降低“可剝削性”(Exploitability,衡量策略漏洞的指標)。大模型像一個聰明的基因操作員,對程式碼進行語義等級的變異,重寫邏輯、引入新的控制流或注入新的符號操作,生成候選變體。最後,系統在代理遊戲(如庫恩撲克)中自動評估這些新程式碼,表現好的加入種群,循環往復。通過這種方式,大模型跳出了簡單的參數微調,直接在程式碼邏輯層面發現了人類很難想到的全新機制。團隊將這一框架應用在了兩大主流不完全資訊博弈求解範式上,並取得了驚豔的成果。突破一:發現VAD-CFR演算法,干翻預測CFR+在迭代遺憾最小化領域,團隊開放了累積遺憾和推導當前策略的核心程式碼邏輯讓大模型去進化。作為種群種子的CFR+演算法,經過多代繁衍,最終進化出了一個名為VAD-CFR(波動自適應折扣CFR)的新變體。在面對Discounted CFR、預測CFR+(PCFR+)乃至最新的DPCFR+等一眾頂級基線時,VAD-CFR展現出了極強的統治力,特別是在3人庫恩撲克、3人萊杜克撲克和5張牌的各種遊戲中,其收斂速度和極低的可剝削性遠超對手。大模型到底在程式碼裡寫了什麼神奇邏輯?研究人員分析VAD-CFR的原始碼後,發現了三個極具反直覺的創新機制:波動自適應折扣: 傳統演算法(如DCFR)對歷史遺憾值採用的是固定折扣因子。而VAD-CFR是動態反應的,它會通過指數加權移動平均線即時追蹤瞬時遺憾的“波動率”。當策略處於劇烈動盪期(波動率高)時,演算法會自動加大折扣力度,快速遺忘不穩定的歷史;當學習趨於穩定時,則保留更多歷史進行微調。非對稱瞬時提升: 以前的演算法通常對累積歷史做非對稱處理,而VAD-CFR直接對當前的瞬時更新下手。如果某個動作當前表現很好(瞬時遺憾為正),演算法會直接給它乘上1.1的提升因子,實現對有利偏差的即時利用,完全消除了累積帶來的滯後感。硬熱啟動與遺憾幅度加權: 傳統CFR從第一輪就開始平均策略,而VAD-CFR極其果斷地實施了“硬熱啟動”,在第500輪之前絕對不進行策略平均,只在底層默默更新遺憾。一旦開始平均,它不按線性時間加權,而是按瞬時遺憾的幅度加權。這個機制像一個高級過濾器,徹底阻斷了早期學習噪聲對最終均衡解的污染。突破二:發現SHOR-PSRO,破解種群訓練難題在針對大型博弈的PSRO演算法領域,痛點在於如何平衡探索(擴大遊戲圖)和利用(微調均衡)。標準PSRO通常使用固定的元求解器(比如一直用Nash或一直用Uniform),很難適應訓練中不斷變化的經驗遊戲拓撲結構。大模型針對PSRO的訓練時和評估時元求解器程式碼進行了進化,最終誕生了SHOR-PSRO(平滑混合樂觀遺憾PSRO)。在極其複雜的6面騙子骰子等多智能體動態環境中,面對PRD、AlphaRank等主流元求解器,SHOR-PSRO展現出了卓越的經驗收斂性和極強的演算法魯棒性。拆解SHOR-PSRO的程式碼,核心亮點在於它實現了一個完美的動態時間表:混合融合機制: 在每次求解器內部迭代時,它會將兩種策略線性混合:一部分是保證穩定性的樂觀遺憾匹配(ORM),另一部分是極具侵略性、傾向於高回報模式的平滑最佳純策略(受溫度參數控制的玻爾茲曼分佈)。動態退火時間表: 混合比例不是固定的。在PSRO的迭代過程中,大模型寫出的程式碼會自動讓混合因子從0.3退火到0.05,自動實現了從早期貪婪利用到後期嚴格尋找均衡的平滑過渡。同時,對收益附加的“多樣性獎勵”也會隨時間衰減,確保早期擴充博弈圖,後期精細化收斂。訓練與評估的非對稱性: 大模型極其聰明地為訓練和評估設計了不同的配置。訓練求解器使用動態退火並返回內部迭代的平均策略以確保穩定;而評估求解器則採用固定的極低混合因子,並返回最後一次迭代的策略。這種解耦讓演算法在訓練時安全探索,在評估時又能提供低噪聲、高反應速度的結果。DeepMind的這項研究證明,自動化發現的演算法非對稱性和動態混合時間表,能夠產生人類直覺難以捕捉但極其高效的求解器。未來,博弈論求解器的設計,或許將全面走向人類智慧與AI自動化洞察相融合的新時代 (AI寒武紀)
TikTok美國方案落地
短影片巨頭Tiktok美國業務方案正式落地。1月23日,記者獲悉,TikTok發佈公告:已成立TikTok美國資料安全合資有限責任公司(TikTok USDS Joint Venture LLC)。該合資公司將負責TikTok美國的資料保護、演算法安全、內容稽核及軟體保障。去年12月18日,TikTok CEO周受資曾發出內部信,更新TikTok美國業務進展。內部信稱:字節跳動、TikTok已與三家投資者簽署協議,並將成立新的TikTok美國合資公司。新合資公司名為TikTok美國資料安全合資有限責任公司( TikTok USDS Joint Venture LLC),將負責美國的資料保護、演算法安全、內容稽核和軟體保障。由字節跳動全資控股的、TikTok在美國的其他實體將繼續負責電商、廣告、市場營運等商業活動,以及TikTok產品的全球互聯互通。此前媒體報導,字節跳動會繼續擁有TikTok演算法的智慧財產權,授權新合資公司使用,並向後者收取授權費。23日的公告也意味著TikTok美國方案正式落地,超過2億美國使用者能夠繼續使用TikTok。公告提到,TikTok美國資料安全合資公司中,甲⻣⽂、銀湖資本、MGX各持股15%。其他投資⽅包括海納國際集團關聯企業Vastmere戰略投資有限責任公司、Alpha Wave Partners等多家企業。其中,字節跳動保留19.9%的股份,據瞭解仍為合資公司最大單一股東。合資公司還將由一個七人組成的董事會管理,董事會成員包括TikTok CEO周受資等。值得注意的是,電商、廣告、市場營運等商業活動是TikTok的主要收入來源,仍將由字節跳動全資控股的TikTok美國公司等實體負責。新合資公司負責的資料、內容安全等業務為非營利性質,且營運成本很高。為保障合資公司營運,上述主體間會有商業上合理的收入分享安排。在新投資者的具體身份方面,公開資料顯示,甲骨文公司是美國最大的資料中心營運商之一,此前已經被指定為TikTok美國資料首要託管方,所有美國使用者資料將儲存在本土雲基礎設施中,甲骨文須嚴格遵守美國聯邦風險和授權管理規定(FedRAMP)安全標準。銀湖資本是全球知名的投資公司,主要聚焦技術公司的投資。在中國,銀湖的早期投資項目包括螞蟻集團、商湯科技等;MGX為阿聯阿布扎比加速AI佈局而成立,已經在全球範圍內廣泛投資科技項目,此前阿布扎比在2024年1月頒布法律,成立人工智慧和先進技術委員會(AIATC)。當地時間2024年3月11日,人工智慧和先進技術委員會宣佈成立技術投資公司MGX,推動部署前沿技術。據業內人士向記者表示,從公告顯示公司架構、業務劃分看,TikTok美國方案與蘋果公司在中國的“雲上貴州”營運方式極為相似。公開資訊顯示,2018年起,蘋果公司委託貴州省國資委控股的“雲上貴州”營運中國市場的iCloud服務,iCloud中國使用者資料均儲存於中國境內。但蘋果公司未參股“雲上貴州”的業務主體“雲上艾珀(貴州)技術有限公司”。去年12月25日,商務部新聞發言人何詠前在回答關於TikTok將在美成立合資公司的有關提問時說,中國政府希望企業達成符合中國法律法規、利益平衡的解決方案。何詠前表示,為落實中美兩國元首通話重要共識,此前雙方經貿團隊在相互尊重、平等協商基礎上,就以合作方式妥善解決TikTok等問題達成基本框架共識。希望美方與中方相向而行,切實履行相應承諾,為中國企業在美持續穩定營運提供公平、開放、透明和非歧視的營商環境,推動中美經貿關係穩定、健康、可持續發展。 (華商報)
TikTok守住了演算法“靈魂”,更握緊了“錢袋子”
靴子終於落地了。2026年1月23日,在經歷了長達六年的拉鋸、數輪法庭激辯,以及全美1.7億使用者漫長的等待後,TikTok美國業務的命運拼圖,拼上了最後一塊。TikTok發佈公告稱,已成立TikTok美國資料安全合資有限責任公司(TikTok USDS Joint Venture LLC)。該合資公司將負責TikTok美國的資料保護、演算法安全、內容稽核及軟體保障。據此前媒體報導,字節跳動會繼續擁有TikTok演算法的智慧財產權,並授權該合資公司使用。公告同時提到,TikTok在美國的商業營運實體將負責電商、廣告、市場行銷等商業活動以及TikTok全球產品的互聯互通。據瞭解,該實體仍由字節跳動全資控股。上述公司業務安排,意味著TikTok美國方案正式落地,超過2億美國使用者能夠繼續使用TikTok。相關公司的設立及業務劃分,與此前國內媒體披露的方案一致。沒有外界猜測的“玉石俱焚”,也沒有倉皇離場。簡單的說:超過2億美國使用者保住了他們的APP,而字節跳動保住了它的所有權。這不僅僅是一次百億美金等級的交易,更像是一場教科書式的“絕地求生”。在看似退讓的架構背後,藏著字節跳動極其老辣的三個戰略伏筆。19.9%的股份:不只是面子,更是“釘子”很多人看到新聞的第一反應是:字節跳動失去了控股權?別被表面的數字騙了。在新成立的合資公司中,字節跳動保留了19.9%的股份。這個數字並非隨機設定,而是美國法律允許非美資本在敏感科技實體中持有的最高上限。這意味著,在合規允許的極限範圍內,字節跳動並沒有離場,而是選擇了 “頂格持有”。通過持有這部分股權,字節跳動確保了自己作為“創始股東”的合法地位。只要持有股份,字節跳動就能繼續通過分紅等方式,實質性地分享TikTok在美國市場的商業收益與未來增長。 這種安排,是在現有監管環境下,最大程度保障自身經濟利益的務實選擇。演算法所有權:只租不賣,守住“靈魂”如果說股權是面子,那麼演算法IP(智慧財產權)就是裡子。這也是整場博弈中最關鍵的底線:字節跳動沒有交出程式碼。根據協議,字節跳動依然完整擁有TikTok核心演算法的所有權。新公司將通過“授權許可”的方式,從字節跳動手中租用演算法。而甲骨文等美方投資者負責的是什麼呢?是對演算法在美境內的安全運行環境進行“隔離”和“重新訓練”。打個通俗的比方:字節跳動就像那家擁有獨門秘方的火鍋店。為了在美國開分店,它同意把配好的底料(模型)直接運過去,甚至允許合夥人(甲骨文等)拿著顯微鏡化驗底料安不安全。合夥人可以負責端盤子、搞服務,但這鍋湯到底是怎麼熬出來的?對不起,這是商業機密,恕不外傳。這一安排不僅巧妙規避了技術出口管制的問題,更向世界證明了一件事:TikTok之所以讓全世界著迷,是因為它擁有不可替代的中國技術底座。華爾街眾星捧月:用真金白銀投票看看這次入場的投資者名單,簡直是華爾街與科技圈的“全明星陣容”:甲骨文(Oracle):資料庫巨頭,創始人拉里·埃裡森(Larry Ellison)親自背書;銀湖資本(Silver Lake):全球頂級私募,科技投資的風向標;MGX:來自中東的資本新貴,代表著全球主權財富基金的意志。 甚至連邁克爾·戴爾(Michael Dell)等科技大佬的個人基金也參與其中。為什麼這些“資本巨鱷”們在TikTok面臨巨大政治風險時,依然爭相入局?理由很現實:TikTok太賺錢了,它的流量統治力太強了。這些頂級機構的入場,本質上是在為字節跳動的技術實力背書。他們是在搶一張通往未來的船票。營運權分治:讓該賺錢的繼續賺錢很多人擔心,分家之後TikTok是不是就跟字節跳動沒關係了?恰恰相反。根據TiKTok公告和首席執行長周受資(Shou Chew)此前發佈的內部信,雖然資料安全、合規稽核交給了新的合資公司,但TikTok最核心的“商業變現”業務——全球電商(TikTok Shop)、廣告系統以及市場行銷,依然將與字節跳動的全球體系保持高度協同。這意味著:中國賣家的機會沒丟: TikTok Shop的底層邏輯依然穩固,跨境出海的大門依然敞開;全球化協同沒斷: 美國業務雖然在法律上獨立,但在產品體驗和商業生態上,依然是TikTok全球大拼圖中的關鍵一環。字節跳動通過這種“資料隔離、商業互通”的模式,最大限度地保護了其全球業務的完整性。寫在最後回望過去六年,從川普第一任期的封禁令,到拜登時代的聽證會,TikTok幾乎把一個中國出海企業能踩的雷都踩了一遍。今天這個方案,或許帶有妥協的痕跡,但絕對是當下的最優解。它保住了1.7億美國使用者的創作樂園,保住了數百萬創作者的生計,更重要的是,它證明了一件事:真正硬核的技術,是有能力跨越山海、甚至跨越政治偏見的。這不叫倖存,這叫重生。 (網易科技)
在演算法之上,奔馳在尋找AI之心
我們正處於一個 AI 極度分裂的時代。一方面,Suno 和 Sora 這樣的產品正在不斷刷新我們的認知上限。在演示視訊裡,AI 能生成足以亂真的音樂和電影級畫面,Suno 甚至被稱為能「席捲全球」。但在另一方面,當我們把目光轉向自動駕駛、金融投顧這些真正需要「幹活」的領域時,AI 的表現卻往往讓人甚至不敢鬆開方向盤。為什麼 Demo 裡的 AI 如此完美,一進現實就顯得「智障」?01Agent元年,Demo 的幻覺與落地的「恐怖谷」在12月18日的 Contech大會的AI落地分論壇上,主持人趙昊就曾提出過這個問題。對此,財經博主小Lin提出了一個非常精準的概念,叫 「Paper Return」(紙面收益)。這就好比投資,模型跑分再漂亮、Demo 演示再驚豔,那都只是紙面上的富貴。一旦真金白銀投下去,進入複雜的物理世界,市場壓根不會按你的假設走。這背後的核心矛盾,在於不確定性與確定性的博弈。目前的生成式 AI,本質上是基於機率預測下一個 Token 的「隨機鸚鵡」。在寫詩、畫圖、做視訊這些「容錯率極高」的創意領域,AI 的隨機性是驚喜,是靈感。但在自動駕駛、醫療診斷這些「零容錯」的現實場景中,隨機性就是災難。更棘手的是責任歸屬。當 AI 從輔助角色的 Copilot 變成主導決策的 Pilot,誰來為它的決策負責? 這是一個繞不開的社會契約問題。如果 AI 是一個不可解釋的黑盒,它做對了你不敢信,因為它可能是蒙的;它做錯了你沒法改,因為它沒法告訴你為什麼。所以,Agent(智能體)遲遲無法大規模落地的根本原因,可能不是我們的算力還不夠大,或者參數還不夠多。而是我們一直試圖用「資料鏈(Data Chain)」去解決本該由「因果鏈(Causal Chain)」和「價值鏈(Value Chain)」解決的問題。正如北京通用人工智慧研究院(BIGAI)朱松純教授所言,我們需要「為機器立心」。只有當 AI 擁有了「心」,也就是具備了可解釋的認知架構和價值體系,它才能走出「達特茅斯陰影」,真正獲得人類的信任。為了講清楚這個極其抽象的技術哲學,我們不妨先看一個最硬核的工程樣本:奔馳的自動駕駛。奔馳在2021年就拿到了德國政府批准的L3級商用自動駕駛系統,在24年就加入了L4的測試大軍。這家近140年的車企,是如何用奔馳標準,把「狂野」的 AI,關進「邏輯」的籠子裡的?02奔馳標準,將 AI 關進「物理與邏輯的籠子」自動駕駛的L4等級,是車企要承擔事故主要責任的。奔馳憑什麼敢做這個嘗試?並不是因為奔馳的神經網路比別人「聰明」多少,而是因為它更「穩」,或者說,它更懂如何用確定性的邏輯去約束不確定性的 AI。我們可以把奔馳的技術譜系拆解為兩層:底層的物理冗餘和核心的邏輯鎖。首先是物理冗餘,這是對物理世界不可預測性的極致敬畏。在奔馳看來,真正的安全不能只靠演算法。它的制動系統、轉向系統,甚至連車載電網都是雙份的。這意味著什麼?那怕主電腦突然斷電,或者轉向電機卡死,那個備份的「副神經系統」也能在毫秒級接管,把車停下。更有意思的細節在感測器列表裡。除了常規的雷射雷達,奔馳甚至在車輪拱裡裝了濕度感測器,還裝了能聽警笛聲的麥克風。為什麼要裝這些?因為視覺 AI 可能會把路面水坑的反光看錯,產生幻覺。但濕度感測器不會騙人,它會直接基於物理摩擦力的減小,告訴系統「必須減速」。 這就是用物理感測器的「真」,去兜底 AI 視覺的「幻」。但更硬核的,是第二層防線:SFF(Safety Force Field,安全力場)。這是奔馳解決 AI「黑盒」問題的殺手鐧。目前的端到端大模型還無法保證全無幻覺,它就像一個直覺極強、但偶爾會沖猛了的賽車手。它看著攝影機說:「前面那個白色的東西好像是一團雲氣,我們可以加速衝過去。」這時候,SFF 系統就介入了。它不像 AI 那樣依賴機率預測,它只信奉牛頓定律。SFF 是一個基於物理規則的邏輯層,是一個完全透明的「白盒」。它的邏輯非常簡單粗暴:不看前面是雲還是車,只看雷射雷達傳回的物理空間資料。如果計算出前方50米有實體佔據空間,根據「兩個物體不能同時佔據同一空間」的物理公理,現在不剎車100%會撞。這就是奔馳的答案:用白盒(可解釋的物理規則)去配合黑盒(不可解釋的神經網路)。不管 AI 內部的數億個參數怎麼「湧現」,最終的輸出必須也要和邏輯層的毫秒級校驗相互校驗。這種架構解決了「安全性」和「責任歸屬」的問題。如果出了事故,我們可以清晰地回溯是邏輯層的規則沒寫對,還是感測器的輸入出了錯,而不是對著一個幾千億參數的黑盒兩眼一抹黑。但是,SFF 只能解決「不撞車」的問題。它是一條底線,一個籠子。如果要讓 Agent 真正像人一樣不僅「守規矩」,還能「懂人心」。比如判斷路邊的行人是想過馬路還是在等車?比如判斷後座的乘客是想快點到家還是想穩一點睡覺?光有剎車是不夠的。AI 需要的不僅僅是物理規則的約束,更需要一種認知的覺醒。03U與V,朱松純的「AGI 認知架構」奔馳用 SFF(安全力場)為 AI 加上了「物理鎖」,這解決的是底線安全的問題。但對於一家百年豪華車企來說,僅僅做到「不撞車」是遠遠不夠的。當 L3 甚至 L4 等級的自動駕駛真正鋪開時,車不再只是一個交通工具,而是一個擁有巨大動能的智能體。它如何在複雜的社會交通流中博弈?它如何與車內的乘客建構信任?我們不妨借用朱松純教授的「U & V」認知框架,來解讀奔馳正在探索的「AI 價值觀工程」。這或許比單純的技術堆疊,更能看清自動駕駛的未來。1.U(能力):不僅僅是快,更是「奔馳標準」的執行力在 AI 的語境裡,U 代表勢能函數,也就是能力。它通常被定義為「更快、更省、更智能」。目前的自動駕駛行業,大部分玩家都在瘋狂捲 U。也就是如何讓車開得更像一個老司機:敢於在晚高峰搶道、敢於壓線博弈、敢於在黃燈前一腳油門衝過去。這種策略確實最佳化了效率(U),但也帶來了一種「演算法的傲慢」——為了效率犧牲了對他人的尊重和秩序的安全。奔馳顯然不想走這條路。在奔馳的體系裡,U 的執行必須服從於更高的指令。這就是為什麼大家會覺得奔馳的自動駕駛有點「慫」:即使是綠燈,它也開得很謹慎;在沒有紅綠燈的斑馬線前,它會絕對禮讓行人。這種「老派」的作風,在極客眼裡不夠酷,但恰恰證明了奔馳已經在 AI 的底層植入了另一套系統V。2.V(價值):把「老派紳士」的靈魂程式碼化V (Value) 代表價值函數,也就是 AI 決策時的優先順序排序。朱松純教授認為,智能體必須擁有價值觀。而對於奔馳來說,這個 V 就是其反覆強調的「以人為本」。如果說 SFF 是物理層的剎車,那麼 V 就是認知層的剎車。它決定了 AI 在面對兩難選擇時,向左還是向右。首先是隱私的紅線。在資料這塊,奔馳的 V 極其強硬——資料屬於使用者。那怕犧牲一部分訓練便利性,也要確保合規。這是寫在 V 函數最底層的約束。其次是互動的紅線。在路權博弈中,奔馳的 V 設定是「安全與優雅」高於「效率」。這種看起來不夠激進的策略,實際上是在為機器建立一種「人格」一個可靠、穩重、不冒進的夥伴。正如朱教授所說,「心即是理」。奔馳正在做的,其實就是通過定義 V,把百年積累的造車哲學(心),轉化為 AI 必須遵守的決策邏輯(理)。3.下一步的探索:從「冷冰冰的邏輯」到「懂人心的夥伴」但這還不是終點。奔馳並沒有止步於「守規矩」,他們正在探索更高級的 V,意圖理解(Intent Understanding)。目前的 AI 大多是被動的:你踩剎車它減速,你喊指令它執行。但未來的 AI Agent,需要像一個懂你的老管家。奔馳最新的車機系統與豆包大模型的合作,就是一個訊號。他們試圖讓 AI 擁有「記憶」和「共情」能力。它不再機械地執行命令,而是開始變得“善解人意”。最直觀的是目前奔馳正在開發,還未上線量產車型的新氛圍燈功能,當感知到你情緒愉悅時,它會調動多彩光影為你助興;而當感知到危險時,它會瞬間變成警示的橙紅色。這種互動讓座艙不再是冷冰冰的機器,而是具備了情感溫度的夥伴。這種“夥伴感”建立在極度自然與擁有記憶的互動之上。新系統反應極,0.2 秒的極速響應配合擬人化的對話風格,徹底告別了機械感;更重要的是它擁有了類似人類的短期記憶。它能理解上下文,比如你隨口提一句“喜歡紫色”,過一會只需說“把氛圍燈調成那個顏色”,它就能立刻調動記憶精準執行。這種邊聽、邊想、邊做的流暢體驗,讓人彷彿是在和真人交流,而非向裝置下達指令。這種改變確實產生了效果。根據奔馳的資料顯示,該系統上線後最高頻的 AI 相關指令是“給我講個笑話”、“陪我聊聊天”和“你真棒”。這幾個簡單的詞彙完美說明了,靠著共情和自然,使用者不再僅僅把車機當作一個調節空調的工具,而是潛意識裡開始把它當作一個可以交流、甚至尋求陪伴的朋友。這說明奔馳正在試圖打通 U 和 V 的邊界:讓 AI 的能力(U),去主動適配人的情緒價值(V)。未來的奔馳智能體,或許不需要你開口,就能通過你的眼神、你握方向盤的力度,推斷出你是趕時間還是想兜風,從而在「激進模式」和「舒適模式」之間無感切換。這就是奔馳正在探索的路徑:用「可解釋的物理規則」兜底安全,用「可定義的價值函數」建構性格,最終讓 AI 成為一個有溫度的「人」。04為機器立心,從工具到夥伴為什麼我們現在遇到所謂的「智能客服」時,往往第一反應是想要人工服務?朱松純教授在訪談中點破了這個現象的本質:因為它們只是「鸚鵡」。它們有口無心,只會重複訓練資料裡的機率組合。更致命的是,它們無法為自己的行為負責。在人類的經濟社會中,信任是建立在「抵押品」之上的。你要跟我做大生意,我得看你的註冊資本;你要進我家門,如果不小心打碎了花瓶,你得賠得起。這就是契約。但現在的 AI Agent,無論是在網際網路上帶貨的數字人,還是那些生成程式碼的助手,它們是沒有任何「抵押品」的。它們做錯了,模型不會痛,伺服器不會關,所有的風險都由使用者承擔。這就是為什麼 Demo 再完美,我們依然只敢把它們當工具,而不敢視為夥伴。要跨越這個從工具到夥伴的鴻溝,工程上的修修補補(比如加防火牆、寫死規則)已經不夠了。我們需要一場架構級的革命,朱松純教授將其命名為——為機器立心。這聽起來像哲學,但其實是極其嚴謹的科學。所謂的「心」,在數學架構上,就是一套完整的、內生的價值函數體系(V)。它不僅僅是外掛的「紅線」,而是內化為 AI 決策的本能。就像人類不需要背誦幾百條法律條文也能安全地生活一樣,安全感源於我們內心的良知和對社會規範的認同。「心即是理」。當 AI 真正擁有了「心」,它的一言一行(理)就會自然得體。它不需要你規定「不能傷害人類」,因為它在計算下一步行動的收益時,會自動把「傷害人類」的價值權重降到最低,那怕這能帶來極高的效率回報。回到我們最開始的問題:為什麼奔馳敢說「出了事車企負責」?這其實就是奔馳作為一家企業,在強行給它的 AI 繳納「抵押品」。在 AI 尚未完全擁有獨立的「心」之前,奔馳用自己的品牌信譽和法律責任,充當了那個擔保人。奔馳給出的答案是:做一個更負責任的 AI。物理冗餘是它的底線能力(U);SFF 安全力場是它的邏輯鎖;而「以人為本」的價值觀(V),則是它試圖賦予這台機器的「心」。這既是「奔馳標準」,也預示了 AI 安全的未來底線。我們正站在一個新時代的門檻上。朱松純教授預測,未來可能會有上百億的機器人和智能體進入我們的社會。如果這些智能體只有強大的能力(U),卻沒有匹配的價值觀(V),那我們將面臨的不僅是「落地難」,而是巨大的混亂。從 Suno 的音樂到奔馳的 L3,從 Demo 裡的「紙面收益」到現實世界的真金白銀 ,中間隔著的,其實就是這顆「機器之心」。這顆心,由物理的感知建構,由因果的邏輯串聯,最終由價值的判斷驅動。只有當 AI 學會了「立心」,它才能從那個冰冷的黑盒中走出來,不再是只會預測機率的鸚鵡,而是一個能理解你的意圖 、能為自己負責 、值得你把後背(或者方向盤)交給它的真正夥伴。這,或許才是通用人工智慧(AGI)真正到來的時刻。 (騰訊科技)
紐約客─住進手機裡的晚年
導讀曾經是父母訓斥我們沉迷網路,如今局勢似乎發生了反轉:退休的“嬰兒潮一代”正逐漸深陷智慧型手機的演算法黑洞。這篇文章敏銳地捕捉到了現代家庭中一個日益普遍卻常被忽視的現象——當晚年生活被螢幕接管,由於孤獨和演算法的雙重夾擊,長輩們可能比年輕人更難逃離數字世界的引力。我的一位朋友剛橫跨全國回家探親,就發來簡訊,憂心忡忡。節假日出行的混亂本就令人頭大,但通常,能歇口氣、看看孩子們和祖父母享受天倫之樂,這一切也就值了。但他說,今年不一樣:“他們大部分時間都埋頭看手機,特別疏遠。”他指的不是孩子,而是祖父母。近年來,我聽過不少類似的軼事——成年子女擔心年邁的父母正滑向螢幕成癮的深淵。這類故事在網際網路上隨處可見。(“千禧一代”子版塊裡有個代表性的帖子問:“咱們的父母是不是都對手機上癮了?”)這些敘述之所以驚人,部分原因在於它們像極了多年前父母對子女表達的擔憂——年輕的心智正在被那些旨在掠奪和變現注意力的裝置所影響和扭曲。通常,關於“螢幕時間”的恐慌都把孩子視為缺乏自主權的一方,完全受制於邪惡的科技公司,必須由成年人介入保護。但在年齡光譜的另一端,也存在著同樣的問題:我們迎來的不是“手機童年”,而是“手機晚年”。過去一年裡,我邀請大家分享他們的故事。“我一直在求我媽放下手機,每次見到她,她都在無意識地刷屏。我敢發誓她的注意力持續時間已經歸零了,”有人寫道。另一位則描述了一位沉迷《糖果粉碎傳奇》⁽¹⁾ 的家長:“玩了幾個小時,而孫輩們還得爭搶她膝蓋上的一點空地,只為了能和她‘共度時光’。”有些描述聽起來簡直是全方位的感官轟炸:“回老家探親常常意味著房子不同角落的兩台電視機轟鳴作響,而每個人都在刷著 iPad 或手機,”有人寫道。許多留言相當直白:“我不得不告訴我的‘嬰兒潮’⁽²⁾ 父母,別在我們三歲的孩子面前死盯著 iPad 不放。”許多人私信我表達了真正的擔憂。大多數人要求匿名,不想公開談論家人。住在俄亥俄州的喬希說,他父親沉迷於 Instagram 和 TikTok 上的豎屏視訊。“我絕對認為這對他來說更多是一種應對機制,”他說,“他患有抑鬱症和嚴重的焦慮症。我正試著引導他培養些更好的愛好。”另一些人則擔心詐騙。“我在網上對他擔驚受怕的程度,甚於對我那個11歲的孩子,”一位名叫康納的男士說,“每次回家,我都得拿過我爸的 iPhone,幫他退訂那一堆掃描病毒的訂閱軟體。他總是被填字遊戲裡的廣告忽悠,下載這些東西。為了預防萬一,我不得不關掉他在 App Store 下載應用的功能。”還有一位希望完全匿名的讀者說,他們的父母在 Instagram 上花費了大量時間,不僅意外地將不雅視訊轉發到動態裡,還通過那些會讓大腦萎縮的“AI 垃圾內容”⁽³⁾ 來尋求慰藉。這些不僅僅是道聽途說:多項研究表明,老年人的上網時間確實在增加,而且這種趨勢已持續多年。皮尤研究中心2019年發現,60歲及以上人群“如今每天超過一半的休閒時間——即4小時16分鐘——是在螢幕前度過的”,其中許多人在看線上視訊。這其中很大一部分似乎發生在 YouTube 上:尼爾森今年報告稱,65歲及以上的成年人現在在電視上觀看 YouTube 的時間幾乎是兩年前的兩倍。最近一項針對50歲以上美國人的調查顯示,“受訪者平均每周在某種類型的螢幕前花費整整22個小時。”而在另一項針對2000名59至77歲成年人的調查中,40%的人表示如果沒有裝置就會感到“焦慮或不適”。但使用率調查無法捕捉人與裝置之間關係的微妙之處。我們很容易陷入對老年人的刻板印象——認為他們在社交媒體面前是文盲,被新技術搞得暈頭轉向,或者視其為詐騙案的待宰羔羊。麻省總醫院布裡格姆分院麥克萊恩醫院的老年精神病學主任、技術與老齡化實驗室主任伊普西特·瓦希亞(Ipsit Vahia)告訴我,現實要複雜得多。“我們將65歲以上的所有人歸為同一類,這是我們看待老年人時的一個根本性錯誤,”他說。老年人不僅不是鐵板一塊,正如瓦希亞所言,一代人越老,其多樣性就越強。在他看來,兩個5歲的孩子可能有更多的共同點,但兩個87歲的老人則不然:年紀越大,經歷不同事物、養成不同習慣和觀念的機會就越多。“我們的經驗法則是,如果你見到了這一位老年人,好吧,那你也就只認識了這一個老年人。”如今許多關於螢幕時間的擔憂都源於新冠疫情,疫情明顯推高了老年人對科技的接納度。“當替代方案是與世隔絕時,技術就變成了一股非常強大、積極的力量,”瓦希亞說。他指出,在很多情況下,Zoom 是那個入口。疫情初期,家庭開始舉行 Zoom 聚會,教堂開始 Zoom 禮拜。這項技術在遠端醫療預約中也派上了用場。所有這些都幫助部分老年人更有信心地使用這些科技產品。需要記住的是,並非所有的螢幕使用都是等價的,對老年人尤其如此。一些研究表明,花時間在裝置上可能與50歲以上人群更好的認知功能有關。填字遊戲、搜尋資訊、觀看教學視訊,甚至只是與朋友聊天,都能提供積極的刺激。瓦希亞建議,那些讓年輕人或中年人擔憂的上網習慣,放在老一輩身上應該另當別論。“青少年和年輕人過度使用科技產品通常與較差的心理健康有關,預示著更多的孤立、孤獨甚至抑鬱,”他告訴我,“而在老年人中,接觸科技似乎正在保護他們免受孤立和孤獨之苦。”然而,瓦希亞提供的許多技術使用案例似乎有些理想化了。史詩般的《以詞會友》⁽⁴⁾ 對局或卓有成效的維基百科瀏覽顯然屬於問題較小的一類。但我從許多人那裡聽到的描述,則是令人沮喪得多的“裝置螺旋”。一位在英國工作的護士私信告訴我(因無權談論病人,她要求匿名),在她所在的住院病房裡,許多老年病人被困在“過度刷屏”的循環中,“他們在手機和 iPad 上消費的垃圾內容數量簡直不真實!”“有些內容還算良性,”她說,“有時其實挺好笑的,比如有些人最後會掉進中文視訊自動播放的死胡同裡。”但負面影響“正越來越多地滲透進來,”她說。她提到了惡毒的反移民內容,“還有陰謀論思維以及對醫療的不信任。”只要你在 Facebook 或 Instagram 上待得夠久,大概就能看到這種動態:那是對 AI 生成的垃圾圖片發表困惑評論的人,他們似乎還沒意識到自己看到的是假的;那是極端黨派首頁推送的描繪少數族裔犯罪的生成圖像,被憂心忡忡的使用者轉發,這些人似乎變得越來越恐懼、偏執或極化;那是假冒銀行、貸款提供商或擁有30個女性 AI 聊天機器人伴侶的孤獨男人的詐騙帳號。即便如此,瓦希亞仍呼籲不要陷入道德恐慌:當我提到老年人整天在 Facebook 上被動瀏覽 AI 垃圾內容時,他提出主動消費和被動消費之間存在有意義的區別。誰說每個老人都一定會被垃圾內容愚弄?也許他們是在一起拿它取樂,或者試圖分辨真偽。“如果垃圾內容能給那些本來沒多少共同話題的人提供一個談資——那這就變得有點微妙了,不是嗎?”他說。也許吧。這其中肯定包含了一些投射心理。那些聯絡我的人所表達的焦慮——以及我自己曾感受到的焦慮——似乎源於我們自身與裝置之間那種備受折磨的關係。我們許多人時刻擔心自己在消費什麼、刷了多久,以及我們在網上被推搡、刺探和操縱的種種微妙方式。無論公平與否,我們將個人的擔憂投射到了他人身上。但是,“蝦耶穌”⁽⁵⁾ 和合成的移民執法局探員逮捕人的視訊旨在迷惑或激怒使用者,充斥社交平台的其他點選誘餌也是如此。誠然,我們不應假設老年人都是傻瓜,但這是一個由科技巨頭運作的系統,獎勵的是參與度而非質量:對於那些空閒時間多得不知如何打發、且可能已經在與孤獨或其他心理健康問題作鬥爭的人來說,發光的螢幕可能是一種無法抗拒的誘惑。當我問及瓦希亞我聽過許多的“假日長輩刷屏”現象時,他鼓勵我換個角度看問題。“是的,你在假期見到他們時觀察到了這一點,”他說,“但問題是,其餘時間你並不在場。好也罷壞也罷,手機是他們生活的一大部分,你的到來實際上才是一種干擾。”他認為,值得思考的是,當周圍沒人時,手機在起什麼作用。它是在阻止親人陷入抑鬱嗎?它是在為他們提供與周圍世界的連接嗎?把世界裝進口袋或平板裡,他們是否比沒有這些時更快樂?演算法讓人的自主性變得複雜,但有些人可能就是想在手機上消費無盡的娛樂內容來度過晚年。誰又有資格評判呢?這是一團混亂的局面。同樣的工具,既讓一些人與現實保持連接,又模糊了另一些人眼中的真實界限。但與其急於評判,年輕人不如利用這份關切來開啟一場對話——放下手機,好好聊聊。 (外文精譯)