#演算法
上帝的靈魂:Google,27年理想、演算法與網際網路的終極信仰
它從誕生第一天起,就懷揣著一個終極夢想:整合全世界的資訊,讓每個人都能自由接近真理。微軟信秩序,Google信真理。微軟給世界砌牆,Google給世界開一扇門。25年過去,Google從史丹佛宿舍裡兩個年輕人的奇思妙想,變成了佔據全球搜尋市場90%份額的資訊帝國。它那句"不作惡"的口號,曾經讓整個矽谷為之側目的理想主義,現在看來,到底是天真還是傲慢?這是一個關於理想主義如何被現實改變,又如何改變世界的故事。創世紀:佩奇布林、PageRank與火人節精神1995年,史丹佛大學。兩個博士生,拉里·佩奇23歲,謝爾蓋·布林22歲。佩奇那時候滿腦子都是奇怪的想法——太空電梯、自動駕駛,他想下載整個網際網路,看看連結之間到底藏著什麼秘密。布林喜歡資料探勘,兩個人湊在一起,搗鼓出了PageRank。這個演算法邏輯很簡單:如果很多高品質頁面都連結到你,說明你更重要。佩奇想到了隨機衝浪——假設一個人在網上隨便點連結,他停在那裡的機率,就是這個頁面的權重。布林把它變成了一個巨大的矩陣方程,解出來就是每個網頁的排名。那時候所有搜尋引擎都在比誰收錄頁面多,誰讓使用者在網站停留更久。沒人關心使用者能不能真正找到想要的東西。Excite的CEO當年看過佩奇布林的演示,直接說:"如果搜尋引擎讓使用者很快離開,我們怎麼賺錢?"佩奇和布林不能理解。搜尋引擎的本職不就是幫人快點找到答案嗎?為什麼要把人拴在你的網站上?這個簡單的想法,改變了一切。1998年,Google公司成立。安迪·貝赫托爾舍芬給他們開了一張十萬美元的支票,那時候公司還沒註冊,支票放在車後座呆了好幾個星期。第一個辦公室在蘇珊·沃西基家的車庫,後來這位蘇珊成了YouTube的CEO。早期Google是什麼樣子?滿屋子都是熔岩燈和彈跳球,員工可以帶貓上班,每周五免費聚餐,創始人穿著沙灘褲去面試。保羅·布赫海特在一次價值觀討論會上,寫下了那句改變Google的話:不作惡。佩奇和布林一眼就看中了這句話。不是說Google人從不犯錯,而是我們不做那種為了錢欺騙使用者的事。其他搜尋引擎把付費結果混進自然結果,那就是惡。我們不這麼幹。那時候的Google,骨子裡就是火人節的精神——徹底的自我表達,好奇,反叛,相信資訊自由。凱文·凱利當年採訪佩奇,問你們做搜尋到底想幹嘛?佩奇說:"我們對搜尋不感興趣,我們在做人工智慧。"從第一天起,Google就不是一家單純的搜尋引擎公司。它是一場運動,一種信仰,一次人類試圖用理性與演算法,接近上帝視角的偉大冒險。它的敵人從不是對手,是無知、混亂與謊言。啟示錄:擴張、Android、演算法霸權,不作惡慢慢褪色Google長成巨人的速度,比任何人想像得都快。2000年,Google簽下第一筆大廣告生意,它學會了靠搜尋關鍵詞賣廣告,而且做得比任何人都好——廣告和搜尋結果分開,不欺騙使用者,不搶內容的風頭。這一套模式跑通,Google就成了印鈔機。2004年上市,市值一路漲上去。它開始擴張,做信箱,做地圖,做瀏覽器,做手機作業系統。2005年買下Android,這是Google歷史上最關鍵的一步收購。那時候諾基亞統治手機,蘋果還沒出iPhone。Google把Android免費開放,給所有手機廠商用,靠著這一招,幾年之內就佔領了全球手機市場。現在你拿起任何一部Android手機,都意味著Google又多了一個資料入口,又多了一個廣告管道。這個階段的Google,什麼都想做。它想掃描全世界所有的書,想給整個地球拍照做地圖,想做無人駕駛,想研究延長人類壽命。它有錢,有人才,有理想,覺得什麼都可能。但問題也跟著來了。當你佔據了搜尋市場九成份額,當你控制了Android,當你把廣告生意做到網際網路每個角落,你就不再是那個反叛的壞小子了。你變成了你當年反對的那種人。歐盟開了罰單,美國司法部把Google告上法庭,說它壟斷搜尋,壟斷廣告技術,排擠對手。2025年,美國法官判決,Google確實存在非法壟斷,但拒絕強制拆分。歐盟罰了它29.5億歐元,說它在廣告技術領域濫用壟斷地位。"不作惡"這句話,慢慢變得有點尷尬。你說你不作惡,但你利用壟斷地位排擠競爭對手,這算不算惡?你收集全世界使用者的資料訓練你的演算法,這算不算惡?你把自己的服務排在搜尋結果前面,打壓對手的連結,這算不算惡?當年佩奇布林說,廣告如果相關就不是惡。現在,廣告佔了Google收入八成,演算法推薦的每一條結果背後,都有廣告的考量。理想主義的底色還在,但它已經長成了一個龐然大物。理想不得不在商業現實面前,一點點讓步。不作惡不是錯,但當你變成了整個網際網路的守門人,你握的權力太大了,你怎麼證明你不會濫用?煉獄:AI時代、DeepMind、內部撕裂,Gemini的追趕OpenAI拿出ChatGPT的時候,Google驚呆了。全世界都知道,Transformer是Google大腦發明的,Attention機制是Google的人提出來的,AlphaGo打敗李世石的時候,OpenAI還不知道在那。怎麼最後被OpenAI搶了先手?這不是技術問題,這是文化問題。Google內部太龐大了,部門牆嚴重。DeepMind在英國,做研究很厲害,但和產品部門脫節。Google搜尋是現金牛,沒人敢動搜尋廣告的奶酪。當外邊AI革命已經開始,Google內部還在爭論,大模型會不會衝擊搜尋廣告生意。猶豫之間,OpenAI起來了,微軟all in了,Google被打了個措手不及。桑達爾·皮查伊作為CEO,不得不發動"紅色警報",把所有資源壓上去,趕做Gemini。這兩年,Google內部撕裂得厲害。老派Google人覺得,公司忘記了初心,只想著跟微軟搶市場,不關心真正的AI進步。新來的人覺得,理想不能當飯吃,OpenAI都快摸到AGI了,你還在那裡講情懷。2025年底,Gemini 3發佈,性能上反超了GPT-5,市場終於承認,Google還是那個技術Google。它重新回到了AI競賽的領先位置。Nano Banana這個AI圖像應用還爆火了一把,使用者量漲得飛快。但問題沒解決。DeepMind和Google搜尋怎麼融合?AGI研究和廣告生意怎麼平衡?當你真的做出了比人類更聰明的AI,你這個"整合全世界資訊"的使命,到底要往那裡去?25年前,兩個博士生想給網際網路排個序。現在,他們需要給整個世界排個序。這是Google的煉獄。它曾經是創新者,現在它成了在位者。它要在保持自己龐大廣告帝國運轉的同時,再領導一次AI革命。這件事,太難了。神性與魔性:知識原教旨主義,工程師神權,無形統治站在2026年看Google,你會發現它骨子裡有一種東西從來沒變——知識原教旨主義。佩奇和布林從史丹佛出來,他們真的相信,資訊自由流動能讓世界變得更好。他們真的相信,演算法比人更公正,更多的資料能訓練出更好的智能,更好的智能能解決人類更多的問題。這種信仰,讓Google做出了很多偉大的事情。Google學術免費給全世界研究者用,Google翻譯免費給十幾億人用,Android免費給廠商用,TensorFlow開源給全世界開發者用。沒有Google這些免費開放的東西,AI革命不會來得這麼快。但這種信仰也有它的魔性。當你相信只有演算法能帶來真理,你就會不自覺地把工程師的利益,變成整個行業的規則。你掌握了排序的權力,你就是資訊世界的神。使用者點什麼,不點什麼,看什麼,不看什麼,都由你說了算。這就是一種無形的統治。使用者自己不知道自己想要什麼,演算法知道。出版商自己不知道內容該怎麼排序,Google知道。這種權力,比看得見的壟斷更可怕。我聽過一句話,說得狠:"Google不存在了,現在它只是一個索引一切、收割一切的函數。"這句話極端,但說出了一部分真相。Google每天處理幾十億次搜尋請求,每一次請求都是一次對世界秩序的確認——誰重要,誰不重要,誰排在前面,誰排在後面。這個排序,就是權力。另一方面,Google的好奇心從來沒死。它投了那麼多錢給DeepMind,研究AlphaFold,破解蛋白質結構,幫助科學家研發新藥。它投那麼多錢做自動駕駛,做量子計算,這些生意十年內都不一定能賺錢,但它還是投了。Google骨子裡還是那個史丹佛的博士,它對這個世界真的好奇。它真的想知道,智能到底是什麼,宇宙到底是什麼,人到底是什麼。這種神性和魔性並存,就是Google最有意思的地方。它一邊做著廣告生意收割全世界,一邊用錢砸著那些可能改變人類命運的基礎研究。它一邊握著資訊權力享受壟斷利潤,一邊又相信AI能讓世界變得更好。靈魂拷問:理想痕跡與現實枷鎖Google走到今天,核心矛盾從來沒變:理想和生意,到底能不能共存?當年兩個人成立公司,使命是"整合全球資訊,供大眾使用,使人人受益"。這個使命太偉大了,偉大到任何商業公司都扛不住。整合全球資訊,這本身就是神才能完成的任務。你一個商業公司,憑什麼?你要賺錢,你就必須靠廣告,靠廣告你就必須拿使用者資料說話,拿資料說話你就必須收集越來越多的資料,收集越多你權力越大,權力越大你越容易壟斷。這是一個繞不出去的循環。"不作惡"這句話,現在看來更像一個自我約束。但當公司大到這個規模,自我約束夠嗎?佩奇早就不管日常業務了,布林也很少出面,他們去研究長壽和飛行汽車了。公司交給皮查伊,皮查伊要對股東負責,要增長,要利潤,理想就得給業績讓路。你能怪皮查伊嗎?不能。上市公司就是要增長,這是現實的枷鎖。但你回頭看,Google身上的理想痕跡還是抹不掉。它至今還是世界上研發投入最多的科技公司之一,2024年研發投了差不多500億美元,大半砸在AI和基礎研究上。很多研究短期看不到回報,但它還是投了。這個世界就是這麼矛盾。你要做改變人類的大事,你就得有錢,你要有錢你就得做生意,做生意你就得遵守商業世界的規則,遵守規則你就不得不改變你當初的樣子。Google沒有逃出這個矛盾,它只是在裡面走著,走著。終局:資訊之神的兩條路現在站在AI時代的門口,Google面前有兩條路。一條路,繼續沿著現在的方向走,靠著搜尋廣告的巨大現金流,拖著AI往前走,慢慢把AI整合進搜尋,整合進所有產品,最終成為AI時代的資訊基礎設施。它依然是資訊之神,掌握著每個人獲取知識的入口,繼續賺它的錢,繼續做它的研究。另一條路,更激進也更危險——徹底擁抱AGI,把整個公司壓上去,真的做出接近人類水平的通用人工智慧,那時候,Google會變成一個完全不一樣的公司,它可能真的改變人類文明,也可能把自己拖進未知的深淵。歷史在這裡有一個很有意思的隱喻。五十年前,IBM是電腦行業的上帝,它相信大型機,看不起個人電腦,然後微軟和蘋果起來了。二十年前,微軟是PC時代的上帝,它看不起網際網路搜尋,然後Google起來了。現在,Google是資訊時代的上帝,它面對AI這波浪潮,能不能跳出這個帝國輪迴?AI比搜尋更大,比移動更大,比PC更大。這一次,輪到Google坐那個當年IBM和微軟坐過的位置了。它能贏嗎?我不知道。但我知道,Google從誕生那天起,它就不是一家普通的公司。它承載了一代人對資訊自由、對理性、對演算法能改進世界的理想。就算Google那天真的輸了,這種理想也會留在網際網路的基因裡,被後來者繼續帶走。結語:人類對真理的永恆渴望微軟是上帝的意志,它給世界秩序。Google是上帝的靈魂,它給世界方向。微軟信的是,人類需要秩序,秩序帶來效率,效率帶來繁榮。Google信的是,人類需要真理,接近真理才能進步。五十年商業史,這兩個巨人,一個代表了對秩序的永恆追求,一個代表了對真理的永恆渴望。Google走了27年,從兩個史丹佛博士生的宿舍,走到今天市值超過三兆美元的資訊帝國。它變了很多,它不得不向現實低頭,它不得不做生意,它不得不壟斷,它不得不應對反壟斷訴訟。但它骨子裡那種東西,那種對未知的好奇,那種相信資訊自由能讓世界更好的信念,還在。它在神性和人性之間徘徊,在理想和現實之間拉扯。這種徘徊,本身就是它最真實的樣子。人類對真理的渴望,從來不會停止。總會有人,像當年佩奇和布林那樣,抱著奇怪的想法,想要整合全世界的資訊,想要用演算法接近上帝。就算Google那天不在了,這種渴望也會一直存在。這就是上帝的靈魂,它永遠不死。感謝你讀到這裡。每一次閱讀,都是一場小小的相遇。如果文章對你有啟發,歡迎點亮在看,也可以星標公眾號,不錯過每一次重逢。你的支援,是我持續更新的最大動力。 (灼灼桃野)
88歲演算法祖師爺驚呆!Claude聯手GPT攻破30年難題,14頁論文0修改
【新智元導讀】「哈密頓分解」難題,終於破解!88歲「演算法祖師爺」高德納再更論文,Claude 4.6+GPT-5.4聯合破解了奇偶數情形。甚至,GPT-5.4直出一篇14頁論文,引爆全網。88歲的老爺子,終於填平了自己當年挖下的坑!三周前,「演算法祖師爺」、圖靈獎最年輕的得主高德納被Claude震驚:一個懸了多年的演算法難題,竟被Claude Opus 4.6解決了。論文一開篇,他直呼「震驚、震驚」!論文地址:https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf但進一步研究發現,實際上存在760種類似的分解方法,Claude只是找到了其中一個。它只攻克了m為奇數的「堡壘」,對於m為偶數的情況,仍然沒有通用解。更新後的論文顯示,這一難題取得了巨大的進展!GPT-5.4 Pro接棒Claude,對所有m≥8的偶數直出長達14頁的論文,並通過計算驗證了高達m=2000的情形。不僅如此,GPT與Claude聯動後,通過多智能體工作流,為奇數和偶數m找到了更簡潔的構造方法。還有人使用Lean語言,將Claude關於奇數情況的證明形式化。至此,「哈密頓分解」難題徹底解決。從Claude 4.6到GPT-5.4,再加上業界諸多大佬合力,終於把數十年的坑填上了。論文的最後,老爺子感慨道——我們的確生活在一個非常有趣的時代。願原力與你同在。88歲演算法祖師爺,挖了一個「大坑」一直以來,在組合數學裡,哈密頓路徑(Hamiltonian Path)是一座易守難攻的要塞。簡單來說,它要求在複雜的圖形網路中,尋找一條不重複地經過每一個節點的閉合環路。而「哈密頓分解問題」,則是要將一個圖完美地拆解為多個這樣的環路。這不僅是計算量的博弈,更是對數學構造能力的極限壓榨。這個坑,是高德納親手挖下的。在他撰寫電腦科學巨著《電腦程式設計藝術》(TAOCP)的過程中,哈密頓分解始終是一個讓他掛念的「補丁」。這個問題已經懸置了數十年,用術語描述如下:此前,學術界始終無法給出覆蓋奇數與偶數情形的完整全解。隨著節點增加,搜尋空間呈指數級爆炸,人類的大腦在那種深度的黑暗面前,往往會感到生理性的無力。過去三十年,無數天才試圖填坑,但大多折戟於那道「奇偶全解」的最後防線。直到2026年的這個春天,高德納決定換一種武器。偶數m,有解了?上一次Claude Opus 4.6,在31次探索之後,終於提出了一套簡單的規則——s = (i + j + k) mod m其中依據s、i、j的情況,再去決定是否增加i、增加j、增加k,具體規則如下:如果s=0,根據j的值決定移動方向。如果0<s <m−1,則根據i的值決定。如果s=m−1,再用另一種規則。結果,Claude通過程序驗證了,當m=3,5,7,9,11,路徑全部成立。可以看到,Claude只解決了m為奇數的情況,至於m為偶數的問題,還未得出真正的解。直到3月3日,Filip Stappers給老爺子寫信說,「這事兒還有後續」。Stappers讓Claude Opus 4.6再次針對m為偶數,算了大概4個小時,終於有些眉目,但沒有完整的解。最終,Claude建立了一個類似於奇數情況的局部纖維構造,然後通過運行搜尋來進行修補完善。在最後的階段中,它把主要時間用在了「加快搜尋」的速度上,而不是去尋找一個真正的構造方法。它跑了許多程序,試圖用模擬「退火」或「回溯」演算法來尋找解。在Stappers建議下,讓Claude使用ORTools CP-SAT(Google開源工具包的一部分,帶有AddCircuit約束)求解,奇蹟發生了。現在的程序,在短短幾秒鐘內就能直接跑出結果!緊接著在3月4日,來自新加坡好友Ho Boon Suan帶來了更震撼的消息。他利用gpt-5.3-codex生成了一段程式碼,成功實現了偶數m≥8的分解。為了驗證可靠性,他測試了8到200之間所有的偶數m,以及400-2000之間的一些隨機偶數,結果都沒問題。要知道,當m=2000時,那可是一個擁有80億個頂點的龐大圖結構!若是純靠人力,來手算證明其正確性簡直是「天方夜譚」。幾乎同一時間,來自Lean社區的Kim Morrison動作極其迅速。他把之前關於Claude構造正確的證明形式化驗證,並於3月4日及時地發到了網上。數學天才,扎堆研究另一位名為「Exocija」的匿名研究者,找到了一種適用於奇數m的全新構造。單從計算的角度來看,這極可能是目前最簡潔的方案,儘管它的證明也許不是最簡單的。在C語言程序中,只需將特定的幾行取代為極其精簡的邏輯程式碼,就能獲得有效的分解。而且,幾乎每一步,都巧妙地利用了恆等置換「012」。if (s == 0) d = (j == m - 1? "201" : "021");else if (s == m - 1) d = (j == 0? "102" : "120");else d = "012";他是如何做到的?答案是:跨模型協作。Exocija在GPT-5.4和Claude 4.6 Sonnet這兩個頂尖模型之間不斷來回貼上文字,利用它們不同的思考維度相互啟發,最終成功拼湊出了完整的證明。0修改,GPT-5.4直出14頁論文關於偶數m的構造問題,真正的高潮還在後面。既然gpt-5.3-codex生成的演算法規律過於複雜,Ho Boon Suan決定給GPT-5.4 Pro下達一個終極指令:你的任務是嚴格證明之前給出的演算法,當m是≥ 8的偶數時,確實總是能產生三個長度均為m³的循環。最好能深入說明一下這個演算法為何有效,並探討是否有更簡單的構造方法。誰曾想,GPT-5.4 Pro直接交出了一份令人驚嘆的答卷——一篇排版精美、邏輯嚴密、長達14頁的學術論文。從「摘要」到「結論」,結構完整,起承轉合嚴絲合縫。而且,它還採用了TeX標準,高德納本人就是TeX的發明者,AI似乎在用這一語言向他致敬。最重要的是,論文通過了Lean形式化驗證工具的檢驗。用Ho的原話來說,這完全是GPT-5.4 Pro獨立完成的壯舉,他連一個標點符號都不需要修改!這意味著,它的邏輯鏈條在數學意義上是「絕對真理」。AI「左右互搏」,Claude+GPT終成完美證明這個故事的集大成者是Keston Aquino-Michaels。不僅為奇數m的情形找到了另一種有效的分解,同時為偶數m的情形給出了一種優雅的分解,其簡潔程度遠超此前方法。此外,他還發掘出了一篇高德納之前遺漏的相關參考文獻(即下圖最後參考文獻)。預印本:https://arxiv.org/abs/2203.11017最妙的是,他還細緻分析了這種聯合互動模式,對於未來如何應對並解決新問題具有潛在的重要意義。完整報告:https://github.com/no-way-labs/residue/blob/main/paper/completing_claudes_cycles.pdf 開放原始碼專案:https://github.com/no-way-labs/residue簡單來說,Keston Aquino-Michaels並沒有簡單地向AI提問,而是建構了精妙的「協作工作流」。這更像是一場跨越碳基與矽基的協同演習,是Claude、GPT和人類的密切合作。其中,兩個Agent獨立運行,使用相同的「Residue」提示詞。兩個智能體使用的結構化探索提示詞但各自發揮特長:Agent O:5次探索解決奇數情況(符號證明)Agent C:找到m=4,6,8,10,12的具體解(資料)但兩個Agent沒有直接對話,通過Orchestrator中轉——資料、工具都經由指揮者(人類引導的Opus 4.6)傳遞。Orchestrator需要判斷「何時傳、傳什麼、以什麼格式傳」,這不是兩個Agent自己能完成的。比如,Agent O在偶數情況卡在m=10,無法推進;Orchestrator將Agent C的解傳遞給Agent O;Agent O收到後,立即識別出模式:m−2層「批次層」+2層「修復層」。最終,那個困擾了人類幾十年的「奇偶情形全解」,在兩個AI智能體的瘋狂交鋒中,被徹底鑿穿。人類圈定戰場,機器填補深淵這次「填坑」,標誌著科學研究範式的徹底轉折。科學家的身份變了。比如,高德納不再是那個在紙上計算每一行程式碼的工匠,他定義了問題的邊界,設計了驗證的邏輯,然後指揮AI去填補那道試錯的黑洞。研究的範式變了。人類只需定義邊界,而AI填補深淵。數學家最珍貴的能力不再是算力,而是「提出問題的直覺」和「驗證答案的審美」。AI負責在無限的試錯中尋找路徑,而人類負責在終點確認這是否就是我們要找的真理。下一個是誰?當88歲的演算法泰斗都開始用AI填坑,我們必須意識到:數學研究的工作方式正在發生不可逆的轉折。這不僅僅是高德納的勝利,更是人類智力的一次「外掛式升級」。在「機器左右互搏」的時代,連最嚴謹的數學殿堂都已經向AI敞開大門。如果你還在糾結「AI是否會取代我」,那麼你可能已經錯過了成為下一個「智力架構師」的機會。下一個被AI鑿穿的世紀難題,會是黎曼猜想,還是物理學的統一場論?在這個「極其有趣的時代」,我們唯一的恐懼,應該是對這種進化速度的漠視。 (新智元)
Google公開全新極限壓縮演算法:LLM提速8倍、記憶體佔用狂降6倍,精度零損失
Google帶來了一套有深厚理論基礎的全新量化演算法。這套演算法的出現,直接瞄準了當前AI領域的兩大痛點:大模型極其吃記憶體的鍵值快取(KV Cache),以及高維向量搜尋的算力瓶頸。直接把大模型推理中最燒錢的那塊記憶體砍掉六分之五,同時推理速度提升最高8倍,精度還沒有任何下降。說人話就是如果這個演算法真的有效,記憶體價格將有望大幅降低,也不要那麼多的GPU來訓練大模型了,當然根據傑文斯悖論,記憶體和GPU可能又會迎來一波更大的需求。這組演算法叫 TurboQuant,將在 ICLR 2026 正式發表。(實際上論文的預印本2025年就發了)記憶體瓶頸卡在那裡要理解 TurboQuant 解決的問題,先得搞清楚大模型推理時最貴的東西是什麼。大模型處理資訊的方式,本質上是把一切轉化成向量——一串數字。維度越高,向量能承載的資訊越複雜,也越精確。但高維向量極其耗記憶體。推理過程中有一個叫 KV Cache(鍵值快取)的機制,相當於模型的臨時記事本,把之前算過的結果存起來,避免重複計算。模型上下文越長,這個記事本佔的空間越大,記憶體很快就被撐滿了。解決思路自然是壓縮向量。但傳統的向量量化方法有一個隱藏成本:壓縮時需要存一批次化常數,這些常數本身又要佔掉1到2個位元,部分抵消了壓縮的效果。TurboQuant 就是衝著這個隱藏成本來的。TurboQuant 分兩步走第一步是 PolarQuant——處理主體壓縮。傳統量化用的是直角坐標系,相當於告訴你往東走3步、往北走4步。PolarQuant 改用極坐標,變成沿某個角度走5步。這樣一來,向量被拆成兩個量:半徑(代表資料的強度)和角度(代表資料的方向/含義)。極坐標有一個好處:角度的分佈規律是已知的、高度集中的,像一個固定的圓形網格,而不是邊界隨時在變的方形網格。不需要再額外算一遍資料歸一化,量化常數這個記憶體開銷就被徹底消掉了。第二步是 QJL——用1個位元處理殘餘誤差。第一步壓縮之後,還會留下一點點誤差。QJL 用 Johnson-Lindenstrauss 變換處理這個殘差:把每個數壓縮成一個符號位,+1 或 -1,記憶體開銷為零。關鍵是 QJL 用了一個特殊的估計量,把高精度的 query 和低精度的壓縮資料組合起來,使得最終計算注意力分數時誤差不會累積偏移。兩步合在一起,TurboQuant 用大部分位元做高品質的主體壓縮,再用1個位元做誤差修正,整體實現了零額外開銷。實驗資料Google在多個標準長上下文基準上做了測評,包括 LongBench、Needle In A Haystack、ZeroSCROLLS、RULER 和 L-Eval,使用 Gemma 和 Mistral 兩個開源模型。主要結論:TurboQuant 把 KV Cache 壓縮到 3 位元,不需要任何訓練或微調,模型精度沒有任何下降。在長上下文針尖大海撈針任務中,壓縮比達到至少6倍,結果依然滿分。在速度上,4位元的 TurboQuant 在 H100 GPU 上計算注意力 logits 的速度是原始32位元未量化版本的8倍。在向量檢索任務上,TurboQuant 在 GloVe 資料集上的1@k召回率超過了 PQ 和 RabbiQ 等當前最優方法,而後者還用了更大的碼本和針對資料集的專項調優。意義在那裡這套極限壓縮技術的出現,不僅直接解決了Gemini等大模型的鍵值快取瓶頸,更將深刻改變現代搜尋的格局。如今的搜尋引擎正在從關鍵詞匹配進化為理解意圖和含義,這離不開在數十億級向量庫中尋找最相似內容的向量搜尋技術。借助TurboQuant,以最小的記憶體、幾乎為零的預處理時間建構和查詢超大型向量索引成為可能,且精度達到當前最高水平。隨著AI技術全面融入各類產品,這類基礎級的向量量化突破將爆發出前所未有的威力。Google研究人員強調,這三個演算法不只是工程最佳化,背後有完整的理論證明,性能接近理論下界,因此在大規模系統中具有可信賴的魯棒性。TurboQuant、QJL 和 PolarQuant 的論文將分別在 ICLR 2026 和 AISTATS 2026 正式亮相。 (AI寒武紀)
Google 發了個壓縮演算法,記憶體砍 6 倍,速度快 8 倍,精度零損失
Google Research 昨天發了篇部落格,介紹了一個叫 TurboQuant 的壓縮演算法,將在下個月的 ICLR 2026 上正式發表。一句話概括:把大模型的 KV Cache 壓縮到 3 bit,記憶體佔用降 6 倍,推理速度快 8 倍,精度損失為零。零。不是「接近零」,不是「可忽略」,是在所有基準測試上跑出了和未壓縮版本一模一樣的分數。這,就值得好好說說了。先說 KV Cache大模型在生成回答時,有個東西叫 KV Cache,也就是 Key-Value 快取。你可以把它理解成模型的「草稿紙」,每生成一個 token,它都要回頭看看之前寫了什麼,而 KV Cache 就是儲存這些「之前寫了什麼」的地方。問題在於……這張草稿紙會越來越大。KV Cache 越聊越胖對話越長,草稿紙越厚。上下文窗口從 8K 到 128K 再到百萬級,KV Cache 的記憶體佔用也跟著線性膨脹。到了一定程度,GPU 的視訊記憶體就不夠用了,要麼縮短上下文,要麼加更多顯示卡。這就是為什麼之前對於 1M token 的上下文模型,比如說 Claude 的模型,它會在超過一定窗口之後,要收取更高價格。因為費卡啊!所以 KV Cache 壓縮,一直是業界的剛需。老辦法的尷尬傳統的做法是向量量化,把 32 位的浮點數壓成更少的位數。聽起來很直接對吧?但這裡有個尷尬的地方:量化本身需要儲存一些「校準常數」,這些常數得用全精度保存,每個數字額外佔 1 到 2 bit。打個比方,你好不容易把行李箱裡的衣服用真空袋抽成了紙片,正準備拉上拉鏈,結果發現每個真空袋上還得貼一張 A4 大小的操作說明。十件衣服十張說明,箱子又鼓起來了。壓縮的悖論壓縮帶來的好處,被壓縮本身的開銷吃掉了一部分。TurboQuant 要解決的,就是這個問題。極坐標的妙用TurboQuant 其實是兩個演算法的組合:PolarQuant 和 QJL。先說 PolarQuant。PolarQuant 坐標轉換示意傳統量化在笛卡爾坐標系下工作,也就是我們熟悉的 X、Y、Z 軸。PolarQuant 做了一件事:把向量從笛卡爾坐標系轉換到極坐標系。這是什麼意思呢?想像你在一張方格紙上標記一個點的位置。笛卡爾坐標系的做法是:向右走 3 格,向上走 4 格。極坐標的做法則是:朝 53 度方向,走 5 步。方格紙到羅盤的轉換描述同一個點,但極坐標的表示方式有個天然優勢:角度的分佈是可預測的、集中的。這意味著,你不需要額外儲存那些佔空間的校準常數了。方格紙換成了羅盤,清單就不需要了。這一步,PolarQuant 負責主要的壓縮工作,把資料壓到很小的體積,同時保留了關鍵資訊。1 bit 掃尾但光靠 PolarQuant 還不夠……壓縮之後總會有殘餘誤差。這時候 QJL 登場了,全稱 Quantized Johnson-Lindenstrauss。QJL 的思路相當大膽:它用 Johnson-Lindenstrauss 變換來處理殘餘誤差向量,然後把每個值壓縮到……1 個 bit。對,就是正或負,+1 或 -1,沒有中間地帶。聽起來粗暴得離譜對吧?但妙的地方在於,QJL 在計算 attention 分數時,用的是未壓縮的高精度 query 向量和壓縮後的 key 向量配合工作。高精度的那一側「兜住了」低精度那一側的誤差。額外記憶體開銷:零。PolarQuant 做主力壓縮,QJL 做 1-bit 掃尾,兩者合在一起就是 TurboQuant。最終實現了 3-bit 的 KV Cache 壓縮,而且不需要重新訓練模型,不需要微調,不需要針對特定資料集做校準。拿來就能用。TurboQuant 兩步壓縮流程跑分全滿:::來看效果。Google 的團隊在五個長上下文基準測試上做了驗證:LongBench、Needle In A Haystack(大海撈針)、ZeroSCROLLS、RULER、L-Eval,用的模型是開放原始碼的 Gemma 和 Mistral。結果是:所有基準測試上,壓縮後的模型和未壓縮版本得分完全一致。TurboQuant 成績單在 NVIDIA H100 GPU 上,4-bit 的 TurboQuant 在計算 attention logits 時比 32-bit 未量化的 key 快了 8 倍。而在向量搜尋任務上,TurboQuant 也打敗了現有最好的方法(Product Quantization 和 RabbiQ),在 GloVe 資料集上的召回率更高,同時記憶體佔用更少。換句話說,壓得更小,跑得更快,還找得更準。不只是論文:::通常一篇論文發完,大家看看就過去了。但 TurboQuant 的情況,有些不一樣。論文放出來沒幾天,社區就已經有人用 PyTorch、MLX(Apple Silicon)和 C/CUDA(給 llama.cpp 用的)分別做出了可運行的實現,而且核心指標都得到了驗證。可以說,演算法本身夠簡潔,不依賴複雜的訓練流程,獨立開發者幾天就能復現。團隊陣容方面,除了 Google 的 Amir Zandieh 和 Vahab Mirrokni(Google Fellow),還有來自 KAIST 和 NYU 的研究者參與,三篇相關論文分別發在 ICLR 2026、AAAI 2025 和 AISTATS 2026。未來影響:::TurboQuant 解決的問題,表面上看是「省視訊記憶體、提速度」。但往遠了想,它動的其實是 AI 部署的門檻。現在跑大模型,動輒需要幾塊 H100,一年下來光算力成本就是天文數字。如果 KV Cache 能壓縮 6 倍,同樣的視訊記憶體就能裝下更長的上下文,或者服務更多的並行請求。對雲端來說,這直接就是成本帳。而對本地部署來說,意義可能更大。32GB 視訊記憶體的消費級顯示卡,原本只能勉強跑個 7B 模型的長上下文,壓縮 6 倍之後,想像空間就打開了。更遠一點……手機、邊緣裝置、嵌入式系統,這些地方記憶體寸土寸金,TurboQuant 這類技術可能是 AI 真正進入這些場景的前提條件。有人評論稱:這可能是 2026 年最重要的創新之一。說「最重要」可能有些誇張了。但我想,至少可以說,最性感的 AI 突破,未必來自下一個兆參數的巨無霸模型,而可能來自這種聰明的數學技巧。壓縮、量化、高效計算,這也許才是,讓 AI 真正無處不在的關鍵。 (AGI Hunt)
【以美襲擊伊朗】華裔學者對伊朗的預測為什麼火了:AI泡沫背後的戰爭帳單
最近,一段2024年上傳到YouTube的視訊突然在全球社交媒體上火了起來。視訊裡,加拿大華裔學者江學勤(Jiang Xueqin)冷靜地作出了三個預測:川普會贏下大選、美國會對伊朗開戰、而且美國會輸掉這場戰爭。前兩個已成事實,第三個還懸在那裡,像一個沒人敢碰的深水炸彈,吊著所有關注中東局勢的人的胃口。最近,江學勤在《Breaking Points》節目中系統解釋了他的判斷依據。這個視訊短短兩天已經有500多萬觀看人數。他的分析不光是軍事層面的推演,更多指向了一個更深層、也更令人不安的結構性問題——這場戰爭真正的發動機,其實不在五角大樓的作戰室,而在矽谷的機房和華爾街的交易終端。換句話說,看這場戰爭,不能光盯著導彈的軌跡,還得看清楚錢是怎麼流的。沙漠裡的伺服器:美國科技巨頭正在中東布什麼局?過去幾年,有個現象沒怎麼引起注意——中東那些靠石油發家的國家,正在悄悄變臉。沙烏地阿拉伯、阿聯、卡達,過去的天際線是鑽井塔,現在冒出來的是成片的資料中心。亞馬遜的AWS在阿聯建了中東最大的雲端運算叢集之一,微軟的Azure也在卡達和沙烏地阿拉伯落地,Google雲則瞄準了利雅德。這些項目表面上是商業投資,其實背後是一條正在鋪開的AI產業鏈。為什麼偏偏是中東?說到底,就三個原因:能源便宜、錢多、位置好。這場佈局的規模大得驚人。光2023到2025這幾年,微軟就在阿聯和沙烏地阿拉伯砸了上百億美元建資料中心;亞馬遜在巴林和阿聯的業務也在不停擴張;甲骨文更是和沙烏地阿拉伯政府簽了協議,一起搞雲基礎設施。與此同時,阿聯本土的AI公司G42,正跟幾家美國科技巨頭深度合作,想把阿布扎比搞成全球AI研發的新中心。這些投資不光是商業行為,背後是一盤地緣科技的大棋——誰控制了這個地區的算力,誰就在AI時代的全球版圖上多了一個據點。先說能源。訓練一個大型AI模型,耗電量大到嚇人。一個巨量資料中心的用電量,能頂一座中型城市。而中東有的是便宜的天然氣,發電成本比歐美低得多,在這地方搞資料中心,帳怎麼算都划算。再說資本。沙烏地阿拉伯的主權財富基金PIF、阿布扎比的投資局ADIA、穆巴達拉——這些機構手裡攥著幾兆美元,正拚命往美國科技圈砸錢。有公開資料顯示,光2024到2025年,中東主權基金對美國AI公司和基礎設施的投資就超過了一千億美元。最後是地理位置。中東正好卡在亞、歐、非三洲的交界處,是全球資料傳輸繞不開的樞紐。江學勤在節目裡提了一個細節——阿聯的一個亞馬遜資料中心已經遭到攻擊。這個事很值得琢磨,說明AI基礎設施已經從“旁觀者”變成了戰場上的靶子。石油美元正在換賽道:從油井流進晶片要說清楚美國這一波AI泡沫的錢是從那來的,就得先搞明白一個運轉了快五十年的金融機制——石油美元循環。1974年,美國和沙烏地阿拉伯簽了一份秘密協議:沙烏地阿拉伯賣石油只用美元結算,美國則提供軍事保護。這套安排的厲害之處在於,全球只要有人買石油,就得用美元,而產油國手裡攢下的美元,又通過買美債、投資美國資產的方式流回美國。這個閉環是美元霸權的基石,也是美國能常年借錢不手軟的底氣。沙烏地阿拉伯Neom新城的資料中心(概念圖)但到了2020年代,這個循環裡多了一個新出口——AI。錢是怎麼流過去的?分好幾層。最上面,是沙烏地阿拉伯PIF直接入股美國科技公司和基金,金額動輒百億;中間層,是中東的家族辦公室和二級基金通過矽谷的風投進入早期AI公司;最底層,是石油出口賺來的美元,通過貿易、央行儲備、買美債這些常規管道,不斷給美國的金融市場“補水”。這三層加在一起,就是一條從波斯灣到矽谷的錢道。回頭看看OpenAI那一波波動輒幾百億的估值,輝達兩年翻幾倍的市值,還有科技巨頭們動不動千億等級的AI基建計畫——這些錢從那來?很大一部分,就來自中東。海灣國家的主權財富基金不光直接投資美國的AI公司和晶片企業,還通過買科技股、進私募、投風投,給整個AI生態提供了關鍵的資金支撐。可以說,石油美元正在換跑道,從油井轉向晶片。而美國的AI泡沫,如果這算泡沫的話,正是這條跑道的終點站。換句話說,美國這輪AI繁榮,不光是技術突破堆出來的,也是中東資本持續輸血養出來的。一旦戰爭把這條血管切斷,後果會是系統性的。五萬美元的無人機對上百萬美元的攔截彈從軍事角度,江學勤有一個獨到的觀察:伊朗根本沒打算跟美國正面硬剛,它的打法是用不對稱消耗,拖到美國自己先撐不住。這套帳算得很簡單。伊朗一架自殺式無人機,成本大概五萬美元。美國用來攔它的“愛國者”導彈,一枚就是幾百萬美元。就算打下來了,帳面上也是伊朗贏。而且伊朗為了這一天,準備了二十年。2024年那場所謂的“十二天戰爭”,讓他們摸清了美國和以色列防空體系的套路和軟肋。但比無人機更要命的,是伊朗對海灣基礎設施的打擊能力。江學勤在節目裡點了一個很現實的威脅——伊朗和它的代理人,正在有計畫地瞄準沙烏地阿拉伯、阿聯這些海灣國家的命門,比如石油設施,還有海水淡化廠。他舉了個例子:要是利雅德的淡化水廠被端了,那座上千萬人口的城市,撐不過兩周就會斷水。這可不是紙上談兵,這是幾千萬人活生生的處境。而從資本的角度看,一旦海灣國家的安全出了大問題,外資第一個跑,主權基金也得把錢抽回去搞重建,那流向美國AI的錢,說斷就斷。假如真的打起來,會發生什麼?我們來做個思想實驗。假設明天,波斯灣打起來了。胡塞武裝把曼德海峽一封,伊朗對沙烏地阿拉伯阿美的油井動手,阿聯的資料中心因為安全威脅被迫停擺。然後呢?第一步,能源市場先炸。全球五分之一左右的石油要從荷姆茲海峽走,油價幾天之內就能飆到兩百美元以上。第二步,資本市場跟著崩。海灣主權基金會緊急叫停海外投資,拋美股換現金,華爾街會迎來一場流動性地震。第三步,也是最致命的——AI產業鏈斷了。中東的資料中心關了,資本的管道被切斷,剩下的資料中心因為能源漲價營運成本飆升……美國的AI產業會面臨一場供給和資金兩頭擠的危機。這不是危言聳聽。現在美國AI產業的估值,靠兩個前提撐著:一是資本持續流入,二是算力不停擴張。這兩條都依賴一個穩定的中東。一旦戰爭把這個平衡打碎,泡沫不會慢慢洩氣,而是直接爆掉。輝達的股價、科技巨頭的市值、跟AI掛鉤的債券和衍生品,全得重估。而AI泡沫一旦破了,通過金融系統傳導開,殺傷力可能比2008年的次貸危機還要大。更深的一層,是信心。AI現在估值這麼高,很大程度上靠的是一個故事:人工智慧會改變一切,所以現在砸多少錢都值。這個故事要繼續講下去,就得有源源不斷的錢來撐股價、撐研發、撐擴張。一旦戰爭切斷了一條主輸血線,市場信心的崩塌會比實際損失來得更快。歷史早就演過——2000年網際網路泡沫,2008年次貸危機,都不是因為基本面歸零,而是因為邊際資金撤了,引發恐慌踩踏。AI泡沫要真破,也逃不過這個劇本。既然戰爭後果這麼嚴重,為什麼還會打?江學勤給了三層解釋。第一層是歷史的慣性——“帝國傲慢”。從羅馬到大英,每一個處在權力頂峰的帝國,都容易高估自己,低估對手。美國在阿富汗和伊拉克挨了那麼多教訓,按理說該長記性。但二十年過去,記憶淡了,新一茬決策者正踩著同樣的坑往前走。第二層是利益交換。沙烏地阿拉伯和以色列通過給川普家族——包括他的私募基金和競選活動——輸送了大量資金,換取了美國對伊朗動武的承諾。這種操作把國家級的戰爭決策跟私人的商業利益攪在一起,理性戰略自然讓位給了交易邏輯。第三層最隱秘,也最危險——戰爭本身,可能就是一種政治工具。在美國的憲法框架下,戰爭可以讓總統拿到大量緊急權力,比如限制公民自由、推遲選舉、壓制反對聲音。對一個想鞏固權力的人來說,一場持續的海外衝突,可能是最好用的國內政治工具。結語:演算法背後,是戰火的影子我們現在看到的,是一個前所未有的局面——人工智慧,這項被寄予厚望的技術,它的經濟底盤,竟然如此深地嵌在地緣政治的火藥桶裡。矽谷的工程師在調參,利雅德的王子在簽投資協議,德黑蘭的指揮官在部署無人機,華盛頓的政客在盤算選票和利益——這四件事看似不搭邊,其實早就纏在一起。江學勤的預測會不會全中,誰也說不準。但他點出的那個結構性矛盾是實的:美國的AI繁榮,其實是建在一個很脆的地緣政治平衡上。而那些推著戰爭往前走的力量,正好在拆這個平衡。這就像有人一邊給氣球打氣,一邊拿著針在旁邊比劃——不是會不會爆,而是什麼時候爆。對普通人來說,這意味著什麼呢?意味著你手機裡那個語音助手,你用的搜尋引擎,你每天離不開的那些自動化工具——這些看起來輕飄飄的數字服務,背後連著波斯灣的油輪、沙漠裡的伺服器,還有中東上空的無人機。技術從來不在真空裡,它一直活在權力、資本和戰爭的縫隙裡。我們聊AI的未來,或許也該抬頭看看,那些在頭頂轉的,到底是伺服器的散熱扇,還是戰火的味道。 (科工力量)
DeepMind讓大模型自己寫出多智能體學習新演算法!不靠人類直覺,程式碼級進化直接干翻SOTA
GoogleDeepMind剛剛投下一枚研究炸彈在不完全資訊博弈領域,多智能體強化學習(MARL)的進步,長期以來都高度依賴人類專家手動去煉丹但現在,這個極度依賴人類直覺的瓶頸被打破了。GoogleDeepMind團隊利用AlphaEvolve(基於 Gemini 的編碼代理,用於設計高級演算法),無需手動調整,無需反覆試驗,無需人類直覺,硬生生從原始碼層面進化出了全新的學習演算法,一舉擊敗了現有的最優基線演算法。AlphaEvolve 將演算法原始碼視為基因組:→ LLM 充當變異引擎→ 提出語義上有意義的程式碼變更→ 在真實遊戲基準測試中自動評估適配度→ 保留優勝者,進一步進化在11項遊戲測試中,VAD-CFR演算法有10項超越當前所有頂尖基準模型。SHOR-PSRO求解器完勝納什均衡、AlphaRank及PRD等傳統解法paper:https://arxiv.org/pdf/2602.16928以下是論文中的一些值得探討的點:讓大模型當"基因操作員”傳統的機器學習自動化發現,要麼侷限於超參數最佳化,要麼採用隨機語法的遺傳程式設計。而DeepMind這次使用的方法更加硬核——把演算法的Python原始碼本身當作“基因組”。整個框架由Gemini大模型作為底層支撐,運行流程非常直接:首先初始化一個種群,裡面裝滿標準基線演算法的原始碼(比如標準CFR程式碼或均勻PSRO程式碼)。接著,系統根據適應度選出父代演算法,直接把程式碼喂給大模型,要求它修改程式碼以降低“可剝削性”(Exploitability,衡量策略漏洞的指標)。大模型像一個聰明的基因操作員,對程式碼進行語義等級的變異,重寫邏輯、引入新的控制流或注入新的符號操作,生成候選變體。最後,系統在代理遊戲(如庫恩撲克)中自動評估這些新程式碼,表現好的加入種群,循環往復。通過這種方式,大模型跳出了簡單的參數微調,直接在程式碼邏輯層面發現了人類很難想到的全新機制。團隊將這一框架應用在了兩大主流不完全資訊博弈求解範式上,並取得了驚豔的成果。突破一:發現VAD-CFR演算法,干翻預測CFR+在迭代遺憾最小化領域,團隊開放了累積遺憾和推導當前策略的核心程式碼邏輯讓大模型去進化。作為種群種子的CFR+演算法,經過多代繁衍,最終進化出了一個名為VAD-CFR(波動自適應折扣CFR)的新變體。在面對Discounted CFR、預測CFR+(PCFR+)乃至最新的DPCFR+等一眾頂級基線時,VAD-CFR展現出了極強的統治力,特別是在3人庫恩撲克、3人萊杜克撲克和5張牌的各種遊戲中,其收斂速度和極低的可剝削性遠超對手。大模型到底在程式碼裡寫了什麼神奇邏輯?研究人員分析VAD-CFR的原始碼後,發現了三個極具反直覺的創新機制:波動自適應折扣: 傳統演算法(如DCFR)對歷史遺憾值採用的是固定折扣因子。而VAD-CFR是動態反應的,它會通過指數加權移動平均線即時追蹤瞬時遺憾的“波動率”。當策略處於劇烈動盪期(波動率高)時,演算法會自動加大折扣力度,快速遺忘不穩定的歷史;當學習趨於穩定時,則保留更多歷史進行微調。非對稱瞬時提升: 以前的演算法通常對累積歷史做非對稱處理,而VAD-CFR直接對當前的瞬時更新下手。如果某個動作當前表現很好(瞬時遺憾為正),演算法會直接給它乘上1.1的提升因子,實現對有利偏差的即時利用,完全消除了累積帶來的滯後感。硬熱啟動與遺憾幅度加權: 傳統CFR從第一輪就開始平均策略,而VAD-CFR極其果斷地實施了“硬熱啟動”,在第500輪之前絕對不進行策略平均,只在底層默默更新遺憾。一旦開始平均,它不按線性時間加權,而是按瞬時遺憾的幅度加權。這個機制像一個高級過濾器,徹底阻斷了早期學習噪聲對最終均衡解的污染。突破二:發現SHOR-PSRO,破解種群訓練難題在針對大型博弈的PSRO演算法領域,痛點在於如何平衡探索(擴大遊戲圖)和利用(微調均衡)。標準PSRO通常使用固定的元求解器(比如一直用Nash或一直用Uniform),很難適應訓練中不斷變化的經驗遊戲拓撲結構。大模型針對PSRO的訓練時和評估時元求解器程式碼進行了進化,最終誕生了SHOR-PSRO(平滑混合樂觀遺憾PSRO)。在極其複雜的6面騙子骰子等多智能體動態環境中,面對PRD、AlphaRank等主流元求解器,SHOR-PSRO展現出了卓越的經驗收斂性和極強的演算法魯棒性。拆解SHOR-PSRO的程式碼,核心亮點在於它實現了一個完美的動態時間表:混合融合機制: 在每次求解器內部迭代時,它會將兩種策略線性混合:一部分是保證穩定性的樂觀遺憾匹配(ORM),另一部分是極具侵略性、傾向於高回報模式的平滑最佳純策略(受溫度參數控制的玻爾茲曼分佈)。動態退火時間表: 混合比例不是固定的。在PSRO的迭代過程中,大模型寫出的程式碼會自動讓混合因子從0.3退火到0.05,自動實現了從早期貪婪利用到後期嚴格尋找均衡的平滑過渡。同時,對收益附加的“多樣性獎勵”也會隨時間衰減,確保早期擴充博弈圖,後期精細化收斂。訓練與評估的非對稱性: 大模型極其聰明地為訓練和評估設計了不同的配置。訓練求解器使用動態退火並返回內部迭代的平均策略以確保穩定;而評估求解器則採用固定的極低混合因子,並返回最後一次迭代的策略。這種解耦讓演算法在訓練時安全探索,在評估時又能提供低噪聲、高反應速度的結果。DeepMind的這項研究證明,自動化發現的演算法非對稱性和動態混合時間表,能夠產生人類直覺難以捕捉但極其高效的求解器。未來,博弈論求解器的設計,或許將全面走向人類智慧與AI自動化洞察相融合的新時代 (AI寒武紀)
TikTok美國方案落地
短影片巨頭Tiktok美國業務方案正式落地。1月23日,記者獲悉,TikTok發佈公告:已成立TikTok美國資料安全合資有限責任公司(TikTok USDS Joint Venture LLC)。該合資公司將負責TikTok美國的資料保護、演算法安全、內容稽核及軟體保障。去年12月18日,TikTok CEO周受資曾發出內部信,更新TikTok美國業務進展。內部信稱:字節跳動、TikTok已與三家投資者簽署協議,並將成立新的TikTok美國合資公司。新合資公司名為TikTok美國資料安全合資有限責任公司( TikTok USDS Joint Venture LLC),將負責美國的資料保護、演算法安全、內容稽核和軟體保障。由字節跳動全資控股的、TikTok在美國的其他實體將繼續負責電商、廣告、市場營運等商業活動,以及TikTok產品的全球互聯互通。此前媒體報導,字節跳動會繼續擁有TikTok演算法的智慧財產權,授權新合資公司使用,並向後者收取授權費。23日的公告也意味著TikTok美國方案正式落地,超過2億美國使用者能夠繼續使用TikTok。公告提到,TikTok美國資料安全合資公司中,甲⻣⽂、銀湖資本、MGX各持股15%。其他投資⽅包括海納國際集團關聯企業Vastmere戰略投資有限責任公司、Alpha Wave Partners等多家企業。其中,字節跳動保留19.9%的股份,據瞭解仍為合資公司最大單一股東。合資公司還將由一個七人組成的董事會管理,董事會成員包括TikTok CEO周受資等。值得注意的是,電商、廣告、市場營運等商業活動是TikTok的主要收入來源,仍將由字節跳動全資控股的TikTok美國公司等實體負責。新合資公司負責的資料、內容安全等業務為非營利性質,且營運成本很高。為保障合資公司營運,上述主體間會有商業上合理的收入分享安排。在新投資者的具體身份方面,公開資料顯示,甲骨文公司是美國最大的資料中心營運商之一,此前已經被指定為TikTok美國資料首要託管方,所有美國使用者資料將儲存在本土雲基礎設施中,甲骨文須嚴格遵守美國聯邦風險和授權管理規定(FedRAMP)安全標準。銀湖資本是全球知名的投資公司,主要聚焦技術公司的投資。在中國,銀湖的早期投資項目包括螞蟻集團、商湯科技等;MGX為阿聯阿布扎比加速AI佈局而成立,已經在全球範圍內廣泛投資科技項目,此前阿布扎比在2024年1月頒布法律,成立人工智慧和先進技術委員會(AIATC)。當地時間2024年3月11日,人工智慧和先進技術委員會宣佈成立技術投資公司MGX,推動部署前沿技術。據業內人士向記者表示,從公告顯示公司架構、業務劃分看,TikTok美國方案與蘋果公司在中國的“雲上貴州”營運方式極為相似。公開資訊顯示,2018年起,蘋果公司委託貴州省國資委控股的“雲上貴州”營運中國市場的iCloud服務,iCloud中國使用者資料均儲存於中國境內。但蘋果公司未參股“雲上貴州”的業務主體“雲上艾珀(貴州)技術有限公司”。去年12月25日,商務部新聞發言人何詠前在回答關於TikTok將在美成立合資公司的有關提問時說,中國政府希望企業達成符合中國法律法規、利益平衡的解決方案。何詠前表示,為落實中美兩國元首通話重要共識,此前雙方經貿團隊在相互尊重、平等協商基礎上,就以合作方式妥善解決TikTok等問題達成基本框架共識。希望美方與中方相向而行,切實履行相應承諾,為中國企業在美持續穩定營運提供公平、開放、透明和非歧視的營商環境,推動中美經貿關係穩定、健康、可持續發展。 (華商報)
TikTok守住了演算法“靈魂”,更握緊了“錢袋子”
靴子終於落地了。2026年1月23日,在經歷了長達六年的拉鋸、數輪法庭激辯,以及全美1.7億使用者漫長的等待後,TikTok美國業務的命運拼圖,拼上了最後一塊。TikTok發佈公告稱,已成立TikTok美國資料安全合資有限責任公司(TikTok USDS Joint Venture LLC)。該合資公司將負責TikTok美國的資料保護、演算法安全、內容稽核及軟體保障。據此前媒體報導,字節跳動會繼續擁有TikTok演算法的智慧財產權,並授權該合資公司使用。公告同時提到,TikTok在美國的商業營運實體將負責電商、廣告、市場行銷等商業活動以及TikTok全球產品的互聯互通。據瞭解,該實體仍由字節跳動全資控股。上述公司業務安排,意味著TikTok美國方案正式落地,超過2億美國使用者能夠繼續使用TikTok。相關公司的設立及業務劃分,與此前國內媒體披露的方案一致。沒有外界猜測的“玉石俱焚”,也沒有倉皇離場。簡單的說:超過2億美國使用者保住了他們的APP,而字節跳動保住了它的所有權。這不僅僅是一次百億美金等級的交易,更像是一場教科書式的“絕地求生”。在看似退讓的架構背後,藏著字節跳動極其老辣的三個戰略伏筆。19.9%的股份:不只是面子,更是“釘子”很多人看到新聞的第一反應是:字節跳動失去了控股權?別被表面的數字騙了。在新成立的合資公司中,字節跳動保留了19.9%的股份。這個數字並非隨機設定,而是美國法律允許非美資本在敏感科技實體中持有的最高上限。這意味著,在合規允許的極限範圍內,字節跳動並沒有離場,而是選擇了 “頂格持有”。通過持有這部分股權,字節跳動確保了自己作為“創始股東”的合法地位。只要持有股份,字節跳動就能繼續通過分紅等方式,實質性地分享TikTok在美國市場的商業收益與未來增長。 這種安排,是在現有監管環境下,最大程度保障自身經濟利益的務實選擇。演算法所有權:只租不賣,守住“靈魂”如果說股權是面子,那麼演算法IP(智慧財產權)就是裡子。這也是整場博弈中最關鍵的底線:字節跳動沒有交出程式碼。根據協議,字節跳動依然完整擁有TikTok核心演算法的所有權。新公司將通過“授權許可”的方式,從字節跳動手中租用演算法。而甲骨文等美方投資者負責的是什麼呢?是對演算法在美境內的安全運行環境進行“隔離”和“重新訓練”。打個通俗的比方:字節跳動就像那家擁有獨門秘方的火鍋店。為了在美國開分店,它同意把配好的底料(模型)直接運過去,甚至允許合夥人(甲骨文等)拿著顯微鏡化驗底料安不安全。合夥人可以負責端盤子、搞服務,但這鍋湯到底是怎麼熬出來的?對不起,這是商業機密,恕不外傳。這一安排不僅巧妙規避了技術出口管制的問題,更向世界證明了一件事:TikTok之所以讓全世界著迷,是因為它擁有不可替代的中國技術底座。華爾街眾星捧月:用真金白銀投票看看這次入場的投資者名單,簡直是華爾街與科技圈的“全明星陣容”:甲骨文(Oracle):資料庫巨頭,創始人拉里·埃裡森(Larry Ellison)親自背書;銀湖資本(Silver Lake):全球頂級私募,科技投資的風向標;MGX:來自中東的資本新貴,代表著全球主權財富基金的意志。 甚至連邁克爾·戴爾(Michael Dell)等科技大佬的個人基金也參與其中。為什麼這些“資本巨鱷”們在TikTok面臨巨大政治風險時,依然爭相入局?理由很現實:TikTok太賺錢了,它的流量統治力太強了。這些頂級機構的入場,本質上是在為字節跳動的技術實力背書。他們是在搶一張通往未來的船票。營運權分治:讓該賺錢的繼續賺錢很多人擔心,分家之後TikTok是不是就跟字節跳動沒關係了?恰恰相反。根據TiKTok公告和首席執行長周受資(Shou Chew)此前發佈的內部信,雖然資料安全、合規稽核交給了新的合資公司,但TikTok最核心的“商業變現”業務——全球電商(TikTok Shop)、廣告系統以及市場行銷,依然將與字節跳動的全球體系保持高度協同。這意味著:中國賣家的機會沒丟: TikTok Shop的底層邏輯依然穩固,跨境出海的大門依然敞開;全球化協同沒斷: 美國業務雖然在法律上獨立,但在產品體驗和商業生態上,依然是TikTok全球大拼圖中的關鍵一環。字節跳動通過這種“資料隔離、商業互通”的模式,最大限度地保護了其全球業務的完整性。寫在最後回望過去六年,從川普第一任期的封禁令,到拜登時代的聽證會,TikTok幾乎把一個中國出海企業能踩的雷都踩了一遍。今天這個方案,或許帶有妥協的痕跡,但絕對是當下的最優解。它保住了1.7億美國使用者的創作樂園,保住了數百萬創作者的生計,更重要的是,它證明了一件事:真正硬核的技術,是有能力跨越山海、甚至跨越政治偏見的。這不叫倖存,這叫重生。 (網易科技)