GoogleDeepMind剛剛又往前拱了一大步,宣佈推出 AlphaEvolve智能體 ,目標直指更上游,用於通用演算法的設計發現和最佳化
簡單說,AlphaEvolve就像個AI界的“演算法育種大師”。它把自家Gemini大模型(Gemini Flash負責廣撒網,洞察力強的Gemini Pro負責深挖)和一套“自動化考官”(負責驗證演算法靠不靠譜、效率高不高)結合起來,再套上一個“進化論”的框架,讓好演算法能一代更比一代強
AlphaEvolve工作流程:工程師設定框架,AI通過“提示採樣器”給LLM喂招,LLM出新招(程序),“考官”打分,好招進“兵器譜”,並用來啟發下一輪出招。
去年DeepMind就秀過肌肉,證明LLM能生成程式碼函數來搞定科學問題。但AlphaEvolve的野心是進化一整個程式碼體系,去啃那些更複雜的演算法硬骨頭。
AlphaEvolve已經在Google的多個核心業務裡默默發光發熱了:
1.改善資料中心調度:
AlphaEvolve給Google龐大的資料中心Borg系統發現了一種簡單卻極其有效的啟髮式方法。這套方案上線一年多,平均給Google全球計算資源摳回了0.7%的算力
2.設計晶片 (TPU Circuit Design):
在Google的AI晶片TPU設計中,AlphaEvolve直接上手改起了Verilog(晶片設計語言)。它最佳化了一個矩陣乘法關鍵電路,去掉了冗餘。改動通過了嚴格的“體檢”,確認功能沒問題,已經被用在了下一代TPU裡
3.給AI訓練和推理再提提速:
AlphaEvolve找到了更巧妙的方法來拆解大矩陣乘法,讓Gemini架構裡的這個核心“零部件”快了23%,最終給Gemini模型的訓練省了1%的時間。對大模型訓練這種“吞金獸”來說,1%也是肉。工程師們也從幾周的苦哈哈最佳化,變成了幾天的自動化實驗,能更快搞創新了
它甚至還能最佳化底層的GPU指令。對於Transformer模型裡常用的FlashAttention,AlphaEvolve給整出了最高32.5%的加速。這塊通常是編譯器啃的硬骨頭,人一般不輕易動
AlphaEvolve的目標不只是最佳化現有系統,它還想在更基礎的數學和演算法發現上取得突破:
矩陣乘法新演算法:
給定一個基礎程式碼框架,AlphaEvolve設計出了一種新穎的基於梯度的最佳化過程,發現了多個矩陣乘法新演算法。例如,它找到了一個用48次標量乘法計算4x4複數矩陣乘積的演算法,優於自1969年以來已知的Strassen演算法。這比DeepMind之前的AlphaTensor(專攻矩陣乘法,但對4x4矩陣只在二元算術上找到改進)又進了一步
攻克公開數學難題:
DeepMind用AlphaEvolve嘗試了超過50個來自數學分析、幾何、組合學和數論的公開問題,在約 75% 的案例中,它重新發現了當前已知的最優解。在約20%的案例中,它改進了已知的最優解!
例如,在困擾了數學家300多年的“接吻數問題”(Kissing Number Problem,即一個中心球最多能同時接觸多少個不重疊的等大球體)上,AlphaEvolve在11維空間中發現了一個包含593個外層球的構型,刷新了該維度下的已知下界
對數學成果感興趣的,DeepMind也放了些結果在Google Colab上,地址:
https://colab.research.google.com/github/google-deepmind/alphaevolve_results/blob/master/mathematical_results.ipynb
大語言模型的編碼能力還在進化,AlphaEvolve也會跟著變強。Google目前推出了早期試用計畫,先給學術圈的朋友們嘗嘗鮮,想嘗鮮的可以去DeepMind官網填個表
https://docs.google.com/forms/d/e/1FAIpQLSfaLUgKtUOJWdQtyLNAYb3KAkABAlKDmZoIqPbHtwmy3YXlCg/viewform (AI寒武紀)