#Flash
【MWC 2026】全網最全:AI 徹底變天!中國軍團殺瘋全球!OpenClaw 屠榜封神!
最硬核現場!MWC 被中國 AI 霸屏,機器人手機、人形機器人炸場2026 世界移動通訊大會(MWC)在巴塞隆納啟幕,恰逢落地 20 周年,以智能新紀元為主題,匯聚全球 2900 余家企業。展會聚焦 AI 與通訊深度融合,覆蓋 5G-A、6G、算力網路、衛星通訊、具身智能等前沿方向,是全球科技與產業的風向標。本屆展會看點密集、技術密集,深科技(deeptek)為你逐一拆解核心趨勢與重磅成果。01 開場炸:MWC 變中國主場!AI 從 “陪聊” 直接跳去 “幹活”2026 開年第一炸,不在矽谷,不在紐約,直接砸在西班牙巴塞隆納 ——MWC 2026 徹底被中國科技軍團包場。350 家中國企業擠爆展館,中文比西班牙語還高頻,老外排隊三小時就為摸一下中國 AI 手機、中國機器人、中國大模型。行業共識一夜改寫:AI 不再是聊天耍帥的花瓶,而是能動手幹活的工具人。從語音對話到自主操作裝置、跨 APP 執行、長鏈推理、自動完成複雜任務,2026 就是 AI 從 “聽懂” 到 “動手” 的元年。中國廠商不玩虛的,直接把未來端到全球面前,這波出海不是參展,是降維碾壓。02 OpenClaw 封神!GitHub 史上最瘋項目,中國模型殺穿榜單本屆最大黑馬不是手機,不是晶片,是OpenClaw—— 一個能直接操控你電腦的 AI Agent 神器。全球開發者集體瘋狂,卡帕西盛讚 “科幻級爆發”,直接登頂 GitHub 史上最受歡迎開放原始碼專案。簡單說:你說一句話,它幫你點滑鼠、敲鍵盤、跑程式碼、做表格、干雜活,全自動不廢話。誰能喂飽 OpenClaw,誰就是下一代 AI 王者。結果呢?中國模型直接屠榜。03 階躍星辰殺瘋!Step 3.5 Flash 碾壓 GPT/Gemini,海外開發者跪服3 月 2 日當天,階躍星辰 Step 3.5 Flash 單日呼叫破 40B,OpenClaw 呼叫榜全球第二。干翻誰了?Kimi K2.5、Gemini 3 Flash、Claude Sonnet 4.5……全是國際頂流。海外開發者用腳投票:這才是 Agent 時代該有的模型。硬核邏輯不講虛:1960 億總參數,每次只啟動 110 億,速度狂飆 350token/s消費級 128GB 就能跑,MacBook 直接起飛推理強、成本低、長任務穩到離譜老外直呼:中國模型才是 OpenClaw 真命天子。04 徹底開源殺招!階躍星辰把家底全甩出來,行業看傻更炸的是:別家開源遮遮掩掩,階躍星辰直接Base 權重 + Midtrain 權重 + Steptron 框架一次性全開源。開發者要啥給啥,隨便二開、隨便微調、隨便造自己的 Agent。在全球大模型開源越來越保守的今天,這波操作等於把通往未來的鑰匙直接塞給全世界。Reddit、LocalLLaMA 直接炸版,CTO 深夜線上答疑,中國技術團隊第一次成為全球開發者的 “精神領袖”。一句話:不是讓開發者適配模型,是模型跪下來適配開發者。05 手機徹底變異!榮耀機器人手機火到西班牙國王親自打卡手機圈十年死水,今年直接物種大爆炸。榮耀甩出王炸:全球首款可量產機器人手機 ROBOT PHONE。攝影機自帶 “脖子”,四自由度雲台,會轉頭、會跟拍、會點頭、會隨音樂跳舞。西班牙國王駐足看呆,這那裡是手機,是裝在口袋裡的機器人。榮耀直接喊出:打破黑色方塊,給手機加大腦、加手腳。AI 手機的終點,不是更聰明的助手,是擁有身體的智能生命。06 豆包殺瘋!中興努比亞 AI 手機,一句話全自動跨 APP 幹活字節跳動豆包聯手努比亞,直接把AI 原生手機帶到 MWC。不用點、不用切、不用手動操作,喊一聲:幫我發朋友圈 + 配文幫我全平台比價下單幫我點外賣AI 自動跨 APP 跑完所有流程,你只負責張嘴和確認。蘋果 Apple Intelligence 還在畫餅,中國廠商已經把體驗做滿。老外上手直接震驚:這才是 2026 年的手機。07 具身智能狂歡!中國人形機器人佔領展館,會打架會幹活MWC 六號館直接變成中國機器人閱兵場。智元機器人:全系列人形 + 四足 + 靈巧手,迎賓、搬運、工業通吃宇樹科技:機器狗載人、人形機器人現場 “搏鬥”魔法原子:機器貓熊、全尺寸人形炸場中國具身智能不再是實驗室玩具,能跑、能扛、能合作、能落地。目標很明確:搶歐洲市場,做全球夥伴。這波不是秀肌肉,是把未來生產力直接擺上貨架。08 網路革命!華為 AI 原生網路 + 靈衢匯流排,硬剛流量海嘯GSMA 主席潑冷水:AI 流量海嘯要壓垮網路。華為直接正面硬剛:別加寬管道,給管道裝大腦。AI-Centric Network,讓網路自己懂你、自動調度、自動開綠色通道。更狠的是靈衢 UnifiedBus:萬卡協同像一顆大腦,打破輝達算力壟斷。Atlas 950 SuperPoD 海外首秀,訓練 + 推理全端通殺。6G 前夜提前開戰,U6GHz 頻段卡位,中國廠商直接定義下一代網路。09 三大營運商亮劍!6G + 智算 + 全球生態,中國方案統治未來中國移動:5G-A 超級上行 + 百 T 級智算路由,算力效率拉滿 98%中國聯通:九大行業一站式出海方案,歐洲、東南亞遍地開花中國電信:聯手智元發佈6G + 四足機器人,把邊界從 3% 陸地擴到全域不再是管道商,是智能時代的架構師。雲 - 網 - 邊 - 端全鏈路打通,中國算力網直接走向世界。10 終局炸:2026 AI 分水嶺!中國從陪跑變領跑,全行業顫抖2025 是國產模型爆發年,2026 是中國 AI 統治年。大模型:階躍星辰在 OpenClaw 屠榜,中國開源征服全球開發者終端:機器人手機、AI 眼鏡、模組化硬體全面變異機器人:具身智能叢集出海,硬體 + 演算法雙殺網路:AI 原生 + 6G 卡位,重新定義通訊底層行業鐵律變了:不再比誰參數大,比誰能落地、能幹活、能普惠、能走進普通人生活。中國廠商走了一條最難、但最正確的路:用應用牽引技術,用落地定義未來。MWC 2026 已經說明一切:AI 的下一個時代,主場在中國。11、MWC 2026 核心公司總結一、AI 大模型 & 智能體(Agent)階躍星辰Step 3.5 Flash 開源模型在 OpenClaw 呼叫榜全球第二,單日呼叫超 40B架構:稀疏 MoE,總參數量 1960 億,每 token 啟動約 110 億速度:單請求程式碼類最高 350 token/s開源:Base 權重、Midtrain 權重、Steptron 訓練框架全開源定位:主打智能密度、推理速度、Agent 能力,面向 “讓 AI 幹活”字節跳動・豆包 AI與中興 / 努比亞合作推出豆包 AI 手機(海外首秀)功能:一句話語音指令,自動跨 APP 完成點外賣、發社交平台等定位:系統級 AI 助手,從 “陪聊” 走向自動執行阿里・千問發佈千問 AI 眼鏡,售價 1997 元,即將開售支援即時翻譯、語音助手、地圖、支付、識圖等後續將推出AI 指環、AI 耳機,打造軟硬一體 AI 入口小米・MiMo自研大模型躋身全球開源第一梯隊支撐人車家全生態:手機、汽車、智能家居全域協同推出全屋智能系統 Miloco:可自動感知、決策、調度裝置(如自動叫掃地機器人)二、手機終端創新榮耀全球首款機器人手機 Robot Phone:4DoF 雲台攝影機,可自動跟拍、點頭、律動首款消費級人形機器人,可跳舞、後空翻折疊屏 Magic V6 旗艦發佈vivoX300 Ultra 海外首秀全球首發 400mm 蔡司增距鏡,專業影像向 “生產工具” 升級中興 / 努比亞努比亞 M153 搭載豆包 AI 手機助手發佈 AI 情感寵物 iMoochi,主打治癒陪伴傳音(Tecno)4.9mm 超薄模組化磁吸手機,可外接鏡頭、電池、手把等模組聯想模組化 AI PC、AI Workmate 陪伴機器人捲軸屏筆記本、折疊掌機小米徠卡手機 LeitzphoneVision Gran Turismo 概念超跑三、人形機器人 & 具身智能智元機器人(AGIBOT)A2、X2、G2、D1 全系列機器人面向零售、製造、物流,主打 “能幹活”展示 6G + 四足機器人 方案宇樹科技G1 人形機器人,高動態對抗、抗摔、運動控制強魔法原子GEN1 全尺寸人形、MagicBot、MagicDog 四足機器人四、通訊 & 網路 & 6G華為AI-Centric Network(以 AI 為中心的網路)發佈 U6GHz 全場景產品,5G-A 向 6G 平滑過渡超節點 Atlas 950 SuperPoD,支援 8192 卡 高速互聯靈衢(UnifiedBus)高速互聯匯流排A2A-T 智能體互動協議開源中興通訊AIR MAX 面向 AI 時代的網路架構全球首個 U6G 6G GigaMIMO 原型首發 Wi-Fi 8 Mesh 方案Co-Sight 工業級智能體工廠高通成立 6G 聯盟,路線圖:2028 預商用,2029 商用X105 5G 數據機,支援 6G 標準可穿戴晶片支援本地運行 20 億參數 模型愛立信6G 原型、MRSS 5G/6G 頻譜共享AI Native Network、可程式設計網路諾基亞AI-RAN 與輝達合作自智網路、雲化基站三大營運商中國移動:5G-A 超級上行、百 T 級智算互聯裝置中國電信:量子通訊、衛星通訊、低空經濟中國聯通:算網、低空智聯、空天地一體化五、晶片 & 算力 & 儲存紫光展銳:eSIM + 基帶方案江波龍:AI 眼鏡、端側 AI 儲存聯發科:6G 互通方案、Wi-Fi 8、AI 眼鏡平台AMD:銳龍 AI PRO 400 系列六、深圳企業軍團(70+ 家)榮耀、華為、中興、傳音、TCL雷鳥創新:AR 眼鏡與德國電信合作領益智造:機器人核心部件(減速器、絲槓)時空壺:AI 同傳翻譯耳機七、本屆核心趨勢總結AI 從 “聊天” 轉向 “幹活”:Agent、具身智能、自動執行成主流終端形態革命:機器人手機、模組化、雲台手機、AI 眼鏡爆發網路 AI 原生化:從 5G-A 走向 6G,網路本身變智能中國廠商全球領跑:350 家參展,AI + 硬體 + 通訊全面出海開源大模型崛起:中國模型成為全球開發者首選 (深科技)
Nano Banana 2,洩露!
Nano Banana 2洩露證據被扒:4K生圖,速度離譜。智東西2月25日報導,過去48小時,Nano Banana 2成為AI開發者圈的熱議話題。在海外社交平台X上,關於Google這款最新圖片生成模型(又名Gemini 3.1 Flash Image預覽版)將發佈的帖子層出不窮,4K圖片四處流傳,各種猜測也甚囂塵上。▲社交平台X上關於Nano Banana 2的猜測擷取眾所周知,基於Gemini 3 Pro的Nano Banana Pro在AI圖片生成領域接近“封神”的存在,而Nano Banana(Gemini 2.5 Flash Image的暱稱)去年發佈時也引起業界沸騰。如果Nano Banana 2真的發佈,其相對於Nano Banana Pro在性能和價格上會有多大程度的升級?引起產業高度關注。根據X平台多方自媒體互證,Nano Banana 2為Gemini 3.1 Flash Image預覽版的暱稱,具備4K圖像生成能力、更快速度、價格比Nano Banana Pro更低等特徵。此前2月20日,Google發佈其新一代旗艦模型Gemini 3.1 Pro,通常情況下,Gemini 3.1 Flash及圖像功能有望在近期內發佈。TestingCatalog News是AI領域關注者較多的自媒體,其在今日的推文中稱,Google正在為即將發佈的Gemini 3.1 Flash鏡像預覽版做準備。基於Gemini 3 Flash的Nano Banana 2(Flash)模型已於去年12月進行了測試,但隨後推遲發佈了,或許很快將發佈。他還隨之發佈了一張疑似Nano Banana 2生成的圖片。▲社交平台X上的自媒體發文他引用了另一位X平台網友MarsEverythingTech在2月24日發佈的推文,推文中Nano Banana 2(Gemini 3.1 Flash Image預覽版)的早期測試4K生成圖隨之流出。如下面圖片所示,四張圖片在細節生成和文字渲染等方面看起來表現力不錯。▲社交平台X上的網友發文隨後,一位名為Legit的關注度頗高的開發者發佈推文稱,一個新的匿名模型anon-bob-2已經上線,它很可能是競技場Arena.ai(原LMArena)上的新款Nano Banana Flash模型,由Gemini 3.1 Flash Image驅動。不過智東西登陸Arena.ai後未發現這一模型,可能是測試版已下線。▲社交平台X上的網友發文他還提供了在Google雲的企業級AI平台Vertex AI網站上,發現Gemini 3.1 Flash Image鏡像的證據。如下圖所示,其輸入Gemini-3後下拉頁面出現了Gemini 3.1 Flash Image模型的名字。▲社交平台X上的網友發文另一位X平台使用者稱:“Nano Banana 2(Gemini 3.1 Flash Image預覽版)已以匿名使用者anon-bob-2的身份活躍於競技場Arena.ai的圖像對戰模式,社區目前取得的成果之一:它很棒!”▲社交平台X上的網友發文如果洩露資訊屬實,Nano Banana 2或許會結合前兩代產品的優勢: Flash系列的速度和價格優勢,以及接近或優於 Nano Banana Pro的視覺質量。比如,其生成圖像或許會具備原生4K解析度、更出色的多角色場景處理能力,以及在人體結構、反射、光照等方面更一致的細節表現。據測試人員稱,所有這些都實現了閃電般的生成速度,遠超以速度慢著稱的Pro版。據Stable Diffusion部落格推測,原定於2025年12月進行的(Nano Banana 2)內部測試因質量校準問題而被推遲。現在模型已準備就緒,圖像功能可能就在未來幾天或幾周內發佈。截至發稿,Google尚未就此發佈任何官方公告。結語:頭部玩家密集發新AI圖像生成競賽或升級如果洩露的資訊屬實,Nano Banana 2或許會是一款超高速、支援4K圖像生成、價格比Nano Banana Pro版更低,畫質卻與之不相上下的模型,有望引起產業的新熱潮。但Nano Banana 2未必能建立起絕對的優勢。近一段時間,字節Seedream 5.0、阿里Qwen-Image-2.0、智譜GLM-Image等國產模型相繼發佈,在指令遵循、影像品質、文字渲染等發麵發力,或許都能夠與Google新圖像模型掰腕子,AI圖像生成競賽將再度升級。 (智東西)
🎯股價越漲越安全?AI時代的投資邏輯已改寫!Line@連結:https://lin.ee/mua8YUP🎯台積電直衝2000元!還被證交所列注意股警示短線急漲有震盪機會但是仍無法改變強多的趨勢這一波不是投機行情是三股力量同時爆發:⚡資金回流⚡庫存回補⚡AI算力大爆發由輝達點火、台積電壓陣的AI大共振,正在重寫財富分配規則。🚀戰場已轉移:算力→傳輸革命過去AI拼晶片現在拼的是「資料怎麼送」CPO(共同封裝光學)從選配→剛需代表一件事:👉傳輸速度不夠,AI就跑不動👉光時代正式來臨當技術變成「非它不可」,爆發就只是時間問題💰兩大財富引擎正在啟動①CPO=幾何級數成長不是線性成長,是跳級成長800G→1.6T →更高速產值直接翻倍跳。Marvell、英特爾全面卡位2026=矽光子量產元年這不是趨勢,是產業升級②記憶體=最強防護罩AI伺服器搶走HBM產能→傳統DRAM、Flash供給被排擠→缺口=價格支撐只要缺口存在回檔=上車機會低本益比+供需失衡就是最硬的護城河📈市場正在告訴你一件事外資狂掃法人回補老AI股重新啟動這不叫過熱這叫「主升段暖身」別忘了:✔工業革命從不等人✔最大行情都在懷疑中誕生✔真正的財富,來自看懂結構轉變AI的光才剛亮!行情,才剛開始!短線急漲有震盪機會但是仍無法改變AI強多的趨勢🔴接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
NOR FLASH火了
快閃記憶體包括NOR Flash(或非快閃記憶體)和NAND Flash(與非快閃記憶體),其中NAND Flash佔據快閃記憶體市場95%以上份額。NOR Flash(或非快閃記憶體)憑藉獨特的技術特性,在工業、汽車等專業領域佔據一席之地。作為非易失快閃記憶體的兩大核心技術路徑之一,NOR Flash歷經數十年發展,在物聯網、汽車電子、AI伺服器等新興場景的驅動下,正從“小眾利基市場”邁向“高成長賽道”。而在這一浪潮中,本土MCU企業的佈局尤為關鍵。以中微半導為代表的本土企業,正憑藉MCU賽道的技術與客戶優勢,加速切入這一高成長領域,推動NOR Flash從“小眾剛需”向“規模化應用”邁進。01什麼是NOR Flash?NOR Flash的發展始於上世紀80年代,1988年相關技術率先由東芝的富士雄研發,後經Intel推動產業化,徹底打破了此前EPROM(Erasable Programmable Read-Only-Memory,電可程式設計序唯讀儲存器)和EEPROM(Electrically Erasable Programmable Read - Only Memory,電可擦唯讀儲存器)一統唯讀儲存器市場的格局。緊隨其後的1989年,東芝推出NAND Flash,二者形成鮮明互補:NOR側重程式碼儲存,而NAND Flash以高儲存密度、低成本為優勢,主導大容量資料儲存。NOR Flash的特點是採用平行定址結構,晶片內執行(XIP,eXecute In Place),這樣應用程式可以直接在快閃記憶體內運行,無需載入至系統RAM,且具備長資料保留時間、耐熱、低功耗、擦寫壽命長(約10萬次)等特性。儘管其儲存密度低、單位容量成本高,寫入與擦除速度較慢,但在小容量、高可靠性、快速響應的場景中具有不可替代性,早期主要應用於功能機等裝置的韌體儲存,如今已逐步拓展至更廣泛的專業領域。而NAND 由於具備極高的儲存單元密度,可實現高儲存密度,且寫入、擦除速度表現優異;其落地應用的的困難在於需要配套專用的系統介面完成快閃記憶體的高效管理。讀寫性能上,NOR 的讀取速度略優於 NAND,而 NAND 的寫入速度則遠勝 NOR。02多領域需求驅動NOR Flash量價齊升隨著物聯網、汽車電子、人工智慧等產業的快速發展,NOR Flash的應用場景持續拓寬,市場需求迎來爆發式增長,推動其從細分領域走向規模化應用。在物聯網與AIoT領域,MCU(微控製器)的應用也越來越廣。早期MCU通過內建EEPROM或外接小容量NOR Flash即可滿足需求,但隨著智能裝置功能不斷豐富,系統升級、音訊儲存、GUI圖片顯示、視訊快取、協議棧等需求催生了更大容量的儲存需求,MCU配套的NOR Flash也逐步向更高容量升級。人工智慧趨勢下,端側AI需求爆發進一步放大了這一趨勢,AI耳機、智能手環、AR/VR裝置、智能音箱、具身智慧型手機器人、AI玩具等終端產品,對儲存的快速響應能力和可靠性要求極高,且多數場景無需大容量儲存,恰好契合NOR Flash的技術優勢。比如,TWS耳機(內建1顆NOR以儲存系統程式碼)、智能手錶/手環(內建/外接1顆NOR)、AR/VR(通常配置1顆NOR)等可穿戴裝置市場快速發展,帶來巨大的NORFlash潛在需求量。汽車電子領域的增長同樣迅猛。數字座艙、自動駕駛(ADAS)的快速發展,推動車載儲存需求持續攀升。NOR Flash的即時啟動(instant-on)特性,使其成為汽車儀表板的理想選擇。相較於NAND Flash,其長資料保留、耐熱、快速啟動程式碼的優勢,完美匹配車載場景的嚴苛要求。而整個ADAS系統對NOR Flash的需求則更大。由於ADAS功能的複雜化正在推動智能感測器的普及,如前置攝影機、成像雷達,甚至雷射雷達,因此需要大量高密度NOR Flash。特別是進入自動駕駛時代之後,每顆攝影機、雷達均需要一顆儲存晶片與其配套使用,攝影機和雷達會將所感知到的路面資訊寫入儲存晶片中,並通過專有演算法對寫入的資料進行運算、分析,快速做出緊急避讓、制動等操作,這一需求只有NOR Flash能夠勝任。AI伺服器的爆發式增長,成為NOR Flash需求的“超級引擎”。HBM4(高頻寬記憶體)技術架構的革新,使得DRAM堆疊層數從HBM3的12層躍升至16-20層,其物理結構與電源管理邏輯更為複雜。NOR Flash承擔著AI伺服器系統初始化、安全啟動和韌體儲存的核心功能,能夠滿足HBM4每層DRAM獨立電源管理與初始化的需求。隨著AI伺服器從HBM3E向HBM4升級,單台裝置的NOR Flash用量從1-2顆增至3-5顆,行業資料顯示用量增幅達50%。在AI訓練叢集中,系統需頻繁、可靠地呼叫底層指令,NOR Flash的低延遲、高可靠性使其成為不可替代的部件。需求的持續火爆也引發了漲價潮。中微半導1月27日發佈漲價通知函稱,受當前全行業晶片供應緊張、成本上升等因素的影響,封裝成品交付周期變長,成本較此前大幅度增加,框架、封測費用等成本也持續上漲。鑑於當前嚴峻的供需形勢以及巨大的成本壓力,經過慎重研究,決定於即日起對MCU、Nor flash等產品進行價格調整,漲價幅度15%~50%。03本土MCU企業佈局NOR Flash的戰略邏輯日前,國內MCU龍頭中微半導正式官宣首款非易失性儲存器晶片CMS25Q40A,以4M bit低功耗SPI NOR Flash產品敲開儲存領域大門,開啟“MCU+儲存”佈局。MCU與NOR Flash是天然“黃金搭檔”。絕大多數搭載MCU的嵌入式裝置,都需要外掛NOR Flash儲存程序。這一天然協同性,也推動了本土MCU企業紛紛切入NOR Flash領域,成為產業發展的重要趨勢。NOR Flash與MCU在半導體設計及製造工藝層面具備天然共通性,二者同屬嵌入式系統核心晶片,均需攻克低功耗設計、高可靠性保障、嵌入式儲存最佳化等關鍵技術。企業依託在NOR Flash領域沉澱的工藝經驗、IP資源儲備及客戶管道優勢,可高效推進MCU產品研發,落地“儲存+控制”平台化戰略,顯著降低研發成本與市場風險。這一戰略已得到多家企業實踐驗證:兆易創新、恆爍股份均明確將自身定位為“儲存+控制”領域服務商,借助NOR Flash的管道協同效應拓展MCU業務;普冉則推行“儲存”與“儲存+”雙輪驅動戰略,一方面持續完善原有儲存產品線的全系列佈局,強化工藝性能領先優勢,聚焦中高端工控、車載客戶拓展及新增領域增量機會,為市佔率提升築牢產品根基;另一方面,“儲存+”類股下的MCU與VCM Driver產品快速打響品牌知名度,實現業務持續高速增長。本土MCU企業佈局NOR Flash有三大原因:一是完善產品生態,強化客戶粘性。MCU作為智能裝置的核心控制晶片,通常需外掛儲存晶片儲存程式碼、配置參數等關鍵資料。若MCU企業實現NOR Flash自主供給,可建構“MCU+Flash”一站式解決方案,不僅能有效降低客戶採購成本及供應鏈管理難度,更能通過產品協同繫結客戶需求,顯著增強客戶粘性。二是拓展業務邊界,挖掘新增量。儘管NOR Flash市場規模不及DRAM、NAND Flash,但在汽車電子、工業控制、物聯網裝置等領域具備不可替代性,尤其適配小容量、低功耗應用場景。MCU企業可憑藉既有的客戶資源與技術積累切入該領域,突破原有業務邊界,挖掘細分市場新增長點。三是把握國產化機遇,搶佔細分市場。全球NOR Flash市場長期由華邦、旺宏等國際廠商主導,近年來國產企業市場份額逐步提升,國產替代趨勢顯著。MCU企業可順勢而為,以中小容量產品為切入點,避開與頭部廠商在高密度、車規級產品上的直接競爭,精準搶佔細分市場份額。當然,新進入者也面臨不小挑戰:NOR Flash市場已形成兆易創新、普冉股份等頭部企業,新玩家需在性能、成本、可靠性上實現突破;產品系列化需持續投入大量研發資源,可能影響MCU傳統業務的迭代速度;同時,市場受產能、需求波動影響較大,價格起伏可能衝擊企業盈利能力。不難看出,MCU企業佈局NOR Flash,是依託技術協同、把握國產化機遇的戰略選擇,已成為近年來半導體行業的重要發展趨勢,同時也需應對市場競爭與資源分配等多重挑戰。043D NOR快閃記憶體:非易失性儲存革命為了適應人工智慧、智能汽車等產業發展,HBM、HBF、HBS等各類堆疊方案層出不窮。而在NOR Flash領域,這些應用也對更高密度、更快訪問速度和更高可靠性的快閃記憶體提出更高要求。傳統2D NORFlash已近接物理和性能極限,其平面架構限制了其可擴展性。3D NOR Flash通過垂直堆疊儲存單元,徹底解決了2D架構的可擴展性難題。以旺宏電子(Macronix)的產品線為例,2D NOR Flash單裸片最大容量僅為512Mb,若需更高密度需採用多裸片系統級封裝(SiP);而3D NOR Flash單裸片容量可達到4Gb,儲存密度實現跨越式提升。這一特性使其成為有限物理空間內需要大量非易失性儲存場景的理想選擇,能夠減少終端裝置對eMMC和NAND等多儲存器件的依賴。除了儲存密度的提升,3D NOR Flash還具備更短的訪問延遲,顯著最佳化了裝置啟動性能,這對於汽車儀表板、AI伺服器等需要近乎即時訪問儲存資料的應用至關重要。隨著3D NOR技術的成熟與量產,其將進一步滿足汽車電子、AI伺服器等高端場景的高性能需求。從技術迭代到需求爆發,從本土突圍到產業升級,NOR Flash在多領域剛需的推動下,成為半導體產業中極具增長潛力的黃金賽道。未來,隨著3D NOR等技術的持續突破,以及國產化處理程序的加速,NOR Flash市場將迎來更為廣闊的發展空間。 (半導體產業縱橫)
《威剛領軍記憶體族群出關!法人點名四大動能AI超級循環正式啟動》記憶體族群過去三季上演一場驚心動魄的重生劇碼,從國際大廠減產保價、報價觸底反彈,再到 AI 浪潮帶動 HBM(高頻寬記憶體)供不應求,激勵威剛、十銓、南亞科、華邦電相關概念股狂飆列入「處置股」,隨著分盤交易限制解除,法人點名四大關鍵動能成為股價核心燃料。記憶體產業之所以能被看好,不僅是產業景氣反彈,而是超級循環(Super Cycle)週期,關鍵在於 AI 帶來的結構性改變,由四大新動能支撐未來 6 到 12 個月股價上攻的核心燃料,首先是 HBM 的排擠效應,因 NVIDIA 的 GPU 如 H100, Blackwell 系列極度依賴 HBM3e,甚至未來的 HBM4,HBM 不僅價格是傳統 DRAM 的數倍,更必須消耗大量的晶圓產能。記憶體三大原廠如 SK 海力士與三星將大部分的資本支出與先進產能都移轉去生產 HBM,導致傳統 DRAM 的 DDR4、DDR5 供給遭到排擠,而這對於台灣的中下游廠商而言,卻是一個天大的好消息,因為原廠不願意做標準型記憶體市場,供給將持續緊俏,而這種「產能排擠效應」保證標準型 DRAM 的價格在未來一年難以深跌,甚至有續漲空間。第二是 AI PC 與 AI 手機的「容量倍增」紅利,如果說 HBM 是雲端的戰爭,那麼「邊緣運算(Edge AI)」就是終端的戰場,微軟定義的 AI PC,以及能夠運行生成式 AI 的旗艦手機,對記憶體的需求強勁,而要在裝置端運行一個像樣的 LLM(大型語言模型),記憶體就是最大的瓶頸,以 PC 端來說,現在 AI PC 起步標準就是 16GB,未來主流將推向 32GB 甚至 64GB。第三是 DDR5 與 DDR4 的黃金交叉,由於市場目前正處於世代交替的關鍵期,隨著 Intel 與 AMD 新平台的滲透率提升,DDR5 正式成為主流,過去因為 DDR5 太貴,消費者買不下手,但如今 DDR5 與 DDR4 的價差已縮小至 15%~20% 的甜蜜點,這將加速世代交替,而 DDR5 的技術難度較高,因此平均銷售單價(ASP)與毛利率都優於 DDR4。第四是 NAND Flash 市場迎來轉機,過去 Flash 殺價競爭最為慘烈,但 AI 伺服器不僅需要運算,更需要極高速的資料吞吐,因此 QLC (Quad-Level Cell) 企業級 SSD 正在快速取代傳統硬碟(HDD)在資料中心的地位,而 AI 訓練資料庫動輒數 PB,對於高容量、高密度的 Enterprise SSD 需求大增。法人指出,記憶體產業的這波漲勢,始於減產帶來的供需修復,飆漲於資金的投機熱潮,但最終將支撐於 AI 帶來的實質需求,首選的是具備研發能力、能切入 AI 伺服器或高階電競市場的控制 IC 設計廠與高階模組廠,次選是擁有龐大低價庫存,且通路佈局全球化的通路龍頭。
《威剛將迎來AI 記憶體超級週期!外資估今年 NAND 價格飆 40%》全球 NAND Flash 市場正迎來結構性轉變,受惠 AI 推論需求呈爆炸性增長,以及傳統硬碟(HDD)供應短缺,企業級 SSD(eSSD)將成為強勁成長動能,預測 2026 年 NAND Flash 平均銷售單價(ASP)將出現 40% 的驚人漲幅,法人看好威剛手中握有的低價庫存效益將全面顯現。根據外資最新報告,全球記憶體市場正在經歷由 AI 驅動的「超級週期」,首先是企業級 SSD(eSSD)需求成長率將從長期平均的 10%,增至未來三年的 30% 以上,因 AI 伺服器需要大量的 NAND Flash 進行數據存儲與推論 。由於 AI 伺服器的存儲內容需求量是傳統通用伺服器的 3 倍以上,而由於傳統硬碟(HDD)供應短缺,再加上 QLC SSD 在效能與能耗上的優勢,資料中心正加速以 SSD 取代 HDD,進一步推升需求。特定高需求元件的現貨價格,例如 512Gb TLC 晶圓,已在過去 7 個月內飆漲 5.5 倍,雖然合約價反應較慢,預計 2026 年全年的 NAND 混合平均售價(ASP)將大幅成長 40%,法人認為,威剛庫存管理靈活,持有的低價庫存將轉化為鉅額的庫存跌價回升利益與毛利擴張。AI PC 換機潮啟動,除了伺服器端,客戶端 SSD(Client SSD)也迎來轉機,雖然消費性市場面臨成本壓力,但 AI PC 的出現將推動結構性的容量升級,為了在本地端運行 AI 模型,PC 需要更快的讀寫速度與更大的儲存空間,法人看好將支撐威剛在消費性 SSD 市場的出貨單價與獲利 。由於記憶體大廠如三星、SK 海力士將資本支出優先集中在製程轉進,而非產能擴充,加上 AI 帶動的 eSSD 需求遠超預期,預計 NAND Flash 的供應短缺將持續,供不應求將延續至 2026 年底,法人看好威剛今年營收與獲利有望挑戰歷史新高。
Gemini負責人:Pro的主要作用是蒸餾Flash!最大突破空間在後訓練;Noam、Jeff Dean:持續學習是重要改進方向
2025年底,最令人印象深刻的AI圈大事莫過於Gemini 3 Flash的發佈。它主打輕量級、速度快,不僅智能全面超越Gemini 2.5 Pro,而且部分性能也反超了3 Pro和GPT-5.2(比如程式設計能力和多模態推理),令人非常驚豔。就在前天,Gemini的三位共同負責人Oriol Vinyals、Jeff Dean、Noam Shazeer和Google AIStudio 的產品負責人 Logan Kilpatrick 罕見同台,進行了一次對話。這三位嘉賓都相當重量級:Oriol Vinyals是Google DeepMind 研究副總裁兼深度學習負責人;“傳奇院士”Jeff Dean 大家都認識,他也是Google首席科學家;Noam Shazeer則更不用說了——Transformer的論文作者之一,也是Gemini 的聯合負責人。在這場談話中,Gemini的三位共同負責人表示:現在新的 Flash 模型,往往已經能達到甚至超過上一代 Pro 的水平。Oriol Vinyals甚至坦言:Pro的主要作用,就是拿來蒸餾Flash!他認為,那怕犧牲一點智能,更快更便宜的模型對使用者來說也非常重要。所以對於Flash這樣小而強的模型,他們一定會持續增加投入。Logan Kilpatrick也透露,他們在GoogleAI Studio 裡針對 vibe coding 這個用例,做了一些 Flash 模型和 Pro 模型的對比測試。結果發現:即便 Flash 在智能上略遜一籌,但由於延遲更低、反饋更快,使用者反而寫得更多、留存更高。因為沒人願意一直等。可見 Flash 有多麼受歡迎。此外,他們還談論了Gemini這一年的整體進展、內部的訓練細節、對Pro和Flash版本的取捨以及模型後續演進的重要方向等等。Jeff Dean 透露,Gemini目前用的基礎架構是他2018年提出的Pathway架構,主要有三個目標:一個模型可以泛化到數百萬個任務,強多模態,並且採用稀疏啟動。現在Gemini已經基本實現了這三個目標。而Jeff Dean也透露,關於模型能力的演進方向,Google內部已經有了Gemini的下一個“五年計畫”。Gemini 3剛發佈時,Oriol 曾在X上表示,Gemini 3的核心秘訣是提升預訓練+後訓練,尤其在後訓練上還是一片未被開墾的“綠地”,有很大的提升空間。而在這次談話中,他也再次強調,當前階段最大的突破空間很可能在後訓練。Jeff Dean則認為,目前在一些Benchmark上,模型能力基本已經見頂,尤其是程式碼、推理和數學領域;但在“幫我規劃一次舊金山旅行”這種開放式任務上,模型能力還有較大的提升空間。另外,Noam 和 Jeff 也強調,大模型的規模依然重要,但它不再是決定一切的唯一變數。相比之下,模型的持續學習能力才是後續的重要改進方向。小編翻譯並整理了整期對話實錄,有不少有價值的資訊,enjoy!Gemini的起源:Google Brain與Deepmind的融合Logan Kilpatrick已經有不少人試用了 Gemini 3 Flash,並對模型進行了測試,整體反饋非常積極,勢頭非常強勁。此前我們發佈了 Gemini 3 Pro,現在整體都在加速推進。Jeff、Oriol、Noam,你們三位是 Gemini 的聯合技術負責人,整體上在引領 Gemini 的方向。也許我們可以從 Jeff 開始,請你從自己的視角談一談:在 Gemini 3 Flash 和 3 Pro 發佈的這個時間點,我們正處在一個怎樣的階段?以及最近這段時間,我們是如何走到今天這一步的?Jeff Dean當然。我們對 Gemini 3 系列模型感到非常興奮,包括幾周前發佈的 Pro,以及昨天發佈的 Flash。正如你所說,我、Oriol 和 Noam 是 Gemini 項目的三位聯合技術負責人。我們已經合作很多年了,一起工作一直非常愉快。從 Gemini 項目的起源來看,其實源於我當時的一個觀察:在 Google 內部,我們在大語言模型規模化方面已經積累了很多優秀成果;在 Google Brain(當時屬於 Google Research)也在推進多模態模型;與此同時,Oriol 在原 DeepMind 團隊中也在做相關工作。但問題在於,這些非常優秀的人才和研究工作是分散的,算力資源同樣是分散的。我認為,如果我們能真正整合力量,作為一個統一的團隊協作,會好得多。這就是 Gemini 團隊和項目的起點——發生在 Gemini 1.0 發佈之前不久。此後,看到模型一代代演進非常有意思:Gemini 1.5、2.0、2.5,再到幾周前發佈的 Gemini 3 Pro,以及本周發佈的 Gemini 3 Flash。我們對此都非常興奮。當然,我們也必須學會如何跨越海洋、跨越多個地點協作,這本身就是一個學習過程。但我認為我們現在已經真正進入了狀態。大約從一年前的 2.5 系列開始,到現在的 3 系列,我們明顯找到了節奏。Logan Kilpatrick我非常喜歡這一點。看到 Brain、DeepMind、Google Research 的人才真正融合在一起,並且取得如此快的進展,確實非常酷。Oriol,我也很好奇你從自己的視角怎麼看這個問題,尤其是從歷史上看,Brain 和 DeepMind 在研究方法上的差異。我個人在看《The Thinking Game》這部紀錄片時,一個非常強烈的感受是:DeepMind 在十年前解決的問題,以及後來 AlphaFold 面對的問題,和我們今天在 Gemini 上遇到的挑戰,其實非常相似。其中讓我印象最深的是資料問題:比如人類真實標註的蛋白質折疊資料非常稀缺,團隊必須通過各種方式“合成性地放巨量資料規模”。我很好奇,這種思路與你們今天所處的 RL、“測試時計算”範式之間,有多少相似性?你覺得當年那些問題和今天這個階段之間,有多大的連續性?Oriol Vinyals我可能先從一個更宏觀的角度來回答。在組織層面,我其實非常幸運:很多年前我在 Brain 團隊工作,後來我搬到倫敦,加入了 DeepMind。所以我親身經歷了這兩種研究文化在早期的差異。當然,正是我和 Jeff 之間的聯絡,最終也幫助我們啟動了 Gemini 項目,把這兩個團隊再次結合起來。從研究方式上看,尤其是 DeepMind 的早期文化,有一個非常鮮明的特點:明確的長期目標、宏大的願景,以及“不解決問題就不罷休”的項目周期。這種精神其實深刻地體現在 Gemini 的起點上——Gemini 的目標是建構 AGI,是“解決智能”這個問題,我們是為長期而來。3.0 很棒,但它並不是終點。當然,Brain 也有大量類似的長期項目,同時帶來了對神經網路架構、訓練方法等方面的多樣化探索和創新。這些基因同樣進入了 Gemini。所以可以說,這兩個組織的 DNA 在 Gemini 中完成了融合。而在方法論上,正如我們今天看到的那樣,無論是資料驅動的無監督/預訓練,還是強化學習(RL),依然是未來模型持續創新的“綠地”。回頭看一些早期項目,當時外界並不總是理解我們在做什麼,尤其是我們研究打電子遊戲的那段時間。但我們的目標始終是:開發能夠更廣泛泛化的演算法。事實上,很多當年開發的演算法,現在都可以直接應用在大語言模型上。當時這點對我們來說是顯而易見的,但對外界並不明顯。比如 AlphaFold 中使用的蒸餾、強化學習加監督式自舉(就像 AlphaGo 那樣),這些方法與今天在大語言模型中的做法是高度一致的。這些技術在不斷被發現、打磨、改進,而每一輪迭代都會帶來新的提升。我認為,從 2.5 到 3.0 的躍遷,無論是在預訓練還是後訓練上,都疊加了大量這樣的改進,最終形成了一次相當顯著的提升。Logan Kilpatrick我非常喜歡這個說法。我之後可能還會再提到這一點。順便說一句,我記得之前看到過一個 meme,不知道是 Jeff 還是 Oriol 發的,大概意思是:“是該擴展預訓練,還是擴展後訓練?”然後答案是同時狂按兩個按鈕。這個 meme 是誰的功勞?Jeff Dean我覺得是 Oriol 吧?Oriol Vinyals我好像聽說過這個說法,但 meme 不是我做的。不過感謝 whoever 發了那個 meme,我其實沒看到。Jeff Dean真正的“秘密”就是:更好的預訓練,加上更好的後訓練。Oriol Vinyals對,這就是秘密。非常“機密”的秘密。Noam Shazeer我覺得有趣的一點在於:雖然我們只有一個統一的目標,但這是一個可以從非常多正交方向持續取得進展的問題。正如 Oriol 提到的,“加強預訓練”“加強後訓練”只是其中兩個按鈕。實際上還有很多這樣的按鈕,每一個都能從不同維度提升模型效果。這恰恰非常適合一個擁有數百、上千名工程師和研究員的大型組織。你可能會覺得這麼多人一起工作一定會一團亂麻,但事實證明,如果問題本身可以被拆解為多個正交方向,那麼在十個方向上各取得一點突破,疊加起來就會產生巨大進展。這正是 Google Brain 自下而上研究方式的優勢,而它也與 DeepMind 更加聚焦長期目標的方式形成了非常好的互補。如何看待產品與模型的關係Logan Kilpatrick最近我在和一些人討論一個問題,Corey 也從某種角度提到過——我這裡用自己的方式轉述,不代表他的原話:產品本身是否也是一種“規模化機制”?我們可以擴展模型規模、擴展預訓練和後訓練、使用測試時計算等等。但現在你會看到,很多評測開始引入“帶工具的 benchmark”“帶 agent harness 的 benchmark”。我很好奇你們怎麼看待“產品”在其中扮演的角色:它是否能反過來幫助提升模型本身的能力和互動閉環?這是不是你們正在思考的方向?Noam Shazeer我認為這非常有價值。我很喜歡在 Google 這樣的全端公司工作,從底層 AI 技術,一直到服務數十億使用者。產品不僅能為訓練提供資料和反饋,也能極大提升團隊的動力。看到自己做的東西正在被真實使用者使用,這本身就非常有意義。Jeff Dean我補充一點:當你的工作被大量使用者使用時,這對人是極其有激勵作用的。這可以是直接的,比如 Gemini App;也可以是間接的,比如 Gemini API,被開發者使用,或者嵌入到各種 Google 產品中。這正是我當初進入軟體工程領域的原因之一,看到自己的工作被使用,是非常快樂的事情。少數人做出的成果,可以讓數百萬、數千萬,甚至數十億人受益。這是軟體行業非常獨特、其他職業很難擁有的體驗。Oriol Vinyals我從稍微不同的角度補充一下。我們三個人本質上都是深度學習研究者,但你永遠無法繞開真實世界。歷史上有無數例子:正是因為真實世界的需求,我們才不得不發明新的技術。比如在圖像識別早期,我們發現圖像並不會總是居中,於是需要設計能夠處理這種情況的模型。又比如文字是變長的,你無法直接把摺積網路套在可變長度的文字上,於是我們發展了循環網路、再到 Transformer。今天也是一樣。如果使用者希望和聊天模型進行跨越多年的長期互動,那我們就必須從研究層面正面解決這個問題。所以現實世界的需求本身,也在強迫我們不斷創新。當然,這也與動力、影響力密切相關,我們做的事情確實重要,這讓我們保持腳踏實地。Jeff Dean我再補充一點。除了關注“誰在用你的產品”,在一家全端公司裡,另一個巨大優勢是:我們會非常深入地思考訓練模型所依賴的基礎設施。我們已經建構自己的 AI 加速晶片 TPU 超過十年了。這對兩件事至關重要:一是讓深度學習模型可以部署到更多產品場景中;二是支援模型訓練規模的持續擴展。早在 2012 年左右 Brain 團隊成立初期,我們主要使用資料中心裡的 CPU 訓練模型。當時我們就訓練出了一個規模是此前最大模型 50 倍的神經網路,在視覺和語音任務上都取得了驚人的效果。但我們也很快意識到:如果要把這些模型服務給大量使用者,僅靠當時的 CPU 或 GPU 是不夠的,這直接促成了 TPU 項目的誕生。此後,我們持續迭代 TPU,使其能夠很好地支撐 Gemini 的大規模訓練和推理服務。目前最大的突破空間在後訓練Logan Kilpatrick是的,我們現在真的是怎麼都不夠用 TPU,這確實是一個非常現實的瓶頸。我不太清楚“Gemini 聯合技術負責人”這個職位的精確崗位說明是什麼,但我猜,對你們三位來說,工作中至少有一部分是要決定:下一步的關鍵技術下注點在那裡,我們要朝那些方向走。Demis 多次提到過這樣一個觀點,我相信也有不少人認同:要真正走向 AGI,可能一定需要某種架構層面或模型層面的根本性突破,而不僅僅是持續的工程創新。當然,我們也看到,每一次模型發佈本身就包含了大量創新。比如如果你單看 Gemini 3 Flash 和 3 Pro,就會發現這並不是第一次被提到,Flash 在後訓練配方上有一系列創新,使得它在某些基準上,儘管模型更小,但進步幅度甚至超過了 3 Pro。所以我很好奇,你們是如何看待這種張力的:一方面,短期和中期存在一個極其豐富的改進空間;另一方面,我們是否需要為未來做出一些“根本性”的新下注,去爭取真正通向 AGI 的突破?還是說,其實我們可以沿著現有範式繼續推進,只要不斷踏實地做創新,就足夠了?不知道這個問題是否引起你們的共鳴,誰願意先來回答?Oriol Vinyals我先來吧。Logan KilpatrickOriol,也許你可以順便解釋一下你常說的“drastic research(激進式研究)”是什麼意思。Oriol Vinyals好的。關於“drastic research”這個詞,其實挺有意思的,甚至有點“署名歸屬不清”。這是我和 Ilya 在 Brain 時代的一次討論,他說是我發明的,因為我當時說“這是一個非常 drastic 的想法”,但我記得這個詞是他先用的。總之不重要。它的意思其實很簡單:不是只做增量式思考,而是更超前地思考——真正需要發生什麼,才能帶來質變。當然話說回來,當一支非常強的團隊把大量增量改進做到極致時,這些改進是會疊加成巨大進步的。Gemini 就是一個例子,但對我來說更“極端”的例子其實是 AlphaFold。那個項目多年裡幾乎沒有發論文,而是持續打磨架構、訓練配方和每一個細節,始終圍繞著一個大目標前進。回頭看,AlphaFold 的成功其實是大量技巧和“深度學習工程細節”的積累,並不一定依賴某個突然出現的、極端顛覆性的技術。Transformer 當時已經存在,本身就是一個非常強的架構。當然,Noam 可以更詳細地講 Transformer。至於 AGI 到底需要什麼,我認為嚴格地不斷完善現有配方,也有可能就已經足夠。資料是存在的,潛力也在那裡。但與此同時,我們也不能排除未來會出現真正的“巨大躍遷”。我個人的判斷是:當前階段,最大的突破空間很可能在後訓練。當然,我們三個人的看法未必完全一致。不過,作為一個大型公司和大型項目,我們可以同時在多個方向下注,這本身也是我們的優勢。最後,關於“技術負責人”這個角色,我想補充一點:我們很大一部分工作,其實是篩選。團隊裡每個人都非常聰明、非常有創造力。很多時候,我們並不是提出想法的人,而是判斷那些想法最有前景。並不是“我們提出所有想法,別人來執行”,而恰恰相反。我想澄清這一點,給可能對我們日常工作有不同想像的朋友。我提名 Noam 接著講。Noam Shazeer謝謝 Oriol。確實,這是一個非常複雜的組合問題。有大的突破,也有小的突破。關鍵在於:它們可以正交疊加,而且不會引入過多技術複雜性,這樣我們才能不斷繼續往上疊。你可以粗略地想像:也許一個“大突破”能給模型增加 1 個 IQ 點;一個“小突破”只能增加 0.1 個 IQ 點。但只要我們持續把這些疊加起來,進展就會非常巨大。至於下一個“超級大突破”會不會出現?老實說,我覺得是 50/50。但我們確實在很多方向上都看到了大量創新:後訓練是重點,但預訓練、模型架構、資料、下游應用等方向也都在持續推進。Jeff Dean我認為,保持一個風險組合非常重要。一部分是更長期、更高風險、可能成功也可能失敗的想法;另一部分是希望能進入下一代 Gemini 模型的、相對短期但同樣重要的工作。後者往往理解得更清楚,需要通過實驗進一步驗證,它們也許只能帶來 1 分或 0.1 分的提升。但當你把很多這樣的改進疊加起來,就能實現代際飛躍。與此同時,我們也必須持續押注那些可能徹底改變現有範式的新方法。在 Gemini 項目啟動之前,大概在 2018 年左右,我們開始意識到:為不同任務分別訓練一大堆模型,可能並不是正確的方向。於是我發起了 Pathways 項目,其核心目標是:一個模型,能泛化到數百萬個任務能處理多模態輸入和輸出模型不是完全稠密的,而是稀疏啟動的圍繞這三個目標,我們不僅在模型上做探索,也搭建了底層的軟體基礎設施,以支援這種“稀疏、啟動方式很奇怪”的模型規模化訓練。實際上,今天 Gemini 使用的正是 Pathways 這套基礎設施。這三個目標,今天基本已經在 Gemini 的多個版本中實現了:一個模型可以做數百萬件事,強多模態,並且在最新版本中大量採用稀疏啟動。所以,設定五年期目標,然後一步步朝它們推進是非常有價值的。不是五年什麼都不做,而是沿途不斷取得階段性成果。現在,我們腦子裡也已經有了關於未來五年的類似藍圖:下一步模型能力該如何演進。程式碼、推理和數學已經被“擊穿”,下一步是開放式任務Logan Kilpatrick太棒了。Jeff,也許我們可以線下聊聊,把“未來五年的完整清單”拿出來看看。Noam 和 Jeff 都提到了一個點:模型能力在很多維度上都在持續提升,可能是某個評測的一兩個百分點,也可能是更細微的改進。但與此同時,我們也看到某些領域在 6 到 12 個月內被迅速“吃穿”了。比如程式碼、推理、數學。年初時,“Humanity’s Last Exam(HLE)”這種 benchmark,最強模型的得分還是個位數百分比;現在已經出現了 50% 以上的模型。程式碼領域的 AIM benchmark 幾乎已經被刷到接近 100%。我很好奇:你們覺得這種趨勢會持續嗎?還是說,程式碼、推理、數學這些領域,本身就有某些特性,使得進展會特別快,而其他領域(比如生物學)就沒那麼容易?Noam Shazeer我先說說程式碼吧。我覺得大家已經意識到程式碼領域極其有價值。可能我們作為工程師有點“近視”,因為它直接幫助了我們自己。但說實話,我本人就非常感謝 Gemini 在加速我的程式設計工作。而且這不僅是“我們覺得有用”,而是程式碼能力可以被用於建構極其高價值的東西,比如繼續建構 AI 本身。Jeff Dean我再補充一個關於數學的例子。兩年前,模型在 GSM8K(中學數學題)上都表現得很吃力,比如:“Fred 有 5 隻兔子,從兩個朋友那裡各拿到 1 隻,現在有幾隻?”而現在,我們已經有模型能在 IMO(國際數學奧林匹克)這種難度極高的競賽中拿到金牌。這充分說明:後訓練和強化學習在可驗證領域(如數學和程式碼)裡非常有效。原因在於:在這些領域,我們可以生成候選答案,並且明確地驗證對錯。數學可以用定理證明,程式碼可以運行、編譯、跑單元測試。而真正的挑戰在於那些“模糊領域”:比如生物問題,或者“幫我規劃一次舊金山旅行”這種開放式任務。這些問題沒有清晰的獎勵函數或對錯判斷。我認為,未來幾年一個重要方向就是:如何讓這些開放式領域的進展,像數學和程式碼一樣快。Flash版本:相比智能,速度快也很重要Logan Kilpatrick這也讓我聯想到當前的 Flash 時刻。顯然,蒸餾已經非常成功。我們有一個極其強大的“教師模型”,然後把能力蒸餾到 Flash 這樣的更小模型中。Oriol,我很好奇你怎麼看這個問題:在速度、效率、成本和智能之間做權衡時,我們的心智模型是不是Pro 模型完全不做妥協,反正以後可以再蒸餾?在多條研究主線平行的情況下,Pro 的決策是否最終決定了 Flash 能達到的上限?比如現在的 Gemini 3 Flash。Oriol Vinyals這是一個非常好的問題。回到 Gemini 項目最初的設計,Jeff 可能還記得最早的那些幻燈片:從一開始我們就明確,Gemini 會同時有兩個運行點:一個是:最大智能,不做任何妥協另一個是:更強可部署性,但不追求絕對前沿智能這種劃分方式非常有幫助,而且我認為短期內不需要改變。但現實發生的事情是:一代一代下來,新的 Flash 模型,往往已經能達到甚至超過上一代 Pro 的水平。也就是說,在固定模型規模或延遲條件下,智能水平在持續上升。當然,在最大規模下,Pro 仍然會在某些 Flash 難以觸及的能力上保持領先。這最終變成了一個使用者問題:你到底需要什麼?很多使用者可能會選擇 Pro,因為他們不想每次都猜“這個問題 Flash 行不行”。與此同時,我們也把蒸餾這件事做得非常成熟了。我和 Jeff 經常提醒大家,這其實是一篇當年被拒稿的論文,但它一次次證明了自己的價值。我認為,兩種模型之間的差距不一定會變成 0,但很可能會小到一個程度:Pro 的主要作用,就是用來“生成”Flash。當然,我們可能仍然希望把 Pro 直接交給某些使用者。但從長期來看,能以最低成本提供前沿智能,是一個非常理想的狀態。老實說,隨著 Gemini 3.0 的進展,我們已經離這個目標非常接近了。這真的非常令人興奮。Jeff Dean我補充一點。我們也在做端側模型,比如用於 Pixel 手機等裝置的模型,這類場景會有額外的約束,比如記憶體規模等。我認為延遲作為模型質量指標被嚴重低估了。能夠在極低延遲下,依然具備很強推理能力、可以處理複雜問題的系統,是非常非常重要的。延遲可以從不同層面來最佳化:一方面是模型層面的最佳化,通過架構設計讓模型天然更快;另一方面是硬體層面的決策,讓某些模型在未來的硬體平台上運行得特別高效。延遲和推理階段算力的另一個關鍵意義在於:它讓你可以在固定的延遲預算內,把模型“變得更聰明”。如果模型本身快 5 倍,你可以選擇:直接快 5 倍給出答案;或者讓模型“多思考一會兒”,得到更好的答案,同時仍然比原來快 2.5 倍。如果你有非常強大的硬體,再配合通過蒸餾得到的、輕量但能力依然很強的模型,這是一個必須持續投入的重要方向。Noam Shazeer我想補充一點。如果我們真的能做到這樣,其實是一種非常理想的工作方式:在訓練 Pro 模型 時,儘量不去在意推理性能,專注於智能本身;然後在 Flash 模型 上,重點最佳化延遲、成本和吞吐量。這讓我想起我大學時的一位電腦教授,杜克大學的 Owen Astrachan。他常說一句話:“先讓它跑起來(make it run),再讓它正確(make it right),然後讓它快(make it fast),最後讓它小(make it small)。”這基本就是軟體開發和偵錯的順序。而現在在模型上似乎發生了類似的事情:先讓模型能跑、再讓它聰明、再讓它快、再讓它便宜。看起來,很多“老智慧”仍然在發揮作用。Jeff Dean我很喜歡這個說法。確實,不同的使用場景需求差異很大:有些場景追求絕對最好的質量,並不太在意延遲;還有很多場景需要更快、更便宜的模型,用於高頻、規模化的使用。這正是我們常說的帕累托前沿:我們希望給使用者提供多個選擇。理想情況下,使用者最好不用太糾結:“這個請求我該用 Pro,還是 Flash?”但同時,提供一個連續的選擇區間,我認為是非常有價值的。Logan Kilpatrick完全同意。我可以分享一個具體例子:我們在 AI Studio 裡針對 vibe coding 這個用例,悄悄做了一些 Flash 模型和 Pro 模型的對比測試。結果很明顯:即便 Flash 在智能上略遜一籌,但由於延遲更低、反饋更快,使用者反而寫得更多、留存更高。因為沒人願意一直等。我昨晚還看到一條評論,有人說自己以前一直是“永遠用最聰明的模型、願意等待”的那一派,這點也呼應了你剛才的觀點,Oriol。但在用了 Gemini 3 Flash 之後,他重新評估了這個立場,因為迭代速度實在太快了,在很多情況下,那怕犧牲一點點智能也是值得的。Jeff Dean是的。其實在 Google 非常早期的時候,我們就極度重視搜尋結果頁面的響應速度,因為我們知道:低延遲是一種極其令人愉悅的使用者體驗。搜尋越快,人們就會搜得越多。Oriol Vinyals還有一個很直觀的現實是:我們依然處在人類在環(human-in-the-loop)的階段,所以我們並不會對等待和延遲免疫。另一個非常令人興奮、而且即將到來的應用場景是機器人。在機器人領域,你需要模型去控制和操作真實世界的裝置,這裡有物理層面的硬約束。我非常確信,對小而強模型的投入只會持續增加。我們對目前的進展本身也感到非常興奮。模型並不缺“聰明”,缺的是“持續學習”Logan Kilpatrick回到我們之前關於“面向未來的技術賭注”的討論,最近大家也談了很多自我改進、持續學習之類的話題。在不洩露任何“秘方”的前提下,我很好奇:這些方向在 Gemini 裡更多是偏研究探索,還是已經開始進入產品或工程視野?目前整個領域大概處在一個怎樣的成熟度區間?Oriol,你怎麼看?Oriol Vinyals這是一個非常“老派深度學習者”的問題。從歷史上看,神經網路的發展中,有些地方一直讓我覺得不夠優雅、也不夠合理。比如課程學習,我們現在是把各種難度的資料混在一個 batch 裡訓練模型,而人類學習通常是先學簡單的,再學困難的。這是一個我們做過一點、但遠遠不夠的方向。另一個多年來一直困擾我的問題是:我們訓練完模型、凍結權重、然後部署,部署後就再也不學習了。AlphaFold 不會從使用者那裡學習,AlphaGo 也不會從自己下過的棋局中繼續學習。至少在權重層面,這些系統在部署後是“靜態的”。這些顯然都是非常深層次、非常重要的改進方向。隨著我們逐漸接近 AGI,你會自然期待持續學習、情境學習這類能力出現。舉個例子,Demis 很喜歡和模型下棋。模型其實應該意識到:“我下得還不夠好。”然後它應該自己花一周時間專門學習國際象棋,再回來對 Demis 說:“我準備好了。”然後擊敗他。這裡有大量令人興奮、同時也是經典的開放問題。這說明它們不會容易,但我相信我們會做到。Jeff Dean順著持續學習這個話題說一句,其實預訓練本身就有點“反直覺”,至少和人類學習方式相比是這樣。現在的做法是:我們隨機初始化一個模型,把它“綁在板子上”,然後把海量文字、圖片、視訊流式地灌給它。最後再說:“好了,你現在可以開始在世界裡行動,學數學、學程式設計了。”這種方式下,每個 token 所包含的資訊密度其實很低。如果模型能在環境中採取行動、觀察後果、主動決定下一步關注什麼:比如它想學棋,就主動去讀棋譜;想學微積分,就去找相關內容——那會更像人類的學習過程。這是一條非常值得作為長期技術賭注去探索的方向。Noam Shazeer我並不是要否定“大規模流式訓練”。我們不僅僅是在把資料流過模型,而是讓模型對每一個 token 都做下一詞預測,而且規模是兆級 token。一個人一生可能只接觸到十億等級的語言 token,但通過預測別人接下來要說什麼,人類確實能學到很多東西。我們給模型提供的資料量是人類的成千上萬倍,這當然極其有價值。但我也同意 Jeff 的觀點:如果我們能把大量計算資源集中投入到最重要、最有價值的方向,無論是治癒癌症、建構程式設計智能體,還是其他重大問題,那會非常有意義。這也是為什麼我贊同 Oriol 的判斷:未來很多大的進展,很可能來自後訓練階段。Logan Kilpatrick我很喜歡這個結論,感覺我們兩種方式都需要。某種程度上,人類本身就“繼承”了進化過程中形成的生物學先驗,而大規模 token 流式訓練,可能只是一個很粗糙的代理。Jeff Dean是的。正如 Noam 說的,大規模流式訓練已經被證明非常有效,我完全不想否定它。但另一方面,人類一生看到的 token 數量遠少於模型,卻能達到很高的能力水平。這說明,可能存在一種比現在高 1000 倍甚至 10000 倍的資料效率學習方式。我認為關鍵在於:人類會思考行動的後果、觀察反饋,這種方式更偏向強化學習,而不僅僅是預測下一個 token。總結:多模態進展、超長上下文、通用模型能力提升Logan Kilpatrick太棒了。我們時間差不多了,最後想問一圈:回顧 Gemini 過去兩年的發展,有沒有那些出乎意料的地方?不管是進展比預期快的,還是慢的,或者某些意想不到的結果。Jeff Dean整體來看,最讓我欣喜的是多個方向同時取得進展。視訊和圖像生成能力的提升尤其明顯,而且它們越來越多地和主模型融合在一起,讓模型可以進行視覺推理。你可以看到生成結果,然後說:“不對,我想要的是這個圖像的一個小改動。”這種互動非常自然。另一個我認為被低估的能力是超長上下文。當你把大量資料放進上下文窗口時,這些資訊對模型來說是非常“清晰”的,它們以 KV cache 的形式存在。相比之下,訓練資料已經被“攪拌”進數十億參數中,對模型來說是模糊的。我覺得長上下文能力還遠沒有被充分利用。我們正在探索的一條方向是:如何讓使用者感覺自己彷彿擁有對數十億甚至兆 token 的注意力能力,就像把大半個網際網路、海量視訊放進了上下文窗口裡。Oriol Vinyals對我來說,最意外的是:我們曾經有一個專門做競賽程式設計的項目 AlphaCode,是高度特化的系統。但現在,用通用模型,我們卻在數學和程式設計競賽中拿到了金牌,而且沒有為這些領域做特別定製。這一點非常讓我驚訝。我當時反覆提醒團隊:這必須是模型本身的能力,而不是某個臨時分支、達成目標後就丟掉的東西。結果他們真的做到了。這可能是過去幾年裡最“激進”的驚喜。Noam Shazeer從理性上說,我並不完全驚訝——早在 2018、2020 年,就能預見模型會越來越聰明。但從情感上說,看到這一切真的發生了,還是非常震撼。你現在可以直接跟模型對話,讓它幫你算數學、寫程式碼,而且有成百上千萬的人對 AI 感到興奮。這真的非常有趣,我也非常期待接下來會發生的事情,希望它能給世界帶來更多正向影響。Logan Kilpatrick太完美的結尾了。Jeff、Oriol、Noam,非常感謝你們抽時間參與。也感謝大家的收聽,希望你們喜歡新的 Gemini 模型。如果有問題或反饋,隨時聯絡我們。我們會繼續“推石頭上山”,給大家帶來更好的模型和產品。希望明年初還能和大家一起迎來更多有趣的發佈。 (51CTO技術堆疊)
Gemini 3 Flash 可能是 Google 最狠的一步棋
剛剛Google正式推出了Gemini 3 Flash,這可能是 Google 這幾年最重要的一次模型發佈如果只看名字,Gemini 3 Flash 很容易被誤解成一個閹割版,快但不聰明的模型。但實際情況恰恰相反——它可能是 Google 到目前為止,戰略意義最大的一次模型選擇一句話先給結論:Gemini 3 Flash =前沿大模型智商 + 閃電級速度 + 超低成本的組合拳。它不是縮水版,而是把快和強第一次真正合在了一起不知道Google是怎麼訓練的,在複雜推理測試ARC-AGI-2和衡量真實程式設計能力測試SWE-bench Verified 基準中,Gemini 3 Flash都超過了Gemini 3 pro過去兩年,大模型世界裡一直有一道隱形分界線:一邊是能力最強、但又慢又貴的旗艦模型,另一邊是響應快、成本低,但明顯沒那麼聰明的輕量模型Gemini 3 Flash 做的事情,就是把這條分界線直接抹掉了它在多個博士級推理和多模態基準上,已經逼近甚至追平 Gemini 3 Pro 這樣的重型選手,卻同時保留了 Flash 系列最核心的特性——極低延遲和極高吞吐。更關鍵的是,在真實使用場景中,它平均比上一代 2.5 Pro 少用 30% 的 token,卻把正確率做得更高這件事對開發者的衝擊尤其明顯在 Agent、自動程式設計、高頻互動系統裡,真正的瓶頸從來不是模型能不能想明白,而是想明白要不要等三秒。Gemini 3 Flash 在 SWE-bench 這類面向程式碼 Agent 的評測中,甚至跑贏了 Gemini 3 Pro,本質原因只有一個:它足夠聰明,同時也足夠快,快到可以被反覆呼叫而當這種能力開始變便宜,事情的性質就變了Gemini 3 Flash 的定價已經低到一個明確的訊號:它不是拿來偶爾用一次的,而是拿來當基礎設施用的Google 直接把它設成了 Gemini App 的默認模型,全球使用者免費使用;同時,它也開始成為搜尋裡 AI Mode 的核心大腦。你在搜尋裡問一個複雜問題,它不只是給你答案,而是能拆解問題結構、結合即時資訊,再給你一個可以立刻行動的方案,而這一切幾乎和傳統搜尋一樣快這一步,其實比參數更重要如果說前兩年的競爭重點是誰的模型更像人類博士,那麼 Gemini 3 Flash 代表的,是下一階段的方向,誰能讓這種水平的智能,真正跑在每一次點選、每一次呼叫、每一次搜尋裡從這個角度看,Gemini 3 Flash 並不是一個Flash 模型,而是 Google 對 AI 規模化落地的一次明確表態:智能本身已經不是稀缺資源了,稀缺的是能被高頻使用的智能不得說GoogleTPU+強悍的研發能力已經成為事實上領先者了,Sam 昨天緊急推出的圖像模型追Nano Banana Pro,接下里要追的可能就多了,這在幾個月前甚至都不能想像 (AI寒武紀)