#DeepSeek-AI
【CES 2026】2026開年科技大戲,誰來照亮CES?|| 大視野
有一些時刻註定會載入史冊。2025年初,DeepSeek時刻爆發,證明在AI時代,中國的新興大模型企業可以憑藉低成本、高性能和易用的創新開源模型,加速AI在全球範圍尤其是南方國家的普及。2026年1月6日,拉斯維加斯,在全球開年科技大戲CES(消費電子展)開幕首日,1.5萬多名科技領域從業者湧入全球首座全沉浸式球幕場館Sphere(天球館),參加聯想集團的創新科技大會(TechWorld)。大會下午5點正式開始,但下午1點多就開始排隊,一票難求。會上,聯想集團重磅發佈了面向全球的首款個人超級智能體Lenovo Qira和業界最全面的推理最佳化伺服器產品組合。Qira作為跨平台、跨裝置的AI終端入口,能將使用者的手機、電腦、平板、可穿戴裝置等不同終端裝置連接起來,高效執行任務;能憑藉情景感知能力,記住使用者偏好,預判使用者需求,以使用者期待的方式互動、完成各項任務,並保護隱私;還能連接、協調多個AI智能體,整合知識,形成洞察,並最終成為使用者的“個人AI雙胞胎”。作為AI時代首家在CES發表主題演講的中國科技企業,聯想集團董事長兼CEO楊元慶全面闡釋了“混合式AI”的含義,並展示了涵蓋AI PC、智慧型手機、可穿戴概念產品Maxwell、智能眼鏡等在內的新一代智能裝置,全面整合的AI基礎設施與解決方案,以及與Sphere、FIFA(國際足聯)在娛樂、體育領域的合作成果。| 聯想集團董事長兼CEO楊元慶和國際足聯主席詹尼·因凡蒂諾‌(Gianni Infantino)如果說前兩年全球AI最顯著的特徵是“大模型的寒武紀大爆發”,2026年的CES和Tech World表明,AI正從雲端走向身邊,從虛擬世界走向現實世界,從“雲端訓練”走向“邊緣推理”,從“提示詞工程”“聊天機器人”走向“智能體”“AI雙胞胎”,從靜止不變的硬體到能與使用者互動、可根據使用者位置和視線自動旋轉調整的“響應式AI終端”。無論是大模型時代的DeepSeeK時刻,還是AI開始全面落地應用的聯想時刻,中國科技企業都做出了令世界矚目的創造性回答。01 聯想時刻的三重內涵2026年的CES,聯想時刻為何如此閃亮?首先,作為一家植根中國、業務遍及180個國家和地區市場的全球智能裝置領導廠商,聯想集團用“混合式AI”這一中國方案,贏得了行業共識。當下,AI發展正處在一個新的爆發時刻,即從內容生成朝著感知三維空間、學習複雜邏輯、與現實世界深度互動的方向拓展。此時,整合了個人智能、企業智能與公共智能的混合式AI的提出,表明了聯想致力於打造個性化、多樣性AI,推動AI在全球普及普惠的雄心,也為全球AI發展提供了更具包容性的落地空間。聯想的混合式AI,和DeepSeek“推動人工智慧技術普惠化”的初衷異曲同工,都具有中國科技企業的鮮明特色。其次,聯想集團作為FIFA官方技術合作夥伴,首次系統展現了以混合式AI賦能世界盃的技術路徑,包括足球AI超級智能體、VAR(視訊助理裁判)3D數字人可視化方案,以及裁判視角AI視訊增強系統等。2026年美加墨世界盃足球賽不僅是史上規模最大的世界盃,也是歷上規模最大、複雜度最高的計算工程,對於AI的真實應用能力,可謂空前考驗。AI不是用來炫技的,是要解決實際問題的。FIFA選擇聯想來擔綱解決世界性計算難題,這證明了中國科技企業具備包含軟硬體和服務在內的綜合解決方案能力,以及在極限挑戰面前攻堅克難的響應能力。聯想的努力,也將為未來的大型體育賽事和在其他行業落地應用提供可參考、可沿用的AI路線範本。第三,聯想的Tech World大會,群賢畢至,精英雲集,彰顯出了植根於中國的全球性科技企業的影響力。輝達創始人兼CEO黃仁勳、英特爾CEO陳立武、AMD董事長兼CEO蘇姿丰、高通總裁兼CEO克里斯蒂亞諾·安蒙、FIFA主席因凡蒂諾,這些全球科技與體育領袖均在Tech World大會上發聲,顯示出全球科技界對聯想的行業地位和發展戰略的高度認同,這也是聯想長期遵循的“開放、包容、普惠、均衡、共贏”的新型經濟全球化理念的成功。當AI從虛擬世界到在全球真正落地應用,變成新的生產力工具和智能化的個人助手時,人們發現,作為PC銷量全球第一、每年為全球使用者提供數以億計的電腦、平板、智慧型手機等終端裝置的廠商,聯想成了輝達、英特爾、AMD、高通這些科技巨頭的公約數和共同選擇——輝達與聯想共同發佈了全新的“聯想人工智慧雲超級工廠”合作計畫,AMD與聯想攜手打造機架級AI基礎設施,英特爾與聯想共同開發Aura Edition系列、為使用者打造極致AI PC體驗,高通期待未來與聯想加速手機、智能眼鏡等可穿戴裝置等移動終端產品的創新。在物理AI的新時代,“理”離不開“物”,“物”是“理”的載體。因此,聯想這樣傳統被認為的硬體廠商,反而成了AI世界的樞紐和兵家必爭之地。02 為解決世界性難題而生:超級挑戰造就超強能力2010年南非世界盃1/8決賽,德國迎戰英格蘭。比賽前36分鐘,德國隊2:1領先。第37分鐘,英格蘭隊蘭帕德在大禁區線上遠射,擊中橫樑彈入網窩,德國隊門將諾伊爾立即將球撈出,當值主裁示意此球無效,而慢動作顯示球已經完全越過了門線。本可扳平比分的英格蘭隊回天無力,下半場又連丟2球,以1:4慘遭淘汰。FIFA創新總監霍爾茨穆勒在CES接受筆者採訪時說,長期以來,人們一直認為技術不應成為足球運動的一部分,“我們只需要22名球員、1名或多名裁判在球場上,還有球,就這麼簡單。”但德國對陣英格蘭那場比賽的誤判,顛覆了世界足壇,“我們開始在足球語言之外尋找另一種語言,即技術的語言”。2014年巴西世界盃,門線技術首次得到應用,當時採用了GoalControl系統,利用14台高速攝影機向資料間傳送數位照片,經過資料分析,再把結果傳送到裁判所戴的特殊手錶上。如果確定球過了門線,手錶上就會顯示“goal(進球)”。整個用時不到一秒鐘。2018年俄羅斯世界盃,引入了視訊助理裁判、數字身份識別與高畫質轉播。2022年卡達世界盃,應用了半自動越位技術(SAOT)和AI資料處理。2026年世界盃,是AI時代的首次世界盃。三國聯合舉辦,首次擴充至48支球隊,橫跨16座比賽城市,預計將有超過60億人次觀看,決賽更將吸引超過20億球迷的目光。要應對這樣的超級工程,聯想絕不是簡單的裝置供應商,而是要讓AI全面進入世界盃的“作業系統層”,參與決策、影響流程、支撐運行,並在極端複雜、高壓、零容錯、資料達到PB等級(相當於5000億頁文字)的環境中接受一切檢驗。這是一個“硬體+軟體+系統+AI能力”的大系統。為了打好本屆AI世界盃,聯想的技術團隊已經和FIFA合作了一年多,共同駕馭這一“人類級、星球級的事件型AI應用場景”。聯想通過感測器、電腦視覺與混合AI架構,建構出了覆蓋“感知-建模-預測-孿生”的“足球世界模型”,並與FIFA一起建構了賽事級的智能營運體系,通過智能指揮中心、數字孿生技術與AI生成的預測性規劃,將賽事物流、裝置調配、通訊協調與運行狀態納入統一的管理框架,以實現即時監測與動態決策。從技術角度看,聯想和FIFA在Tech World上聯合發佈的關鍵技術有三項。第一項是足球AI超級智能體(Football AI Pro)。它能協調多個智能體,梳理數百萬資料點,分析超過2000項不同指標,並迅速提供洞察,讓分析師可以即時對比球隊模式,利用視訊片段和3D虛擬形象將資料生動呈現;讓教練能夠預見其戰術調整在下一場對陣特定對手時的效果;讓球員可以獲得個性化的比賽分析。它還支援48支球隊的多語言互動,從技術上確保不同資源水平的球隊都能平等使用超級智能體,為“足球平權”奠定了落地基礎。第二項是VAR 3D數字人可視化方案。它通過AI驅動,能在瞬間完成球員拍攝與站姿判定,並基於高斯建模等技術,實現全自動、毫米級精度的3D重建,細節可還原至髮絲與皮膚紋理。這使得越位判罰能以真實比例、清晰細節的球員數字分身呈現,極大地增強了判罰的直觀性與公信力。第三項是裁判視角AI視訊增強系統。它將最終畫面延遲從FIFA要求的6秒,成功壓縮至2秒以內,讓觀眾得以沉浸於裁判的視野,彷彿親臨賽場、與球員並肩,放大了賽事帶來的共情與愉悅。其實,聯想在體育領域的AI佈局由來已久,從奧運會、F1®到FIFA,聯想集團是全球唯一集齊這三大頂級賽事技術合作的科技企業。頂級體育賽事對技術的穩定性、協同性與適應性有著極致要求,聯想正是在應對超級挑戰中培育了自己的超級能力。以世界一級方程式錦標賽®(F1®)中的技術合作為例,F1是全球範圍內最複雜的流動型賽事體系,每年需要完成24次大規模裝置遷移,每個比賽周末會傳輸約600TB的資料量,經處理後分發給全球180個地區的60家轉播機構,全程延遲需控制在0.15秒內。自2025年初起,聯想成為F1全球合作夥伴及全球技術合作夥伴,以覆蓋AI終端、AI基礎設施及領先服務的全方位創新佈局,為F1提供了一站式解決方案,確保賽事轉播在極端時間壓力下依然保持高品質輸出,並一直保持著“零故障率”。在Tech World上,F1與聯想宣佈正式在賽事基礎設施中部署聯想海神液冷技術,以應對F1在賽事轉播製作、賽事即時營運以及即時資料處理等方面對高性能計算能力的需求。海神液冷技術的部署,將使F1在顯著提升計算性能的同時,最高可將能效提升約40%,為覆蓋全球超過8.2億觀眾的賽事轉播體系提供更高效、更可持續的技術支撐。當你瞭解了聯想在全球頂級體育賽事的這些努力和創新,就會更加清楚為什麼它在全球科技圈有著獨特的地位,以及為什麼輝達、英特爾、AMD、高通等公司不約而同都和它形成了戰略合作關係。它是裝置供應商,又是方案整合者,還是解決世界性AI工程難題的創新服務提供商。03 用技術創新實現新文藝復興置身Sphere這座外部有5.4萬平方米LED螢幕、內部有1.5萬平方米環形LED螢幕的天球,全場感受Tech World的全方位沉浸式“AI科技春晚”體驗,我腦子裡跳出了一個關鍵詞——文藝復興。1997年,美國公共電視台(PBS)製作了一部90分鐘的關於矽谷的專題片,名字就叫《矽谷——百年文藝復興》,由著名電視節目主持人克朗凱特主持。片子展示了矽谷的發展歷程,勾勒出創造性的反叛文化和對約束性商業傳統的逃離,怎樣讓那些夢想家和發明者們承擔起巨大的風險,打造出電子工業的一個個傳奇。當時美國科技界有這樣一條宣喻:“古代的美索不達尼亞,15世紀的佛羅倫薩,20世紀的巴黎,20世紀末期的矽谷”。在2025年7月23日白宮發佈的《贏得競賽:美國人工智慧行動計畫》中,“文藝復興”一詞又出現了。該計畫的前言中,這樣寫道:“人工智慧將使人們能夠發現新材料、合成新化學物質、製造新藥物,並開發出新的能源利用方法——一場工業革命。它將帶來全新的教育、媒體和通訊形式——一場資訊革命。而且它還將帶來全新的智力成就——一場文藝復興。”“一場工業革命、一場資訊革命以及一場文藝復興——一切同時發生,這就是人工智慧所展現的潛力。”如果說AI將帶來一次融合了科技與文化、生產、生活的新文藝復興,CES就是它的風向標。用CES主辦方CTA(美國電子消費品製造商協會)CEO夏皮羅(Gary Shapiro)的話,CES是“世界上最大的創新事件”(the lagerest innovation event in the world),是一個帶來新發現、超越限制、綻放靈感的地方。對聯想集團來說,選擇2026年CES在Sphere天球館舉行創新科技大會,也是一次用AI技術所打造的文藝復興。沒有AI,Tech World不可能呈現出如此的體驗之美,沉浸之深。這也是聯想品牌與聯想文化的一次全球性閃耀。品牌的背後是文化,文化的背後是科技賦能。無論是聯想和頂級體育賽事的合作還是和Sphere的合作,事實上都是一種雙向奔赴——一邊是AI普惠的力量,一邊是人類永恆的體育精神和藝術表現力。而聯想由此而形成的能力——如跨域協同、即時調度、高可靠維運與個性化體驗生成,如系統整合、即時資料分析與軟硬一體交付,再加上在技術方面的創新力(如支撐混合式AI的智能模型編排、智能體核心、多智能體協作技術能力,Qira身上的隨時響應、全域執行、情境感知技術能力)——也將通過溢出效應在更多領域持續放大。在拉斯維加斯璀璨的科技光影中,在幾個月後的2026年FIFA世界盃綠茵場上,一個以混合式AI賦能千行百業、挑戰世界性計算難題、推動AI普及普惠的新聯想正在崛起——AI的世界需要聯想,聯想服務世界的AI。楊元慶說:“讓AI去解決人類的真實問題,才是讓AI變聰明的正確路徑。”以2026年CES和Tech World為標誌,聯想為中國科技企業贏得了一場世界性的喝彩。這是聯想新的光榮與夢想。也預祝聯想在撲面而來的AI大時代為中國和世界做出新的貢獻,展示創新普惠的新力量。 (秦朔朋友圈)
讀完200篇論文,看DeepMind、Meta、DeepSeek ,中美巨頭都在描述哪種AGI敘事
在剛剛過去的2025年,我通讀了大約兩百篇人工智慧領域的論文。如果用一個詞來形容這一年的技術體感,那就是「暴力美學」時代的終結。單純依靠堆砌參數摘取低垂果實的日子已經過去,2025年的技術進化回歸到了基礎研究。這篇文章,我想透過梳理這一年的技術脈絡,明確三個結論:的瓶頸,業界被迫尋找新的成長點,即從「把模型做大」轉向把「模型做聰明」。第一,2025年,技術進步主要集中在流體推理(Fluid Reasoning)、長期記憶(Long-term Memory)、空間智能(Spatial Intelligence)以及元學習(Meta-learning) 這四個領域。原因在於Scaling Law在單純的參數規模上遇到了邊際效應遞減,為了突破AGI第二,現在的技術瓶頸主要在模型要「不僅要博學,更要懂思考和能記住」。 透過Yoshua Bengio提出的AGI框架(基於CHC認知理論),我們發現先前的AI存在嚴重的「能力偏科」:它在一般知識(K)上得分極高,但在即時推理(R)、長期記憶(MS)和視覺處理(V)上幾乎是空白。這種不平衡構成了通往AGI的最大阻礙。第三,這些瓶頸在25年其實都找了一些新的解決方向,可以說是補短板很成功的一年。其中最重要的是三個面向。●  推理能力: 透過Test-Time Compute(推理時計算)引發的革命,AI學會了慢思考,推理能力實現了從0到8的質變。●  記憶能力:Titans架構和Nested Learning的出現,打破了Transformer的無狀態假設,讓模型具備了內化的“海馬體”,有望徹底根治金魚記憶。●  空間智能: 視訊生成不再只是像素的堆砌,而是開始掌握物理規律,邁向了真正的世界模型。接下來,我將根據這一年間的論文閱讀,帶領大家詳細看看這些關鍵拼圖是如何被一塊塊補齊的。(因為篇幅限制,各個方向上涉及的論文我只是簡單做了講述,如果有興趣深入了解,可以看文後的相關論文參考。已分章節處理。)01流體推理的演化,Test Time Compute的誕生與發展在2024年,AI明顯的短板是即時推理(R)能力。在GPT-4的時代,AI只會依賴機率直覺,推理什麼的一點不會。但在2025年,Test-Time Compute(推理時計算)透過拉長推理時間來換取智能。 Test-Time Compute 的核心概念是:智慧不僅是參數的函數,也是時間的函數。以OpenAI o1和DeepSeek R1為代表,AI學會了「慢思考」。 透過在推理階段投入更多的運算資源,它開始在輸出答案之前,在內部進行長達數秒甚至數分鐘的自我辯論和推演。這就是2025年最重要的典範革新,讓AI從背書的鸚鵡轉向思考的機器。因為模型的思考過程是無法在預訓練期間進行引導的,因此後訓練、尤其是強化學習(RL),就成了提升推理能力的最重要的手段。但事情並非一帆風順,在2025年,《強化學習真的能激勵LLM超越基座模型的推理能力嗎? 》這篇論文引發了大概半年左右的學術爭論。研究發現,在許多情況下,RLVR訓練後的模型產生的正確推理路徑,其實在基座模型的取樣分佈中原本就存在。 RL的作用只是銳化了分佈,顯著提高了採樣到這些路徑的機率,而並非真正「創造」了基座模型完全未知的推理能力。對此,在後續長達半年的論爭後,現在的通行結論是基座模型可能確實包含了所有必要的原子推理步驟(如加減法、基本邏輯變換),但RL的作用在於透過數萬次的試錯,篩選出能夠穩定維持長距離依賴的策略路徑。另外,CMU研究指出,RL訓練有三個階段。第一階段是“銳利化”,僅提升已知路徑的機率;但隨著訓練深入,模型進入“連結(Chaining)”階段,開始將基座模型中原本機率極低的不對稱技能(如驗證與生成)連結起來,從而解決從未見過的難題。這說明RL不光在銳化,也確實能夠有效組合新的推理方法。但學術界的這種形而上討論,沒能阻止業界的工程優化熱情。因為Benchmark的成長不會騙人。強化學習的本質,就是透過與環境互動獲得回饋,在探索未知與利用已知之間尋找平衡,以最大化長期累積獎勵為目標,從而學習出一套最優的決策策略。因此,它的工程可以拆分成核心的三個策略,探索策略(採樣)、評分(包括評分標準和如何評分)和參數更新演算法三個部分。在2025年,強化學習的方法在其中兩部分都得到了明顯的發展。而採樣的策略則還是集中在蒙特卡洛方法(一步一步尋找新分支)、暴力溫度採樣(調高模型的多樣性,采出多種可能)和在23年大火的STaR 模式(就是模型對自己的結論點評後,根據點評再找別的路)這三種方法上,不過25年,因為DeepSeek R1的成功,因為暴力溫度又能出明顯了主流工程結果。評分系統的革新在2025年首先發生的是基於可驗證獎勵的強化學習(RLVR)和稀疏獎勵指標(ORM)的全面崛起。由於DeepSeek R1的成功,讓大家發現,只要給模型一個對錯結論作為獎勵訊號,模型就可以自發性探索其中的推理過程。這導致了ORM的崛起。而在ORM領域,那些能明確給出結果對錯(可驗證的客觀真理)的領域,例如數學、程式碼、邏輯等方面,強化學習就很好下手,效果也很容易提升。基於這些客觀真理形成的強化學習獎勵機制,就稱為可驗證獎勵。在2025年前半年,RLVR(驗證結果)+GPRO(分組探索解法)的方法突飛猛進,基本上成了主流方法,也帶來了模型在程式碼、數學領域的能力大幅提升。然而,用的久了,大家發現如果像複雜數學、程式碼這種推理過程過長的情況,那ORM很有可能會崩掉。所以有的公司會在其中加一部分過程獎勵評分系統(PRM)的因素,例如Qwen的代碼解釋器驗證,主打辨識推理過程中的錯誤步驟。而防止ORM崩潰跑偏的KL正規理論也在今年有了更多的發展。另一個問題就是RLVR是挺好用的,但不是所有領域都有可驗證的真假,比如在文學、乃至醫療這種更偏統計性的領域,目前就沒有完全的真假科研,那怎麼辦呢?因此我們可能需要一個更宏大的Universal Verifier(通用驗證器),去解決這個問題。目前已經有的兩個思路,一個外求法:既然標準不唯一,那就人工或靠模型製訂複雜的評分細則(Rubic),然後讓模型根據Rubic去進行獎勵。而另一個,是相信模型自己的直覺(內求法),利用模型自己的確信度去影響無明確獎勵的領域訓練。例如Kimi K2的joint RL stage策略,就是把RLVR 和self-critique rubric reward 結合起來做RL。參數更新演算法的革新DeepSeek R1帶來的第二個RL震盪就是GPRO演算法的流行。在過去,RL的主流方法是PPO,在這個框架裡,有兩個角色,一個是Actor Model,負責寫答案。還有一個是Critic Model,來給演員的每一步打分數。這個方法特別適合PRM,給每步都評分,但它非常貴,因為它得一直在線訓練,讓模型嘗試完了再在線打分。但GPRO不一樣,它直接把Critic模型切掉了,讓模型產生一組答案,算平均分數來代替Critic,來看誰做的好,誰做的壞。一下子省下來50%的顯存,搭配ORM,更是極簡中的極簡。非常省成本,效果也不差。因此,基本上國內各家都是在GPRO的框架上延展,在2025年這一年發展出了各種變體。例如Qwen的GSPO的優化引入了分數加權,不只看你是否高於平均分,還看你的絕對得分是多少,讓GPRO能夠從對的里選出更好的,把全錯的都排除出梯度,讓訓練更穩。 Minimax的CISPO,則是發現傳統GPRO / PPO訓練的時候,會暴力截斷過長的COT上下文,導致核心思考沒辦法用起來,所以做了個重要性採樣,保留下更重的部分去更新。除了這些特別具體的更新外,業界同時試圖找到強化學習的Chichila法則。例如Meta的ScaleRL,就在多種消融實驗中發現RL的成長曲線其實有天花板。他們證明了RL性能與計算量之間不符合冪律(就是Scaling Laws那種算力越大,能力越大的模式),而是符合Sigmoid 曲線的(起步難,中間猛,最後死活漲不動)。這不是什麼好消息,表示RL是有天花板的。我們不能指望靠RL 無限提升模型的智力上限。 它只能把模型已有的(預訓練賦予的)潛能「逼」出來,一旦逼到了100%,RL 就失效了。想再突破,還得回去革新底座模型或是演算法架構。但好消息是,我們離天花板還很遠呢,還差著一堆工程創新。另外,基礎模型的能力提升也不是完全停滯的。ScaleRL也提出了一套最佳工程實踐,包括使用長思維鏈(Long CoT)作為關鍵驅動力,以及使用大Batch Size(如2048 prompts)來觸達更高的性能天花板。這項研究將RL從「煉金術」轉變為一門精確的工程科學,使得研究者可以透過小規模實驗精準預測大規模訓練的效果。所有這些對RL工程的探索,使得今年的模型,能夠在不增加參數的情況下,依然在整體能力上穩步上升。一次又一次打破ARC和Humans Last Exam的標尺,同時帶動了數學和程式碼能力的大幅上升。02記憶與學習, 治癒模型的健忘症如果說Test Time Compute是前半年最重要的模式變革,那後半年最重要的模型變革,就是記憶能力的提升。畢竟,這是唯一在GPT-5時代,在AGI得分裡還是0的分支能力,屬於短板中短板,漏水的大戶。模型沒有記憶有啥問題?第一,沒有記憶能力的模型不可能在現實中自我學習,必須得在算力工廠裡再訓練學習。這種再訓練昂貴,訓練源可能與日常使用完全脫節,因此持續學習成了一個無比困難的事項。第二,想有個能記得你是誰,你的偏好的AI,就變得很費力。例如我的Gemini 3,現在只靠系統級的Prompt累積一點點關於我的記憶,但大半還是錯的。在24年大火的RAG(檢索增強生成)雖然作為一種外掛式的「海馬體」緩解了這一問題,但它當時的形態只是資料庫和搜尋機制,還很不好用。在25年,記憶問題的研究其實得到了許多發展,只是大多出現在後半年,尚未真正融合進工程。記憶可以分為三種方式,上下文作為記憶、RAG處理過的上下文作為記憶以及將上下文融合到參數裡,內化的進行記憶。難度層層遞進。今年RAG和參數調整的記憶方式都發生了很大的科研進步,但其中最耀眼的是Google Research發布的Titans 架構以及Nested Learning,是2025年記憶領域的最大突破,屬於架構級提升。從根本上挑戰了Transformer的無狀態假設。我們現在一個個看。模型,獲得活著的記憶Titans 是一個深度的神經長期記憶模組,能夠在測試時(即推理過程中)即時更新自身的參數。這和傳統的Transformer層,訓練完就凍結完全不一樣。 Titans在一開始就是個空容器,就一個初始權重,將歷史資訊學習進神經記憶中。和傳統的壓縮模式(Mamba)比,這種學習是無損的。那怎麼決定什麼東西記憶,什麼不記?靠驚奇度(Surprise Metric),模型會根據輸入資訊的意外程度(梯度大小)來決定是否將其存入長期記憶。這和人差不多,越新鮮有衝擊的東西越記得住。Titans是隨時更新權重的,這意味著還要做反向傳播和梯度更新,豈不是很貴嗎?確實,單看是很費GPU算力,但它一般是和普通Transformer層混用,只佔一小部分,所以雖然但並不很重,而且可以省去巨量的上下文開支。而且,它還可以將記憶作為額外的上下文輸入給注意力機制,如同一個高級助手,提供背景資訊。透過門控機制融合短期注意力與長期記憶,處理更靈活,並行處理短時與長時依賴。這也可以提升模型本身的效率。同時,Titans也引入了遺忘機制(Weight Decay),自動清理不再重要的資訊。如果說這是在不會記新東西的Transformer上加了一些記憶模組補丁,那麼Nested Learning就是一個更宏大的架構改變。在Nested Learning中,Google做了一個分層,把模型的架構分成了低、中、高三個更新頻率的神經網路層。把整個模型的參數凍結都解放了,這個模型都是活的,可以隨時調整參數。低頻參數的調整很慢,大概需要16M token的前向更新才會調整一次。它保證了知識的延續性,避免了災難性遺忘。而快速的回饋則交給高頻的神經網路層處理,這樣可以快速反應,做短期記憶。於是我們就有了一個持續更​​新的,非凍結的神經網絡,它可以抱持長期記憶,並持續學習。而且因為更新頻率不高,且更新比較局部,其成本比一般的SFT、RL達成同等效果的成本還要低。谷歌甚至提出了一個更大的體系MIRAS,它把序列模型看成一個會邊讀邊寫的聯想記憶模組。每一個token,你把它投影成key 和value;模型用當前記憶去「檢索/回憶」一個value;然後用一個內部目標函數(attentional bias)和一個保留/遺忘約束(retention gate),透過某種線上優化/更新演算法(memory learning algorithm)去更新記憶。 Titans和Nested Learning,都屬於在不同層面上對MIRAS的嘗試。這項調整,使得模型具備了持續學習和更新長期記憶的基礎。不過考慮到它對模型架構的改變,在工業大規模應用上可能還需要一段時間。RAG模型化之前,RAG曾被訌諷為圖書館員,只增不減,照單全收。但2025年,它發生了質的飛躍,演變為具備反思與進化能力的系統,甚至可以在一定程度上產生如同參數般的效果。這波RAG改造浪潮中,比較有代表性的還是DeepMind 提出的ReMem 和Evo-Memory。ReMem讓RAG不再是簡單的資料庫式的“檢索-生成”,而是透過一個Agent 引入了Action-Think-Memory Refine 的全鏈路處理方法。在新上下文存入記憶前,會有個Agent對其進行「內省」(Think),標記出那些是無效步驟,那些是關鍵策略。在記憶過程中,模型也會對進來的上下文進行修剪(Pruning)和重組(Reorganizing),讓它更容易被檢索,保留最重要的資訊。同時,模型會定期清理無用的記憶,甚至將失敗的嘗試作為「負面教材」存入,其效果等同於RLHF(人類回饋強化學習)的負向懲罰。這機制使得記憶不再是靜止的錄影,而是經過壓縮和提純的智慧。它儲存的更多是策略,使得模型在處理類似任務時能夠調用過往的成功經驗,實現了真正的經驗復用。微調與蒸餾讓遺忘性災難不再存在在2025年之前,災難性遺忘是參數記憶更新的最大敵人。模型用微調的方式做更新,很容易學了新的忘了舊的,通用能力受損;用強化學習做更新,不容易遺忘,但成本又太高。但在2025年,學術界提出了多種解決方案,讓模型在學習新知的同時不失去舊能力。例如Meta 提出的Sparse Memory Finetuning (稀疏記憶微調)。它在Tansformer裡加了一個百萬個獨立插槽的空白記憶體層。當新知識進入時,系統篩選出更不重要的、和核心舊知識相關性不高的插槽進行更新。這種稀疏更新策略,確保了在註入新知識的同時,絕大部分舊參數保持不變,從而完美保留了原有能力。實驗表明,在TriviaQA事實注入任務中,該方法僅導致11%的舊知識遺忘,遠優於全量微調的89%。再如Thinking Machines 提出的在策略蒸餾(On-Policy Distillation, OPD),結合了RL 的取樣方式和SFT 的監督訊號。訓練資料不再是老師的錄影,而是學生模型自己即時產生的軌跡。學生要在自己真實的「犯錯分佈」中學習,這是RL的取樣方法。但它評估用的是SFT的密集回饋,老師模型會全程陪跑,在學生生成的每一個Token 上都計算KL 散度(即直接告訴學生你和我的差距在那裡),提供密集的即時反饋,而不是像RL 那樣最後才給一個標量分數。這種方法創造了一種既不會導致災難性遺忘,同時也極大壓縮成本的參數更新方式。兩條路徑,最終都導向了透過微調更新模型參數更穩定的路徑,這樣的話模型就可以更快捷、便宜的進行線下更新。夢想中的白天模型陪你說話, 晚上你睡覺更新你的神經元連接,它微調更新它的參數,也許會變成可能。03走出“柏拉圖洞穴”,迎來空間智能(Gv) 與世界模型另一個在Bengio AGI定義2024年得分還是0的一項,就是視覺處理。今年,這項能力在Sora 2、 Veo 3等生成影片的爆發之下,得到了有效的提升。在Veo 3等模型能夠有效保持物體位置一致性的情況下,模型似乎開始有了對物理規律更深的掌握,進入到了空間智能和世界模型(World Models)的範疇。雖然今年主要是李飛飛在大力宣揚空間智能的概念。但實際上在這條路上,一共有三個主流派系和玩家,在今年也都各有研究進展。自監督生成模型的Scaling Law第一派就是Sora 2、Veo 3這些採用了DiT架構的自監督模型,也就是我們常見的視訊生成模型。不過要論空間智能,2025年8月,Google DeepMind發表的Genie 3更明顯。 Genie 3,是個生成的、可互動的、持續演變的3D環境。與其前代相對破碎的呈現不同,Genie 3具有了即時性和一致性。它能以24fps的幀率和720p的解析度即時渲染環境,且能維持數分鐘的場景一致性。如果你在虛擬世界中打破了一個花瓶,當你轉身離開再回來時,花瓶碎片依然在地上,而不是像早期生成視頻那樣莫名消失或復原。除此之外,Genie 3非常好的展現了自監督模型的物理學習能力。它完全沒有參考物理引擎,只是透過觀看海量影片數據,自發性地學會了流體流動、光影反射甚至風吹樹葉的物理規律。之所以視訊生成模型能夠獲得如此大的進步,主要是因為學術界發現了視覺自回歸(Visual Autoregressive, VAR)和擴散Transformer(DiT)的Scaling Law。2024年,字節的Visual Autoregressive (VAR) 模型的提出,排除了Diffusion部分,透過改變token的建模,從行變成圖,讓自回歸獨挑大樑。因為是純自回歸,它的性能嚴格遵循Scaling Law。但這個路子畢竟還是有點野。在25年的論文《Towards Precise Scaling Laws for Video Diffusion Transformers》,更主流的DiT也被發現符合Scaling Law,不過這個Law與LLM不太一樣。與LLM相對穩定的特性不一樣,視訊擴散模型對批量大小(Batch Size)和學習率(Learning Rate)表現出極高的敏感度。直接套用LLM的縮放定律會導致預測失效。但用上特製的Scaling Law,DiT模型就可以大力出奇蹟了。在Veo 3成員的訪談中,Deepmind的員工就表示,訓練這麼好,主要是打通了影片產生的Scaling Law。除此之外,今年影片產生的另一個新變化就是加上聲音了。這主要歸功於Google一直堅持的原生多模態能力。而2025年4月,Apple Machine Learning Research發表了《Scaling Laws for Native Multimodal Models》發現,晚期融合架構(後台多模態)相對於早期融合架構(原生多模態)可能存在一定上限上的劣勢。過去晚期融合模型通常表現出較高的樣本效率,就是我後面加一個影像編碼器,就可以直接讓語言模型變成視訊模型,變化賊快。這意味著費力去訓原生多模態,得不償失。但晚期融合模型在參數利用率上存在瓶頸,為了達到特定的性能水平,晚期融合架構得需要更大的模型尺寸來補償那個新加視覺編碼器帶來的表徵限制,因此同等規模,上限更低。另一個特別值得注意的動向,是VAE的消失。 VAE你可以理解成視訊的壓縮器。一個影片包含的資訊太多,直接給模型,它就會崩潰,所以需要一個壓縮器去壓縮成模型可接受的資訊密度。但這麼一壓縮,重構必然會導致高頻細節丟失,而且VAE是獨立的模型,其生成的Latent Space 與大語言模型(LLM)或多模態模型(VLM)的語義空間不對齊,訓練上非常麻煩。2025 年10 月快手的《Latent Diffusion Model without Variational Autoencoder》 論文提出了SVG 模型,透過直接用影像理解模型取代VAE,統一語意空間,這個模式大大提升了訓練效率(號稱提升6200%)和生成速度。而且它的效果不但沒有因為「快」而縮水,反而在多項核心指標上擊敗了現在的霸主DiT(Diffusion Transformer)和SDXL。因為這個模式,有大一統的美,又有benchmark的美,應該很快就會成為主流。符號主義的World Labs :基於3D CV生成的世界第二派是史丹佛教授李飛飛領導的World Labs 派。這一派的特色就是,生成好,但要在固定的物理框架下生成。純粹自監督,太不可靠了。他們在2025年11月推出了首個商業產品Marble平台。這是一個「大型世界模型」(LWM),旨在從多模態輸入中產生可探索的3D 環境。與Sora 輸出像素流(影片)不同,Marble 輸出的是空間表示。根據媒體分析,Marble 大概率是依賴3D 高斯潑濺(3DGS) 作為其渲染基元,並可能結合了神經輻射場(NeRF)的結構估計原則。當使用者輸入單張圖像或文字提示時,Marble 會估計場景的深度、光照和被遮蔽的幾何結構。然後,它將這些2D 資訊「提升」為由數百萬個高斯「潑濺」(具有顏色、不透明度和縮放屬性的橢球體)組成的3D 體積。始終是放不下CV多年來世界建構的努力。這種對傳統CV的應用,也體現在World Labs 提供的創作工具Chisel 上。它引入了神經符號(Neuro-symbolic)工作流程。使用者可以使用粗略的幾何基元(盒子、平面)定義世界的“骨架”,以建立佈局約束(例如,“我需要這裡有一扇門,那裡有一堵牆”)。生成模型隨後根據文字提示對這一結構進行「繪製」和細節填充。比起Sora 生成的黑盒,Marble雖然不是很性感,但確實更穩定,更可控。也許World Labs這條路能是最早走通工業落地的方向。預測即理解:V-JEPA 2與物理直覺另外一派代表是Yann Lecun,他的特色就是極端的深度學習表徵派。對於他,大家可能都或多或少聽過,Lecun的觀點一直是:自回歸的生成式模型根本不可能掌握物理規則,只是鸚鵡而已。那要怎麼掌握規則呢?靠預測。只有預測,能學習物理規則的表徵,而不是那些像素的關係表徵。 Meta推出的V-JEPA 2,訓練機制就是隨機遮住影像的一部分(Masking),然後要求模型根據先前看到的畫面,預測被遮蔽部分的內容,只練預測。然後,一個教師編碼器看到完整的視頻,根據這個幫學生,生成目標特徵向量。這種設計使得V-JEPA 2具備了極高的語意抽象能力。模型被迫學習場景中那些「可預測」的規律(如重力下落、剛體碰撞),而自動忽略那些「不可預測」的隨機雜訊(如光斑的閃爍、背景的紋理雜訊)。在Yann Lecun的考慮中,這提取了因果本質。這套理念其實並不新,和他2024年初發布的V-JEPA 1完全一致。但當時,V-JEPA 1 只用了100M左右的資料集做訓練,其效果只能是理解視頻,並不能展現出反事實預測的能力。但在V-JEPA 2裡,Lecun優化了訓練過程,花了100萬+ 小時的影片訓練集,結果模型確實湧現了「推演」的能力。在V-JEPA 2-AC(動作條件化)變體中,JEPA模型確實做到了可以預測「如果我執行這個動作,世界會變成什麼樣子」。這毫無疑問,是對這條路徑的一劑強心針。說明預測,掌握物理規則這個訓練模式是有效的。不過到了JEPA 2,它能夠處理的時間跨度也不過64幀(根據採樣規律,約10秒),分辨率只有384x384。和人家生成路線高清2k、20s生成比起來,還是差太多。想要真正實用,還得在工程上做不少事。04重要的是學習從深度學習肇始,核心問題就只有一個,也就是什麼是學習。到2024年為止,大模型早已經具有了許多學習能力,能夠從海量資料中尋找到資料的連結方式,進而達成一種與人不同的學習模式。然而,在2025年,強化學習之父Richard Sutton 仍然批評當前的大語言模型(LLM)只是“被凍結的過去知識”,缺乏在與環境交互中實時學習的能力。這是說模型缺乏持續學習的能力,這個問題在上面記憶部分有可能會被解決。Sutton的另一個批評就是模型並不會元學習,也就是學習怎麼去學習,學什麼。他所謂的元方法(Meta-methods),指的就是「在這個時刻不要把知識寫死,而是把『獲取知識的能力』寫進程式碼裡」的方法。這樣,模型才能利用無限的算力和數據,去適應無限變化的世界。只有有元學習的能力的模型,才能在遇到新問題時, 透過很少幾個樣本,調動腦子裡的「通用解題邏輯」(元知識),立刻做出解答,做到真正的低成本、快速適應。並透過「如何觀察特徵、如何歸納特徵」的能力,迅速歸納出規則達成完整的動態泛化。沒有元學習,模型就不可能應付未知。 因為你無法預知未來會遇到什麼任務,所以你不能預先訓練它,只能賦予它現場學習的能力。元學習與中訓練在2024年之前,學術界一直有關於當時模型是否具有隱性元學習能力的討論。很多人認為是有的,因為有上下文學習(In-Context Learning)的現象。因為我們不改動參數,只是給GPT 看幾個例子(Prompt),它就像學過了一樣能夠舉一反三。對此,包括Anthropic在內的研究機構,都提出Transformer中的注意力機制在數學形式上,與模型學習時梯度下降(Gradient Descent)的更新步驟非常類似。 Deepmind的論文,更證明對於線性注意力模型,Transformer 的前向傳播過程可以被嚴格推導為「在大規模預訓練學到的權重上執行梯度下降」的過程。但同樣,也有很多研究,證明上下文學習其實沒在新學習例子中給出的映射關係,只是在自身的概念空間裡,利用格式(Format)激活了預訓練期間早就記住的知識。就是說啟動了相關性而已,不是真在學,而是在套模版。這和我們所提到的元學習的理念大相逕庭。不過,在2025年12月份,蘇黎世理工也發表了一篇Meta RL的論文,設計了更好的脈絡框架,更有效的利用ICL來作為一種元學習的方式。讓模型透過上下文自我反思和歷史回溯,來形成新策略。在下一次嘗試中,Agent 實際上是在執行一個新的Policy ,因為上下文變了。它看起來和上面提到的谷歌的ReMeM很像,但更關注策略更新,而不是上下文管理。也許他們結合起來,才是最好的上下文作為權重的方法。但最大的改變,是TTC的到來,為隱性元學習提供了其他的可能性。在推理革命初期,大家都發現可能模型思考了很長一段時間,輸出了很長的思維鏈,但要不是沒用,就是都是錯的。所以不是思維鏈越長模型就越強。我們得引導它的思考過程,讓它在最短的思考中,達成最優解。這其實本質上就是一種訓練模式如何思考的元學習。卡內基美隆的研究《Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning》就是在這個方向上的嘗試。它先證明了,模型在推理時產生的長CoT,本質上是一個Agent 在思考空間中探索最優路徑。那如果這種探索可以做到更有效,其實就是一種元學習的能力。這種元學習,就是引導模型在推理過程中,能有效尋找最佳路徑,合理地分配算力。他們使用的策略是累積遺憾最小化(Cumulative Regret)。如果模型多思考了很多步,但答案的置信度沒有提升,這就是個遺憾,需要在後續規避。我們在做強化學習的時候,應該引導模型盡可能減少遺憾發生的可能,讓模型知道遇到這種難度的題,我應該呼叫多少算力、嘗試幾條路徑。這就是學習的方法。但這些方法,雖然比單純的脈絡學習走的遠,但仍侷限在優化現有的探索路徑這個層面,向外探索的能力仍然不足。我們可能仍需要在單純的梯度之外,建構一套明確的系統,引導模型學習學習。例如DeepMind 今年發表DiscoRL,它包含兩個核心閉環:內部循環由Agent在Atari等遊戲環境中試錯,外部循環則由「老師」透過反向傳播觀察學生的表現,不斷修正教學策略(即更新學習演算法的參數)。這個過程讓AI自主發現了想要得到最好的結果,得從“獎勵最大化”轉向“未來預測”,而且這些預測往往集中在重大事件(如Ahamoment和改變方向)發生之前。在這過程中,教師獨立「重新發現」了RL中的自舉法,證明了AI可以透過這種遞歸的抽象從純粹經驗中真的學習到應該如何去探索。實驗結果顯示,由此系統自主發現的演算法(Disco57)不僅在雅達利基準上擊敗了包括MuZero在內的人類設計頂級演算法,更展現了驚人的泛化能力。即使在未見過的ProcGen和NetHack等複雜環境中,它依然表現出色,證明其學到的不是單一遊戲的技巧,而是普適通用的學習法則。Meta在《Agent Learning via Early Experience》的中訓練嘗試,其實也殊途同歸的走向了一樣的路徑。預訓練是讓AI死記硬背專家的正確操作,RL是直接扔到現實世界裡依靠稀缺的獎勵摸爬滾打。而中訓練,就是在這之間讓Agent自己瞎折騰產生後果,並且反思。具體到操作層面,在專家演示的每一步,會強制AI嘗試幾種不同的“備選動作”,然後記錄下這些動作會讓環境變成什麼樣。同時,也要對為什麼專家做得好,我做的不好進行反思。這其實就是訓練AI不僅僅知道“怎麼做是對的”,而是建立起“如果我這樣做,世界會那樣變”的因果模型。在一種探索和嘗試,以及對嘗試經驗的遞歸中,模型也許確實學會瞭如何學習這個世界的規律。它能顯著提升其在WebShop、ALFWorld等複雜環境中的成功率(平均提升9.6%),並大幅增強了泛化能力。這幾種方法有一個共通性,即他們都掌握了「想有效探索,必須建立一個對世界的預測」的想法。這和Google《General Agents Need World Models》一文的結論不謀而合。神經科學的投影2025年的神經科學研究,讓我們可能能更理解人類是如何進行學習的。過去我們認為神經網路是一個混雜的“黑盒”,但在《Building compositional tasks with shared neural subspaces》這篇論文證明了大腦內部存在著結構化、正交化的神經子空間。這些子空間就像是物理層面的“符號”,它們將“顏色”、“形狀”、“動作”等概念從混沌的電信號中剝離出來,形成了獨立的、可複用的模組。研究發現,大腦執行新任務不是靠修改神經元的連結(長出新腦細胞),而是靠一種「動態路由」機制。前額葉皮質根據當前的“任務信念”,像接線員一樣將不同的神經子空間重新連線。其實人類在學習過程中,是將簡單的模組拼裝成新任務來去行動。今年哈佛的論文《WHAT DOES IT MEAN TO UNDERSTAND LANGUAGE?》則認為大腦的「語言區域」其實並不負責真正深刻的理解,它只是做了一些表層的處理,然後必須把訊息「外派」給大腦的其他專門區域(比如負責視覺、社交、物理推理的區域),才能實現真正的「深度理解」。在這種理解之上,2025年湧現了許多對模型進行分區的嘗試,包括上述的記憶分區,或是把模型的參數分成專門處理快、慢反應的兩個組別的嘗試。05讀寫速度、注意力和Scaling Law的基礎以上四個部分,可以說是2025年最引人注目的四個進步。因為它們在AGI的量表中,都是一步步覆蓋到原來完全為0的新領域。從零奠基,範式革新。然而在這之外,2025年也有其他一些重要改變,有效的補齊了過去模型並不擅長的領域(例如上下文和處理速度),並且可能隱含著一些訓練範式上的大規模修正可能。以下我們就透過一章,快速涵蓋這些領域。對抗“Scaling Law的消失”就像文章一開始所寫,在2024年末時,GPT 4.5已經遇到了網路資料枯竭的問題。而且在訓練超大型稠密模型的工程難度也幾何增加,問題不斷。Scaling Law眼看難以為繼之時,OpenAI 在GPT-5.2 中並未繼續盲目擴大參數,而是靠稀疏性(Sparsity),即MoE、合成資料(Synthetic Data)與RL加強三方結合,突破瓶頸。MoE,是DeepSeek 一直以來的方法,在V3成功之前, 業內很少有人使用。但它確實具有訓練資源消耗少的特徵(一次訓練整個模型vs 一次只訓部分專家),因此,大規模稠密模型帶來的工程問題在一定程度上被解決。而強化學習和測試時時間,讓模型可以繞過參數的Scaling Law,用上面說到的RL的Scaling Law繼續提升能力。但數據怎麼辦?在2025年,隨著推理能力的進步,模型現在已經可以自主生成長思維鏈(COT)文本了。 DeepSeek R1的論文表明,利用DeepSeek-R1產生的長思維鏈對小模型進行微調,其效果遠超使用人類專家編寫的CoT數據。因此,到此時合成資料的問題已經解決了一半。另外,2025年也有很多證據證明,數據在精,不在多。而且品質最好的就是長COT數據。芝加哥大學團隊的實驗數據表明,當數據量達到一定規模後,資訊大多是重複冗餘的,訓練效果反而不好。與其盲目追求P資料量,不如透過去重和多樣性篩選來降低資料密度,加強單位資料的「驚奇度」(Surprisal)。而且最有驚奇度的在現階段正是長COT。在他們的實驗Select2Reason中,僅僅篩選出前10% 推理路徑最長、最複雜的樣本進行訓練,其效果就匹配甚至超越了全量數據集。因此,長COT文字合成數據,已經成了翻越數據牆的一種最有希望的方式。但2025年10月的一項熱點研究發現,模型在大規模使用合成數據,包括互聯網上流行的AI生成數據後,會發生“腦損傷”,也就是遞歸(持續用自己推導自己)導致的模型崩潰(Model Collapse)。一方面模型的長尾泛化能力下降,另一方面,模型會持續放大過去產生的錯誤,盲目自信。不過研究並沒有單獨拎出來長COT文字資料做範例。好在這並非必然。南洋科技大在NeurIPS 2025的論文中,就建立了一種利用自我驗證機制過濾資料的方法。在產生合成資料後,模型會計算其內部置信度分數。如果分數低於某個閾值,表示模型對該生成內容存疑,那麼這些資料就要被丟棄。他們的數據證明,只要模型的校準誤差在一定界限內,僅憑自我驗證就可以在完全合成(Fully Synthetic)的資料體制下,讓模型一直訓練下去,而不會崩潰。在2025年,科學研究界也發明出了更複雜的方法來做清洗。例如利用另一個模型作為裁判(LLM-as-a-Judge)去搭建一個資料清洗流,確保其可驗證性和效果。甚至有意識的讓Agent去生產模型知識空間中的空白(Missing Nodes),以解決遞歸帶來的多樣性喪失。感謝蒸餾,我們或許不必再承擔推理慢的代價了Gemini 3 Flash在年底的橫空出世,讓人對小模型的能力提升有了非常直觀的感受。在Gemini 3 Flash之前,雖然Nvidia一直鼓吹小模型時代,微軟的Phi 4、谷歌的Gemma 3等小模型也表現不俗,但沒有任何一家的小模型能夠真正替代自家主流模型成為日常主力模型。所以2025年這一年到底發生了什麼,讓小模型突飛猛進?主要是蒸餾方法的兩大主要的進步:MoE的蒸餾,以及COT的蒸餾上。先說MoE蒸餾。在DeepSeek的帶領下,現在主流的模型都是用MoE的架構了。但先前的傳統的蒸餾方法往往忽略了那些未被路由選中的專家(Non-activated Experts)所蘊含的「暗知識」。2025年2月的論文《Every Expert Matters》就提出了針對MoE 的特化蒸餾方案。此方法在蒸餾過程中,透過多次採樣或強制活化策略,讓學生模型接觸教師模型中不同專家的組合輸出。這樣學生模型(通常是較小的稠密模型)不僅學習到了“最優解”,還學習到了不同專家對同一問題的不同視角。這類研究,給出了MoE蒸餾的工程方向。另一個難題就是將長思維鏈能力高效遷移到小模型。傳統的單一教師蒸餾處理長序列推理中的誤差累積問題非常不力,並不適合長COT的蒸餾。而簡單的將多位教師的資料混合(Data Union)往往會因為推理路徑的衝突而導致模型困惑,反而降低了效能。為了能因應這個情況,思維融合蒸餾(Merge-of-Thought, MoT) 應運而生。這是一個輕量級的、迭代式的蒸餾框架,透過共識去噪(Consensus Denoising)原理,讓多個教師可以有效的引導學生模型,還可以避免長序列推理的誤差累積。例如在解決同一個複雜數學或邏輯問題時,不同教師的表達各異,但其核心的推理邏輯往往是相似的。就那乾脆在高維度參數空間中,讓學生模型能夠提取出所有教師的“公約數”,即最穩健的推理邏輯。透過這兩種方式,加上長COT本身對蒸餾的增強作用,讓小模型的能力越來越強。也許有一天,我們甚至不用犧牲推理帶來的速度減緩,就能享受完整的智慧體驗了。注意力機制的變化,解放脈絡每一年,注意力機制都會有些新突破。畢竟這是自迴歸框架下最重要的機制之一,它深度影響了大模型的脈絡能力和指令遵從能力。 2025年的變化相對比較多元。如果說2024年以前是MHA(多頭注意力)的時代,那麼2025年則是MLA(Multi-Head Latent Attention,多頭潛在註意力)及其變體全面普及的時代。從DeepSeek從V3開始採用MLA架構後,它就開始大受歡迎。畢竟既能壓縮大量降低顯存佔用,又能保持了原有註意力機制的水平,多好。而且在推理COT越來越長的背景下,的KV Cache顯存爆炸問題更嚴重,MLA 也更加流行。不過在發展過程中,MLA現在很少是作為一個獨立的注意力層被應用,而是更多地作為一種「高性能組件」被嵌入到混合架構中,給其他更高效的注意力新方法做精度保底。2025年的另一個變化是線性注意力的複歸。長期以來,線性注意力被視為全注意力的一種「有損壓縮」妥協方案,它用精確度的下降換取推理速度。但在2025年,隨著Kimi Linear的發布,這種刻板印象被徹底打破。Kimi Linear採用3:1混合架構(3層線性穿插1層MLA),利用線性注意力層承擔主要的計算負載(節省75% KV緩存),再利用MLA兜底全局信息,實現了在1M超長上下文任務(RULER測試)中達到94.8的高分,性能上首次全面超越全注意力。這標誌著線性注意力現在又了從備胎轉為主力的實力。除此之外,Kimi還證明了線性注意力可以內在地學習各個token的位置信息,從而不再需要傳統的RoPE(旋轉位置編碼),在1M上下文解碼時,少了ROPE和N方的計算量,它的吞吐量可以達到全注意力的6.3倍。除了在傳統的Token層面優化注意力,2025年的另一個重要趨勢是打破離散Token的限制,朝向連續空間(Continuous Space)演進。這以「大型概念模型」(Large Concept Models, LCM)和騰訊的CALM(Continuous Autoregressive Language Models)為代表。傳統的LLM只預測下一個token,因此非常慢,且對於長文本概念的關聯性理解也不行。 Meta的Large Comcept Moedel 則試圖將多個Token壓縮為連續向量,從「預測下一個字」轉變為「預測下一個概念向量」。這增加了每個生成步驟的“語義頻寬”,在一次推理步驟中產生相當於原來4倍的信息量,理論上能讓模型訓練和推理的更快。這個邏輯很好,但在LCM提出時,因為壓縮token向量的工程化問題,其訓練效率並沒有比傳統方法提升太多。但今年10月,騰訊的CALM才第一次在工程上找到了平衡點,用更極簡的方式證明了這條路徑的工業可行性。062026,模型研究可能往那裡走?在了解完2025年模型的進步路徑後,我們可以暢想明年可能出現的一些研究方向。首先,我們上面提及的這些方向,毫無疑問會朝著更精細化和工程化的方向演進,進而為我們帶來模型體驗上的持續提升。從2025年的技術總結中,我們已經可以看到,幾乎所有重要的Scaling Law繼續發威的絆腳石都被搬的七七八八了。也正是因此,我們才在年末迎來了Gemini 3和GPT 5兩個確實提昇明顯的新模型。雖然像Test Time Compute這類範式革新性的創新是難以預測的,但有些已有苗頭的新方向很可能會在2026年結果,產生很重要的落地應用。我下面會羅列一些我認為可能會發生的技術推進方向。記憶的工程化實踐2026年,一定是記憶大年。因為記憶關切持續學習,事關Agent落地(個人化和新技能學習),如果理論上的方向已經明確,那除了工程上的難題外,基本上沒有什麼可以阻止它落地。在AI領域,我們以TTC革命為例子,可以看到一個複雜的系統性新想法從產生、實驗、工程落地,大概需要的時間是2年左右。 2024年末的GPT o1,實際上在22年左右,已經在Illya腦海中逐步成型,到方法確定和工程優化,大概用了整整兩年。在2025年,我們看到了從RAG、微調到架構上三種路徑上的思考都逐步邁向成熟,並且已經進行了小規模的實驗。這說明很可能再有一年時間,這些研究成果就可能在工程上成熟,被採用。在一個成功架構(例如像DeepSeek R1)的推動下,成為標配,完成範式轉換。即使做不到架構層的變化,RAG層的精修和SFT技術的最佳化,也可以讓之前那些實驗性的記憶系統,例如Mem0、Second Me有了更好的落地體驗。在2025年中,基本上主流模型都已經配置了基於情境的記憶系統。但在2026年,更細節,更具學習性的記憶將會逐步被產品化。標準架構的變革不論是Nested Learning、還是元學習,以及Universe of Thought,似乎都在證明著,我們當下的語言模型架構必須進行一些升級,才可能補全其缺失的能力。這種升級的趨勢主要以分區、分層、增加更多功能層為特質。不管是直接在層級間加入Titans 的記憶層,還是像Herachical Reasoning 那樣,把模型分成不同的分區,都可能更符合人腦運作的模式。在2026年,這種潛在的混合架構,可能會隨著神經學和符號主義的回潮,變得有更多更豐富的嘗試。進化的螺旋開啟2025年除了推理這個字之外,最熱門的應該就是自進化了。這是機器學習的聖杯。一個可以無限自我對弈、自我演化的通用型AI,基本上等於是AGI、ASI。不過在2025年,探索才剛起步。在這一年裡,有借鑒了生成式對抗網絡,讓模型能夠在無數據的情況下,自問自答進行強化學習的。這條路確實走的通,也確實是自進化,但它的上限依然受制於模型本身的預訓練能力,暫時沒有呈現出超過人工設計的後訓練的水平。自進化AI的另一個驗證方法是是否能發明出讓自己進化的演算法。這就是Alpha Evolve努力的一個方向。它是由系統使用Gemini Flash(追求速度)和Gemini Pro(追求深度)組成的模型集成,形成一個獨立的探索Agent。系統將目前表現最好的演算法程式碼作為上下文輸入LLM,並告訴這些Agent,去優化這段程式碼的某些具體方向。 LLM由此產生多個變異版本的程式碼。在Agent規則的限制下,這些變異一般是邏輯層面的重構,例如改變循環結構、引入新的數學技巧或調整資料結構。產生的程式碼會被放入沙箱環境中執行。系統透過預先定義的測試案例驗證其正確性(Provable Correctness),並透過效能分析器測量其效率(如延遲、吞吐量或指令數)。那些既正確又更有效率的演算法將被保留,成為下一代的父本。由此,持續的多次最佳化,最終帶來演算法的最優最佳化。在實踐上,Alpha Evolve確實找到了優於人類答案的最佳化演算法。不過,我們其實可以把Alpha Evolve看成Deep research的變體版本,只是把搜尋部分換成優化而已。在缺乏反思和內化,只是作為流程Agent存在的大模型,雖然確實可以找到演化演算法,但很難稱之為自進化。以上兩種比較有代表性的嘗試,其實都屬於自進化早期的嘗試。在記憶、合成資料、後設學習的模式完善之後,自進化的AI在2026年必然會產生更多的可能性。(騰訊科技)
中國 DeepSeek AI 預測:XRP、Solana、Dogecoin 到2025年底的目標價會到哪?
被稱為「ChatGPT 殺手」的中國頭部 AI——DeepSeek,發布了對 XRP、Solana(SOL) 和 Dogecoin(DOGE) 的 12 月價格展望,並提醒交易者:這三者本月都可能迎來更高的波動率,行情容易出現急拉急砸。隨著加密市場即將結束“最慘月份之一”,臨近聖誕節,整體盤面正在出現修復反彈。但從年度表現來看,2025 年對比特幣並不友善:截至撰稿時,BTC 年內(YTD)跌幅已超過 7%,年初價格接近 9.9 萬美元,如今大概率會以低於該水平的價格收官。即便如此,放大週期來看,市場的大結構仍偏向正面。分析師仍認為 XRP、SOL、DOGE 這類相對「能活下來」的強勢山寨/優質山寨,長期仍具備表現空間。在市場情緒和流動性逐步穩定後,各項目可望重新獲得向上行動能-以下是 DeepSeek AI 對其趨勢的預期推演。XRP(XRP):DeepSeek AI 認為要麼“全面崩盤”,要麼衝到 5 美元DeepSeek AI 的偏空劇本顯示:如果市場情緒持續疲軟、資金風險偏好不回升,Ripple 的 XRP 可能會從當前約 2.07 美元 出現深度回撤/瀑布式下跌,跌幅高達 91%,一路砸到接近 1 美元,並可能在 2026 年 前後維持在該低位附近。來源: Deepseek從 2025 年 XRP 的整體價格走勢來看,多頭劇本反而更佔優。不少人把 Ripple 稱為「年度進步最大幣」。因為在 2025 年 8 月,與 SEC 的訴訟最終塵埃落定,帶來了徹底的監管清晰度,進而解鎖了 11 億美元+ 的機構資金淨流入,同時 RLUSD 穩定幣 也順利上線落地。在這些利好加持下,XRP 一直守在 2 美元上方,並且還有 現貨 XRP ETF的持續資金流入提供支撐,市場信心被進一步抬升。部分分析師因此認為,XRP 接下來有機會向 3 美元 發起衝擊。來源: XRPUSD / TradingView只要 XRP 能穩守 2.00 美元上方,刷新 歷史新高(ATH) 的可能性仍然存在。圖表上曾有一次價格跌破 2 美元,當時對多頭來說就很不妙,盤面明顯轉弱。目前的關鍵突破門檻/頸線位在 2.70 美元:這裡先前是非常強的支撐位,但最近已經發生支撐轉阻力(S/R flip)。如果價格能重新收復並站穩該區域,就可能確認突破,打開上行空間,目標指向 3.70 美元 左右,對應約 80% 的上行幅度。Solana(SOL):DeepSeek AI 預測或將出現 700% 等級的突破Solana 依舊被視為本輪週期的“週期之王/強勢主線”,過去 7 天 在市場波動持續的情況下仍保持強勢,漲幅超過 2%,體現出較強的抗跌與相對強勢。DeepSeek AI 認為,Solana 可能會在 可擴展的 C 端應用 賽道進一步“加速開掛”,隨著生態持續擴張、機構採用度提升,有機會在 2026 年初 前後打出一波約 700% 級別的主升浪/突破行情。如果多頭敘事走不出來,空頭劇本其實也不會比當下更慘太多:DeepSeek 預期 SOL 可能回撤到 100 美元 附近的強支撐/心理關口,作為下一道防線。此外,光是 Solana ETF 這條線就可能為 SOL 打開通往 400 美元 的想像空間——因為目前已經吸引到明顯的機構關注,並且連續多日出現淨流入,資金面表現偏強。來源: SOLUSD / TradingView不過,SOL 眼下有個關鍵任務:必須突破並站穩 144 美元 這道強壓/套牢密集區。如果衝不過去,SOL 可能會在聖誕節前先走一波回踩/下探,然後再擇機二次衝關。要維持多頭劇本不崩,價格必須守住圖表標示的那段需求區/承接帶。一旦該區域失守,DeepSeek 預測的 100 美元 回撤目標就可能被觸發。DeepSeek:狗狗幣(DOGE)或再次衝擊 1 美元「Meme 幣市場已經涼了。」這是 CryptoQuant CEO Ki Young Ju 最近的表態,也不難理解他為什麼這麼說。從山寨盤裡 meme 幣的市佔比來看,已經快跌到新的歷史低點(ATL)。這基本說明了:曾經最能帶動散戶熱情的主線之一,現在熱度和資金都明顯退潮了——可憐的 meme 幣。來源: CryptoQuant儘管如此,DeepSeek 仍認為 meme 板塊存在修復反彈的可能性,並指出:如果 DOGE 未來能在像 X(原 Twitter) 這類大平台上被整合為支付手段,很可能會重新點燃市場情緒,觸發一波拋物線式拉升。但就目前來看,DeepSeek 更偏向空頭劇本:一旦市場風險偏好下滑、資金從 meme 敘事資產撤離,DOGE 可能出現一波深度回撤/大幅回調,甚至有概率回到 0.08 美元 附近。DOGE 現貨 ETF 的成交額已降到 14.2 萬美元,創下這些產品上線以來的最低水準。根據 SoSoValue 數據,成交量自 11 月下旬 起明顯走弱——當時日成交額還曾多次衝到 323 萬美元+。不過,DOGE 目前仍算有點抗跌:價格一直守在 0.14 美元上方。如果後續能突破並收盤站上 0.18–0.20 美元 這一段強阻力/套牢區,就能進一步確認強勢,打開上行空間,目標區間有望看向 0.24–0.26 美元。來源: DOGEUSD / TradingViewMaxi Doge:高風險高報酬的 Meme 幣押注,交易員正緊盯不放儘管 DeepSeek 等 AI 模型警告 meme 幣市場仍在承壓,但不少交易員已經在為下一輪板塊輪動提前埋伏。在這輪「重置期/洗牌期」裡,一個正在獲得關注的項目是 Maxi Doge——一個受 Dogecoin 啟發的新 meme 代幣,主打純投機敘事、高槓桿文化 和社區動能驅動。Maxi Doge 完全吃透 meme 能量:核心形像是一隻「練成大塊頭、開高槓桿的健身房老哥」Doge,象徵 risk-on 的交易心態。這裡沒有硬凹的「實用性」故事,專案定位很明確——面向懂週期、想在 meme 幣重新回到主流視野前就先拿到早期敞口的交易者。即便在市場相對冷清的階段上線,Maxi Doge 也已經募資超過 429 萬美元,說明在整體 meme 情緒偏弱的背景下,仍然出現了早期需求。代幣分配同樣是賣點之一:大約 40% 的供應量直接給到公開預售,且沒有私募/VC 輪,從而降低了「內幕盤/機構砸盤」帶來的潛在拋壓風險。此外,專案還上線了質押,為早期參與者提供最高約 72% 的年化收益(APY),讓 MAXI 持有人在等待下一波投機浪潮期間也能“邊拿幣邊吃利息”,而不是在震盪整理裡乾等。透過關注 Maxi Doge 官方 X(推特) 和 Telegram 電報群/頻道,隨時取得專案最新動態與公告。如何購買Maxi Doge($MAXI)?按此瀏覽原文免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。
中國DeepSeek AI預測2025年底以太坊、Cardano、Ripple的價格走勢-加密貨幣新聞
中國領先的ChatGPT競爭對手DeepSeek AI發布了一項雄心勃勃的前景預測,預計XRP、Cardano和以太坊可能在新年來臨之際為投資者帶來快速、爆炸性的收益。傳統上,「Uptober」標誌著加密貨幣領域延續牛市動能的開始。今年最初遵循了這一模式,比特幣於10月6日星期一攀升至歷史新高,點燃了整個數位資產領域的廣泛樂觀情緒。然而,這種熱情迅速消退,唐納德·川普宣布對中國進口商品徵收100%關稅,引發了加密貨幣歷史上最嚴重的單日拋售之一。本週早些時候的短暫反彈暗示了恢復潛力,但很快就被抹去,因為交易員在聯邦儲備局即將召開的FOMC會議前轉向謹慎,寄希望於貨幣政策放鬆的跡象。但資深投資者保持冷靜,許多人將這項修正視為自然的市場重置。歷史上,深刻的回調往往為強勁的反彈鋪平道路,有助於消除過度槓桿頭寸,並為更永續的成長奠定基礎。以太坊 (ETH):DeepSeek針對領先智慧合約平台目標10,000美元作為去中心化應用和DeFi協議的支柱,以太坊 ($ETH) 擁有5430億美元的市值,其生態系統中總鎖定價值超過851.6億美元。DeepSeek AI預測ETH可能在年底前飆升至15,000美元,從目前3,949美元的價格點上漲280%。如果川普政府推動全面的加密友善改革,進一步的順風可能出現,有潛力注入監管信心,促進更廣泛的機構參與。ETH目前在上4,000美元區間附近與阻力作鬥爭;成功突破可能開闢通往6,000美元或更高的道路。即使價格維持在4,000美元以下,以太幣在3,500美元至3,700美元之間仍有堅實支撐。強勁的10月反彈可能將ETH推高至6,500美元,並可能創下新的歷史新高,在全面牛市情景中,12,000美元仍是年底目標。Cardano ($ADA):DeepSeek預計本季成長高達1,200%在DeFi領域,Cardano ($ADA)持續定位為以太坊的強大挑戰者,吸引了活躍的開發者群體,並推動創新區塊鏈應用。由以太坊聯合創始人Charles Hoskinson創立,Cardano透過同儕審查、研究導向的方法區分自身,強調可擴展性、永續性和形式驗證。目前市值248億美元,Cardano仍是主要的智能合約平台,雖然要與Solana競爭並嚴重挑戰以太坊的主導地位,需要四倍擴張。DeepSeek的樂觀展望設想ADA在2025年底攀升至7–10美元,從目前約0.6801美元水準上漲高達1,370%。技術上,ADA已經突破了夏季建立的看漲旗形形態,面臨約1.10美元的初始阻力。如果10月的反彈獲得牽引力,ADA短期內可能接近2美元,而持續的牛市動能可能將其推高遠超2021年的歷史高點3.09美元。XRP ($XRP):DeepSeek預測將上漲至10美元DeepSeek的AI驅動預測表明,Ripple的XRP ($XRP)可能蓄勢待發,準備進行重大突破,潛在漲幅將價格在年底前提升至5至10美元之間,從當前約2.51美元價值上漲約四倍。Ripple今年稍早在與美國證券交易委員會(SEC)的五年法律對峙中取得里程碑式勝利,重燃投資者信心,並於7月18日將XRP推高至3.65美元,這是自2017年以來最高水平。在過去十二個月,XRP上漲359%,表現優於市場巨頭比特幣(+67%)和以太幣(+46%)。圖表分析突顯了2025年出現的三個看漲旗形形態,其中兩個出現在夏季,這些形態通常先於強勁的上行移動。隨著10月的季節性趨勢與潛在的ETF批准、改善的監管清晰度和新的Ripple合作夥伴關係相結合,DeepSeek建議XRP可能衝向夢寐以求的10美元標記。Maxi Doge (MAXI):傳承狗狗幣精神與大膽能量的全新迷因幣作為迷因幣領域的新來者,Maxi Doge ($MAXI),自稱狗狗幣的「充滿活力的堂兄弟」,已進入預售模式,已從渴望下一個病毒式加密熱潮的投資者手中籌集超過370萬美元。作為建立在以太坊區塊鏈上的ERC-20代幣,MAXI旨在提供比狗狗幣更快、更綠色且成本更低的交易。該項目強調社區參與、病毒式行銷以及遊戲化舉措,如交易競賽和品牌合作夥伴關係,以促進採用。從總供應量1,502.4億枚代幣中,25%保留給「Maxi Doge基金」,專用於行銷、合作夥伴關係和生態系統成長。質押已上線,提供高達82% APY,儘管收益會因參與度而異。正在進行的預售將MAXI定價為0.000264美元,隨著融資里程碑的達成,價格將逐步上漲。代幣可透過MetaMask和Best Wallet購買。透過Maxi Doge的官方X和Telegram頁面保持更新。在此造訪官方網站按此瀏覽原文免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。
中國DeepSeek AI預測:到2025年底XRP、Pi幣與Solana價格走勢
中國的 DeepSeek AI(常被稱為「中國版ChatGPT」)預測,隨著加密市場進入年底行情,XRP、Pi幣和Solana都有強勁的上行潛力。市場動能似乎也在印證這個觀點。比特幣近期創下 $124,128 的歷史新高,雖因美國通膨高於預期而短暫回落,但整體市值在過去24小時內仍反彈 1.4%,達到 4.11兆美元。政策面同樣釋放利多。川普總統簽署了《GENIUS法案》,這是美國首部對穩定幣實施全額儲備要求的法律;同時,SEC推出“加密項目(Project Crypto)”,以簡化區塊鏈企業的合規流程。隨著監管逐步明朗,許多分析師認為市場條件具備重演2021年山寨幣行情的可能。而DeepSeek AI對XRP、Pi幣和Solana的價格預測,正是建立在這個背景之上。XRP(瑞波):3倍上漲潛力,目標價看向 $10 —— DeepSeek AI預測DeepSeek AI 預測,XRP ($XRP) 到 2025 年底可望衝高至 $9,相當於目前約 $3 水準的三倍。該代幣在 7 月創下新高,觸及 $3.65 ATH,一舉突破 2018 年紀錄,隨後回檔約 16.5%,目前交投於 $3.04 附近。Ripple的全球合作網絡持續構成利多。除此之外,2024年聯合國資本開發基金(UNCDF)已支持XRP用於跨境支付,而今年早些時候,SEC也正式結束了與Ripple的訴訟,確認散戶交易的XRP不屬於證券。DeepSeek的基準預測區間為 $5–$10。其指出,如果美國政策層面兌現承諾、現貨XRP ETF順利獲批,同時Ripple在機構採用方面繼續擴大版圖,那麼高位目標完全有望實現。技術面同樣看多:RSI 已從 57 開始上行,今年已出現三次「看漲旗形」形態,其中兩次發生在夏季中後段,暗示隨時可能迎來突破。此外,XRP在過去一年累積漲幅高達 465%,遠超比特幣的 98%、以太幣的 93% 以及 Solana 的 77.5%。Pi Network ($PI):DeepSeek AI預測「點觸挖礦」山寨幣有14倍潛力Pi Network 因其行動端友善的挖礦模式備受關注,用戶只需每日輕點一次即可獲得 PI 代幣。目前PI交投於 $0.3543 附近,DeepSeek AI 預測其年底前預計衝至 $5,意味著不到四個月內潛在14倍漲幅。自2025年2月上線以來,PI波動劇烈,5月中旬一度暴漲171%。目前RSI在48,處於中性區間,顯示市場定價相對合理,仍有充足上行空間。分析師認為,若加密市場持續修復,PI可望重測2025年2月高點 $2.99,並有機會進一步突破。即使不看極端目標,年底向 $3 推進也相當現實,這主要取決於用戶採用率以及美國政策面的利好落地。Solana ($SOL):ETF熱度+基本面強勁,以太坊最強對手可望衝擊 $1,500Solana ($SOL)仍是智慧合約賽道的頭部力量,目前市值 1,300億美元,其生態內鎖倉量(TVL)約 130億美元。投資者情緒正在被推高,原因在於市場對美國版Solana ETF的猜測,以及川普總統暗示Solana可能被納入擬議的「國家比特幣儲備」中,作為僅持有資產——也就是說,美國政府可以持有,但僅限透過執法查封獲得的部分。代幣走勢同樣強勁。 4月曾回落至 $100,隨後反彈至目前 $240,並持續攀升。不過,目前已進入阻力區間,短期內可能在該區域震盪整理。 .今年稍早突破空頭型態後,DeepSeek AI 預計 SOL 到 2026 年底有望衝擊 $1,000,遠超先前 $293 的歷史高點。與其他頭部項目一樣,廣泛的加密監管進展將是能否實現這一里程碑的關鍵。Maxi Doge ($MAXI):高風險 Meme 幣玩法在 DeepSeek 的主力推薦之外,全新 Meme 幣 Maxi Doge ($MAXI) 正吸引市場關注,被視為 Dogecoin 的「狂野版」。其建構於 以太坊網絡,強調 社群驅動成長,透過 Telegram 群組、活動競賽及合作來擴張影響力。該項目在短短數週的預售中已籌集超 200萬美元。總供應量 1500億枚 中,25% 用於行銷和合作。持幣者可進行質押,最高可獲得 155% APY 收益,不過隨著用戶增加,回報率將逐步下降。目前預售價格為 $0.000257,代幣價格將隨每一輪融資階段逐步調高。用戶可透過 Maxi Doge 官方網站,使用 MetaMask 或 Best Wallet 等皮夾參與認購。想獲得最新動態,可關注 Maxi Doge 官方的 X(推特)帳號及 Telegram 社群。如何購買Maxi Doge($MAXI)? 2025年這枚迷因幣值得投資嗎?按此瀏覽原文免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。
Claude斷供驚魂14天:Qwen和DeepSeek迅速補位,戳破AI巨頭的壟斷假象
開放永遠比封閉更有生命力。風暴眼:中資企業的 “AI 斷供驚魂夜”9 月 5 日晚間,Anthropic 的一紙公告讓無數中資企業的技術負責人徹夜無眠。“立即停止向多數股權為中資的公司提供 Claude 服務”,這條沒有緩衝期的禁令,像一把突然落下的手術刀,精準切斷了眾多企業的 AI Coding 命脈。Claude 憑藉其在複雜程式碼生成、跨語言偵錯上的超高精準率,早已成為大多數中國科技公司 AI Coding 工具棧的 “壓艙石”,甚至是部分初創企業的唯一選擇。更致命的是,Anthropic 的禁令覆蓋了所有 “中資控股” 主體,即便企業註冊在新加坡、開曼群島等離岸地區,只要股權穿透後中資佔比過半,都被劃入服務終止名單。這場突如其來的斷供,撕開了中國企業 AI 戰略的致命傷口:當核心模型被單一海外廠商 “卡脖子”,所謂的數位化轉型不過是建立在流沙上的城堡。有行業分析師在朋友圈直言:“這不是商業決策,是技術主權的預警。破局者 AWS:把競爭對手請上自家貨架就在行業陷入集體恐慌的第 14 天,AWS拋出的重磅消息打破了僵局。9 月 19 日,亞馬遜Bedrock 平台正式上架阿里巴巴 Qwen3 與 DeepSeek-V3.1 兩款中國開源模型,直接補位 Claude 留下的市場空白。這個決策本身就充滿顛覆性 —— 要知道,AWS 與阿里雲在亞太雲端運算市場的份額戰早已白熱化。Gartner 資料顯示,2024 年 AWS 以 37.7% 的全球份額穩居第一,而阿里雲憑藉本土優勢在亞太市場緊追不捨。將直接競爭對手的核心模型接入自家平台,這在 “繫結獨家模型” 成行業慣例的雲服務領域,堪稱石破天驚。更令人咋舌的是 AWS 的 “無差別收錄” 原則。早在今年 8 月,它就將微軟投資的 OpenAI 開源模型 GPT-OSS 請上了 Bedrock 貨架。要知道,OpenAI 不僅是微軟的 “親兒子”,更是 AWS 投資的 Anthropic 的直接競品。這種 “既容得下盟友,也放得下對手” 的操作,與微軟 Azure 繫結 OpenAI、Google Cloud 獨推 Gemini 的封閉策略形成鮮明對比。“我們評估的是模型價值,不是它的‘出身’。”AWS 產品總監表態背後,是 Bedrock 平台 14 家廠商、200 多款模型的豪華陣容。從 Anthropic 的 Claude 到 Meta 的 Llama,從 OpenAI 的 GPT-OSS 到中國的 Qwen3,這家雲巨頭正在建構一個沒有 “排他性壁壘” 的模型自由市場。中國模型的硬實力:性能碾壓,價格腰斬AWS 敢於打破行業慣例,底氣源自中國開源模型的硬實力。此次上架的 Qwen3 與 DeepSeek-V3.1,早已不是 “本土玩家” 的自嗨,而是經過全球市場檢驗的 “實力派”。阿里巴巴的 Qwen3 系列堪稱 “全能選手”。旗艦模型 Qwen3-235B-A22B 支援 262K token 的上下文長度,單次對話可處理兩部長篇小說體量的內容,而兩款編碼專用模型 Qwen3-Coder 在 Java、Python 等主流語言的程式碼生成精準率上,較 Claude 提升了 8 個百分點。更關鍵的是其成本優勢:採用 MoE 混合專家架構後,視訊記憶體佔用僅為同類模型的三分之一,4 張 H20 顯示卡即可實現滿血部署,這意味著中小企業無需天價算力投入就能享受頂級模型服務。DeepSeek-V3.1 則在推理能力上實現了突破。這款擁有 6850 億參數的巨無霸模型,獨創 “混合推理模式”—— 面對簡單查詢時切換 “快速響應模式”,處理多步數學推理或複雜程式碼時自動啟動 “思考模式”,決策過程全程透明可追溯。在 AWS 的實測中,它完成複雜金融資料分析的速度較前代提升 40%,而呼叫成本卻降低了 25%。這些性能優勢並非自賣自誇。Qwen 家族模型全球下載量已超 3 億次,衍生模型超過 10 萬個;DeepSeek-V3.1 則被 Artificial Analysis 評為 “2025 年最具商用價值的開源模型”。當 Claude 因政策原因退場,中國模型用 “更好性能 + 更低價格” 的組合拳,給出了最優解。出海護航:中國模型 + 全球基建的雙重保險對於正全力開拓海外市場的中國企業而言,AWS 此次上架中國模型的動作,更像是一份 “出海護航協議”。Qwen3 與 DeepSeek-V3.1 的多語言處理能力堪稱出海利器。前者在中文與英文場景的表現已達行業頂尖,後者則支援日語、德語等 12 種語言的精準翻譯與本地化內容生成。更重要的是,依託 AWS 覆蓋 37 個區域、117 個可用區的全球基建,這些模型能實現同區 2-5 毫秒的超低延遲呼叫,完美解決跨境業務的響應速度難題。合規性更是戳中了中國企業的痛點。Bedrock 平台通過了 ISO 27001、GDPR、HIPAA 等全球主流合規認證,客戶資料在 VPC 私有網路中隔離傳輸,完全符合歐盟《通用資料保護條例》等嚴苛要求。這意味著企業用 Qwen3 處理海外使用者資料時,無需擔心合規風險 —— 畢竟 “用中國模型 + 全球合規基建”,遠比依賴海外閉源模型更安全。某新能源企業的出海案例頗具代表性。該公司在歐洲市場推出的智能維運系統,採用 DeepSeek-V3.1 做裝置故障診斷,借助 AWS 法蘭克福區域的算力節點,實現故障響應時間縮短至秒級。“以前怕模型合規性出問題,現在 AWS 把‘中國大腦’裝進了‘全球合規殼’,出海終於不用束手束腳了。終局思考:開放打敗封閉的必然Claude 斷供與 AWS 補位的戲劇化對比,實則是 AI 行業發展的必然轉折。這種開放不是無私的 “慈善”,而是基於對行業趨勢的深刻洞察。對中國企業而言,這場風波是警醒也是機遇。它徹底打破了 “海外模型更優” 的迷思,證明中國開源模型已具備全球競爭力;更重要的是,它讓企業看清了 “技術自主 + 生態開放” 的生存之道 —— 與其依賴單一海外模型惶惶不可終日,不如擁抱開放平台,在多元選擇中掌握主動權。Anthropic 的公告或許會成為行業分水嶺:從此之後,“多模型策略” 將不再是可選項,而是企業 AI 戰略的必修課。而 AWS 用 Qwen3 與 DeepSeek-V3.1 給出的答案,是對所有技術封鎖的最有力反擊 —— 畢竟,開放永遠比封閉更有生命力。 (科技頭版)
DeepSeek AI預測2025年底四大加密資產走勢:九月或現1000倍潛力幣
在加密貨幣市場進入宏觀政策轉折與技術發展交匯的關鍵期,人工智慧模型的預測能力日益受到重視。DeepSeek AI近期針對四個具代表性的幣種進行深度分析,涵蓋主流資產以太坊(ETH)與XRP,社群驅動的Pi幣(PI),以及融合meme文化與鏈上機制創新的PepeNode(PEPENODE)。這四類資產橫跨機構化應用、去中心化生態與敘事投資三大主線,勾勒出一幅資本重新分配的未來輪廓。XRP重返主舞臺,政策利好與應用拓展並進歷經與美國證券交易委員會(SEC)的漫長法律爭議,XRP于2025年重新站上1美元,全年累計漲幅超過400%。DeepSeek指出,XRP若能在10月取得ETF核准,資金流入可能推動其價格上探5美元。這不僅有助於其進一步擴大機構接受度,也使其成為加密市場與傳統金融整合的橋樑。鏈上資料顯示,與交易所Kraken相關的巨鯨近期轉入大量XRP資產,為市場提供潛在動能。同時,XRP Commons與Base Layer上的B3 Network進一步整合,延展其在遊戲與真實世界應用中的潛力。技術走勢方面,XRP當前維持于2.80美元震盪整理區間,若能突破3.60美元關鍵壓力,預期將開啟新一輪攻勢,年底前價格有望維持強勢。以太坊進入估值修復期,技術結構蓄勢待發作為區塊鏈領域的基礎層架構,以太坊在今年八月刷新歷史高點至4,950美元,並於近期回落至4,280美元附近。DeepSeek將此視為健康修正,並預期若能守穩此一支撐區域,將有機會突破4,490美元阻力,進一步挑戰4,700至5,100美元區間。技術指標方面,RSI處於超賣狀態,MACD亦有翻轉跡象。結合降息預期與再質押、AI智慧合約與零知識證明等新應用逐步落地,乙太坊的估值模型已從傳統DeFi與NFT收入模式,轉向金融基礎設施層級的價值捕捉。這一過渡,正逐步將ETH推向新一輪估值重定義的起點。Pi幣尋求技術突圍,社群驅動修復信心面對高達88%的年內跌幅,Pi幣曾一度從2.80美元下跌至0.34美元,但DeepSeek對其未來依然持相對正面態度。分析指出,該幣種的價值並未全數消失,而是轉向由基礎建設與社群參與支撐的深度整合。隨著Pi Network開放節點驗證與Linux版節點軟體上線,更多開發者與用戶得以參與生態建設。Pi App Studio進一步降低了應用創建門檻,有助於形成自洽的應用閉環。技術面上,RSI位於44,MACD出現早期轉多信號,若能有效站上0.80與1.10美元,將具備挑戰4美元潛力價的條件,並重新確立其作為社群型區塊鏈專案的價值座標。PEPENODE結合meme與挖礦機制,創造早期資本回報機會與傳統幣種不同,PEPENODE($PEPENODE)以其meme文化敘事與鏈上激勵設計成為預售市場的新焦點。作為原生挖礦代幣,PEPENODE透過節點購買、挖礦週期與代幣銷毀機制,建立強烈的通縮邏輯。目前年化質押回報率超過2,900%,每個乙太坊區塊固定產出3,001枚PEPENODE,並在兩年內完成所有代幣分配。官網購買PEPENODE($PEPENOD)預售資金已突破87萬美元,允許使用ETH、BNB、USDT等主流加密資產或法幣卡片購買,有效降低使用者進入門檻。其獨特的早期激勵結構使早期參與者享有更高回報,強化了短期資金參與意願,也為該類項目未來上市後的市場表現預留爆發空間。官網購買PEPENODE($PEPENOD)結論:AI視角下的資產重估,敘事驅動成未來主軸DeepSeek的報告從技術分析、資金流動與敘事演化三個層面切入,展現出加密市場正處於多元化分叉的早期階段。XRP與乙太坊代表了機構資金與技術成熟度的結合,進一步靠攏傳統金融市場;而Pi幣與PepeNode則構築出另類資本邏輯,以社群與敘事為核心建立成長模型。隨著聯准會降息預期升溫,資金流動性與風險偏好勢必再度回升。在這樣的市場背景下,選擇具備敘事潛力、技術基礎與資金接入能力的項目,將成為2025年底佈局的關鍵。對投資者而言,AI模型提供的不僅是資料推演,更是一種解讀市場結構變化的工具,能夠幫助資本在不確定中發現確定性。如果想考驗自己對加密貨幣投資眼光,也可使用CoinFutures,這是一個綜合表現優秀的加密貨幣期貨交易平臺,主打無需KYC、免註冊帳戶即可交易,並提供模擬真實市場波動的遊戲化交易體驗。使用者可即時預測比特幣、以太幣等主流幣種的價格走勢,並選擇做多或做空,最高可使用達1,000倍的杠杆,亦支援止盈與止損設置。雖然平臺不涉及實際加密資產,市場資料為模擬生成,但其高靈活性與免驗證的設計,對短期預測型交易者而言具吸引力。平臺也支援隨時提領收益,操作門檻極低。試用投資平臺CoinFutures免責聲明加密貨幣投資風險高,價格波動大,可能導致資金損失。本文僅供參考,不構成投資建議。請自行研究(DYOR)並謹慎決策。