#LLM
Palantir AIP案例:花旗財富(Citi Wealth)
1、Use Case 名稱基於 AIP 的理財顧問智能作業平台(AI-Powered Financial Advisor Copilot)所屬行業:財富管理 / 私人銀行2、業務目標核心商業問題:理財顧問每天花費超過 60% 的時間處理瑣碎的文書工作、研報解讀和合規審查,導致服務客戶的數量受限,且響應速度慢。核心指標 (KPI):(1)效率:縮短從研報發佈到生成客戶建議書的時間(從小時級縮短至分鐘級)。(2)創收:通過更高頻、高品質的互動,提升資產管理規模(AUM)。價值對齊:通過 AIP,花旗旨在將理財顧問從資料搬運工轉變為戰略分析師,直接影響損益表中的非利息收入部分。3、場景描述Who:私人銀行理財顧問、合規官、投資分析師。Context:面對動盪的市場(如利率變動或地緣政治),理財顧問需要迅速識別那些客戶受影響,並給出個性化的投資建議。痛點:(1)資料孤島:客戶畫像在 CRM,資產組合在記帳系統,市場研報在 PDF 庫。(2)決策鏈斷裂:分析師寫好研報 -> 郵件發給理財顧問 -> 理財顧問手動篩選受影響客戶 -> 手動撰寫建議郵件 -> 合規審批。這個鏈路在沒有 AIP 時長達數天。4、資料來源結構化資料:客戶投資組合、交易記錄、風險偏好評分、內部合規評級。非結構化資料:長篇宏觀經濟研究報告(PDF)、市場即時新聞、過往溝通電郵記錄、複雜的監管法規文字。5、關鍵能力Ontology:建構了財富管理數字孿生。AIP Logic:通過 LLM 解析研報,並根據本體規則自動匹配資產組合。Workshop:為理財顧問打造的一站式作業台。AIP Chat:允許理財顧問用自然語言詢問:那些客戶目前對美債的敞口過高?6、流程步驟接入:整合多源系統資料進入 Foundry。語義解析:AIP Logic提取研報中的核心觀點(如:看好科技股,看淡能源股)。本體對應:將研報觀點自動與投資組合對象關聯。智能篩選:AI 識別出資產配比不符合新研報觀點的客戶名單。生成建議:LLM 呼叫客戶過往風格,生成個性化溝通初稿。合規預審:系統自動對照合規規則檢查。執行寫回:理財顧問點選傳送,記錄自動存入CRM。7、輸出成果Smart Inbox:每日自動推送優先順序最高的客戶行動建議。Automated Research Summary:一鍵生成研報精華摘要。Pre-filled Action Items:預填寫的交易指令或郵件範本。8、角色使用者:理財顧問(快速響應市場)。資料管理員:負責維護投資策略和合規準則本體。決策者:財富管理部門主管(監控全行層面的資產敞口風險)。9、成功指標研報處理效率:分析數千頁文件並匹配客戶的速度提升了約 20 倍。客戶覆蓋率:單個理財顧問能服務的活躍客戶數顯著增加。10、本體架構還原這是花旗案例的靈魂所在。Palantir 將現實的銀行業務抽象為以下對象:(1)關鍵對象客戶 (Client):屬性包括風險承受力、國籍、總資產。資產組合 (Portfolio):屬性包括現金流、各版塊百分比、歷史收益。持有頭寸 (Position):具體的股票、債券、基金。研報 (Research Report):屬性包括發佈日期、覆蓋行業、投資評級(買入/賣出)。合規限制 (Compliance Rule):具體的地緣政治禁令或洗錢防禦規則。(2)屬性與關聯[客戶] 擁有 -> [資產組合][資產組合] 包含 -> [持有頭寸][持有頭寸] 關聯 -> [行業/類股][研報] 影響 -> [行業/類股](3)多面體屬性在這個本體中,資產組合 是一個動態實體。它不僅包含靜態的帳面價值,還整合了:即時流資料:當前市場行情即時計算即時估值。邏輯屬性:根據 AIP Logic 計算出的偏離度(即:當前配置與專家建議的差距)。11、AIP Logic 與決策流LLM 的角色:高級分析員+文案翻譯官。LLM 負責把非結構化的研報(PDF)轉化為本體中的結構化對象(屬性提取)。推理模式:理財顧問問:如果日元加息,那些客戶面臨最大風險? AIP Logic 邏輯:遍歷本體 -> 尋找持有 [日元資產] 或 [對日出口企業股票] 的 [資產組合] -> 關聯到 [客戶] -> 過濾出 [中高風險承受度] 以外的群體。邏輯函數:花旗將複雜的金融模型(如:Var 風險價值計算)封裝為 Typescript 函數,LLM 在需要時呼叫這些函數,而非讓 LLM 自己做數學計算。人機協同:嚴禁 AI 直接下單。AI 僅生成建議和郵件草案,理財顧問必須點選Review & Send,這一步被嚴格記錄在審計日誌中。12、閉環行動與工程實現Action 觸發:通過 AIP Actions,系統可以一鍵將生成的投資摘要寫回到花旗內部的 CRM 系統,並觸發下游的交易審批流。工程棧:AIP + 內部專有金融模型 + 企業級 LLM 部署(確保資料不出行)。安全治理:利用 Purpose-Based Access Control (PBAC)。AI 無法訪問它無權查看的客戶隱私資訊。即使是 LLM,也只能在使用者權限範圍內檢索本體資料。13、架構洞察與啟發(1)底層哲學Palantir 的核心哲學是 模型不等於產品。在花旗案例中,LLM 本身並不值錢,值錢的是將 LLM 掛載到定義清晰的本體(Ontology)上。如果沒有本體,LLM 只是在胡言亂語;有了本體,它就成了精通花旗業務邏輯的專家。(2)對開發者的啟發解耦計算與推理:不要讓 LLM 算帳,讓它呼叫封裝好的業務函數。本體是知識的錨點:在建構 AI Agent 時,先定義清楚你的核心對象和關係。AI 的強大程度取決於你對業務實體建模的顆粒度。Action 閉環是關鍵:AI 如果只能聊天,價值有限。必須要有寫回能力,直接觸達 CRM、ERP 或交易系統,才能真正實現 ROI。 (壹號講獅)
Meta電話會全文&詳解:推薦系統正在被大模型重寫,沒有智能眼鏡的未來“難以想像”
祖克柏在電話會上表示,Meta正在把“推薦系統”做成類似LLM的可擴展工程體系——這不僅決定使用者時長,也決定廣告單價與轉化率。Meta將AI眼鏡被明確定位為下一代核心終端,直言“幾年後大多數人佩戴的眼鏡都會是AI眼鏡”。祖克柏還主動點到Manus的收購,並將其作為“企業工具訂閱/整合”的案例,目標是把企業常用工具整合進廣告與商務管理平台。1月28日,Meta公佈了強勁的四季度業績,廣告業務推動去年Q4營收和今年Q1營收指引均超出分析師預期。同時,全年資本支出預期區間也高於分析師預期,該公司股價盤後一度漲逾11%。在隨後的電話會,釋放出一個清晰訊號:Meta在2025年交出強勁業績的同時,正在把下一階段的增長邏輯從“更好的廣告系統”升級為“以個人超級智能為核心的產品與基礎設施重構”。短期看,收入依舊由廣告驅動;中長期看,推薦系統、智能體、內容生產方式、智能眼鏡與算力供給,將共同決定Meta能否打開新的增長曲線。祖克柏明確將 AI 智能眼鏡定位為下一代核心計算終端,並將其類比為智慧型手機取代功能機的關鍵節點。Reality Labs 的戰略重心正從元宇宙轉向 AI 可穿戴裝置與自研模型。同時預告在未來幾個月,Meta將開始發佈新模型和產品。AI眼鏡將走向“智慧型手機時刻”祖克柏多次提及公司在AI智能眼鏡領域的長期判斷,並將其類比為智慧型手機取代功能機的關鍵節點。全球有數十億人佩戴眼鏡或隱形眼鏡來矯正視力。我認為我們正處在一個類似智慧型手機剛出現時的階段,當時所有人都能看出來,翻蓋手機被智慧型手機取代只是時間問題。很難想像在幾年之後,大多數人佩戴的眼鏡不會是AI眼鏡。他同時透露,Meta智能眼鏡在過去一年中的銷量已經增長了三倍,並稱其為“歷史上增長最快的消費電子產品之一”。電話會顯示,Meta正在將Reality Labs的投資重心,從此前的元宇宙願景,進一步轉向AI可穿戴裝置與自研AI模型。新一代AI模型與產品將在“未來幾個月”陸續落地在回應投資者對AI投入回報的關切時,祖克柏強調,AI 實驗室的成果將在不久後面向使用者推出。這將是交付個人超級智能、加速業務增長、建設未來基礎設施、並重塑公司運作方式的重要一年。他補充稱,2025年Meta已完成AI體系重構,接下來將開始持續對外發佈新模型與新產品,推動“個人超級智能”進入實際應用階段。增長的“第一性原理”:推薦系統正在被大模型重寫Meta把增長拆成兩條主線:提升互動與提升變現效率,而兩者的共同底座是推薦/排名模型的升級。互動側:內容推薦的系統性提效Instagram Reels在美國觀看時長同比+30%;Facebook視訊觀看時長維持兩位數增長。通過“簡化排名架構、支援更長互動歷史”,Facebook自然資訊流與視訊帖子瀏覽量在Q4被拉升7%,管理層強調這是近兩年裡“單季度對營收推動最大”的一輪產品最佳化。“新鮮度/原創性”被當成關鍵變數:Instagram美國75%推薦內容來自原創;Facebook當天推送Reels數量環比提升25%+。Threads停留時長在Q4最佳化後+20%,開始具備更可持續的增長結構。廣告側:從“大模型訓練”到“執行階段推理”的分層體系Meta講得很直白:像GEM這類大模型不適合直接做即時推理,成本太高,因此要把“大模型知識”遷移到更輕量的執行階段模型上——這決定了算力投入能否轉化為ROI。已披露的進展包括:GEM訓練GPU數量翻倍;引入新的序列學習架構(更長使用者行為序列、更豐富內容資訊)。Q4效果:Facebook廣告點選量+3.5%、Instagram轉化率+1%+;Instagram新執行階段模型帶來轉化率+3%。Lattice推動模型統一,疊加後端改造,廣告質量提升12%;2026將繼續整合更多模型,用“更少但更強”的模型跑全域。核心含義:Meta正在把“推薦系統”做成類似LLM的可擴展工程體系——這不僅決定使用者時長,也決定廣告單價與轉化率。變現不止廣告:但“廣告仍是最大確定性”祖克柏承認:未來幾年廣告仍是增長最重要驅動力。但Meta也在鋪“廣告之外”的商業化地基,尤其面向企業端。兩條清晰的增量路徑:企業消息與WhatsApp商業化: WhatsApp付費消息服務年收入已突破20億美元、Click-to-message廣告增長加速,美國同比+50%。商業AI在墨西哥/菲律賓早期推進:每周100萬+次對話,計畫擴市場並讓其能在WhatsApp內完成更多工。Threads與WhatsApp廣告補課:Threads廣告擴展到剩餘所有國家/地區(含英、歐盟、巴西)。WhatsApp廣告與狀態功能年內全量推進,但短期廣告負載會保持克制,先最佳化效果。此外,電話會提到一個重要細節:祖克柏主動點到Manus的收購,並將其作為“企業工具訂閱/整合”的案例,目標是把企業常用工具整合進廣告與商務管理平台,提升對中小企業的“一體化交付能力”。這意味著Meta在嘗試把自身從“流量平台”向“企業增長作業系統”推進。最大的賭註:算力與基礎設施,Capex指引顯著上台階這場電話會最“重資產”的部分,是Meta對算力的長期承諾:2026年資本開支指引:1150億–1350億美元(含融資租賃本金),明確同比大幅增長,主要用於超級智能實驗室與核心業務。依舊存在產能瓶頸:需求增長快於供給;自建新增容量要到2026年晚些時候上線,在此之前多數時間仍偏緊。晶片與架構:Andromeda已能在NVIDIA、AMD、MTIA上運行;MTIA計畫從推理擴展到訓練負載。成立Meta Compute,強調通過工程設計、投資、合作建設形成戰略優勢,並把“矽與能源”視為長期能力的一部分。資本配置上也很明確:管理層直言當前首要任務是把資源投入AI領導力,回購會保持機會主義,而不是優先項(這與本季度未回購形成呼應)。以下是電話會全文:馬克·祖克柏,創始人、董事長兼首席執行長:好了,大家好。感謝各位的收看。2025年底,我們取得了強勁的業績,目前每天至少有35億使用者使用我們的一款應用。其中,Facebook和WhatsApp的日活躍使用者均超過20億,Instagram的日活躍使用者也接近這個數字。得益於假日期間創紀錄的需求和人工智慧帶來的性能提升,我們的業務也表現出色。目前,人工智慧正處於快速發展階段。我預計2026年這股浪潮將在多個方面進一步加速發展。我們開始看到智能體真正發揮作用。這將使我們能夠開發全新的產品,並徹底改變我們的工作方式。2025年,我們重建了人工智慧項目的基礎架構。在未來幾個月,我們將開始發佈新模型和產品。我預計我們的首批模型會表現良好,但更重要的是,我們將展現出我們快速發展的勢頭。隨著我們持續發佈新模型,我預計我們將在今年穩步推進,不斷突破行業前沿。我對我們正在建構的產品感到非常興奮。我們的願景是建構個人超級智能。我們開始看到人工智慧的潛力,它能夠理解我們的個人背景,包括我們的經歷、興趣、內容和人際關係。智能體的價值很大程度上在於它們能夠理解獨特的背景資訊。我們相信,Meta將能夠提供獨一無二的個性化體驗。我們也在努力將大模型與Facebook、InstagramThreads以及我們廣告系統的推薦系統進行整合。我們世界一流的推薦系統已經顯著推動了我們應用和廣告業務的增長,但我們認為,與即將實現的相比,目前的系統還很原始。如今,我們的系統幫助人們與朋友保持聯絡、瞭解世界並找到有趣的內容。但很快,我們將能夠瞭解使用者獨特的個人目標,並根據每個人的需求定製資訊流,向他們展示有助於改善生活的內容。這也會對商業產生影響。如今,我們的廣告能夠幫助企業精準找到對他們的產品感興趣的目標受眾。全新的智能購物工具將使使用者能夠從我們目錄中的商家中找到最合適的特定產品。我們致力於讓這些體驗同時適用於我們的資訊流和企業消息功能,從而逐步顯著提升WhatsApp的功能。此外,未來還將推出更多類型的內容。人們渴望以最具沉浸感和互動性的方式表達自我、體驗世界。我們最初使用文字,後來隨著配備攝影機的手機普及,轉向照片,再後來隨著行動網路速度的提升,轉向視訊。不久的將來,我們將看到更多更具沉浸感和互動性的新媒體形式湧現,而這一切都得益於人工智慧的進步。我們的資訊流將變得更加互動。如今,我們的應用程式感覺就像是演算法在推薦內容。不久之後,您打開我們的應用程式,就會發現人工智慧不僅能理解您的需求,還能為您推送精彩內容,甚至為您量身定製優質內容。智能眼鏡正是這一願景的終極體現。它們能夠看到您所看到的,聽到您所聽到的,與您對話,並在您日常生活中為您提供幫助,甚至還能直接在您的視野中顯示資訊或生成定製使用者介面。去年,我們智能眼鏡的銷量增長了兩倍多,我們認為它們是歷史上增長速度最快的消費電子產品之一。數以百萬計的人佩戴眼鏡或隱形眼鏡來矯正視力,我認為我們正處於類似於智慧型手機誕生的階段,顯然,所有這些功能手機都變成智慧型手機只是時間問題。很難想像幾年後,人們佩戴的大多眼鏡不是人工智慧眼鏡。對於RealityLabs而言,我們未來將把大部分投資投入到眼鏡和可穿戴裝置領域,同時專注於讓Horizon在移動端取得巨大成功,並在未來幾年內將VR打造成一個盈利的生態系統。我預計RealityLabs今年的虧損將與去年相近,這很可能是虧損的頂峰,因為我們將逐步減少虧損,同時繼續推進我們的願景。展望未來,我們將繼續大力投資基礎設施建設,以訓練領先模型,並為全球數十億人和企業提供個性化的超級智能。我最近宣佈成立Meta Compute公司,因為我相信,在基礎設施的工程設計、投資和合作建設方面做到最高效,將成為我們的戰略優勢。DinaPowellMcCormick也加入我們,擔任總裁兼副董事長,她將領導我們與各國政府、主權國家和戰略資本合作夥伴開展合作,以擴大我們的長期能力,包括確保我們在全球各地營運所在社區產生積極的經濟影響。MetaCompute的一個重要組成部分是對矽和能源進行長期投資。我們將繼續與重要合作夥伴攜手,同時推進我們自身的晶片研發項目。我們正在建構系統架構,以確保系統使用的靈活性,並通過最佳化技術和供應鏈,預計每吉瓦的成本將隨著時間的推移而顯著降低。最後,我認為2026年將是人工智慧開始徹底改變我們工作方式的一年。在應對這一變革的過程中,我們始終秉持著一個明確的目標:為個人創造最佳平台,讓他們能夠發揮巨大的影響力。為此,我們正在投資人工智慧原生工具,以便Meta的員工能夠提高工作效率。我們提升個人貢獻者的地位,並簡化團隊結構。我們開始看到,過去需要大型團隊才能完成的項目,現在只需一位才華橫溢的員工就能獨立完成。我希望儘可能多的優秀人才選擇Meta,在這裡他們可以發揮最大的影響力,為全球數十億使用者提供個性化產品。如果我們這樣做,我相信我們會完成更多工作,而且會更有趣。好了,這就是我想說的全部內容。今年對於我們交付個人超級智能、加速業務發展、建構未來基礎設施以及塑造公司未來的運作模式來說,都將是意義非凡的一年。一如既往,我感謝我們團隊的辛勤付出,也感謝大家與我們攜手共進。現在有請蘇珊。蘇珊·李,首席財務官:謝謝馬克,大家下午好。我們先來看各細分市場的業績結果。除非另有說明,所有比較均為同比資料。我們的應用家族使用者群體持續增長,據估計,12月份每天至少有35億人使用過我們旗下的一款應用。第四季度應用家族總收入為589億美元,同比增長25%。第四季度應用家族廣告收入為581億美元,同比增長24%,按固定匯率計算增長23%。第四季度,我們各項服務中的廣告總展示次數增長了18%。所有地區的廣告展示量均呈現健康增長,主要得益於使用者參與度和使用者增長,其次是廣告載入最佳化。平均單條廣告價格同比增長6%,受益於廣告主需求的增長,而廣告主需求的增長主要源於廣告效果的提升。應用家族的其他收入為8.01億美元,同比增長54%,主要得益於WhatsApp付費消息收入的增長,以及Meta驗證訂閱使用者的增長。在我們的RealityLab業務類股,第四季度收入為9.55億美元,同比下降12%。正如我們在上次電話會議上提到的,RealityLabs營收同比下降的原因是,我們推遲了Quest3S在2024年第四季度的上市,以及零售合作夥伴在2025年第三季度採購Quest頭顯以備戰假日季,這部分收入已計入第三季度。接下來是我們的合併業績。第四季度總營收為599億美元,同比增長24%,按固定匯率計算增長23%。第四季度總支出為351億美元,同比增長40%。同比增長主要受員工薪酬、法律費用和基礎設施成本的推動。員工薪酬增長反映了我們今年新增的技術人才,特別是人工智慧工程師Tama。法律費用增長是由於2024年第四季度法律費用衝回以及2025年第四季度計提的費用所致。基礎設施費用增長主要受折舊增加、雲支出和其他營運費用的推動。第四季度末,我們的員工人數超過78800人,同比增長6%,這主要得益於招聘以及在盈利、基礎設施、MetaSuperintelligenceLabs以及監管合規等重點領域的增長。第四季度營業收入為247億美元,營業利潤率為41%。第四季度利息及其他收入為6.09億美元,主要來自股權投資的未實現收益。由於與稅務機關達成和解,本季度稅率為10%,略低於我們此前12%至15%的預期。淨利潤為228億美元,即每股8.88美元。資本支出(包括融資租賃本金支付)為221億美元,主要用於資料中心、伺服器和網路基礎設施的投資。自由現金流為141億美元。本季度末,公司持有現金及有價證券816億美元,負債587億美元。現在來看業務表現。我們的營收增長主要受兩大因素驅動:一是我們為使用者提供互動體驗的能力,二是我們持續有效地將這些互動轉化為收益的能力。首先,我們通過排名和產品改進不斷提升使用者參與度。InstagramReels在本季度表現強勁,在美國的觀看時長同比增長超過30%。使用者參與度的提升得益於我們為提高推薦質量而進行的多項最佳化,包括簡化排名架構以實現更高效的模型擴展。這使得我們的系統能夠考慮更長的互動歷史,從而更好地識別使用者的興趣。在美國,Facebook的視訊觀看時長繼續保持兩位數的同比增長,我們在資訊流和視訊平台上的排名和產品最佳化工作也取得了顯著成效。第四季度的最佳化措施使Facebook上自然流量資訊流和視訊帖子的瀏覽量提升了7%,這是過去兩年中Facebook產品發佈帶來的季度營收增長幅度最大的一次。我們持續提升內容推薦的新鮮度和原創性。在Facebook上,我們的系統當日推送的Reels短影片數量比上一季度增加了25%以上。在Instagram上,第四季度美國原創內容的佔比提升了10個百分點,目前75%的推薦內容來自原創帖子。Threads也呈現強勁增長勢頭,同樣受益於推薦系統的改進。第四季度的最佳化使Threads的使用者停留時間提升了20%。展望2026年,我們看到了巨大的發展機遇。這包括擴展模型中使用的訓練資料的複雜性和規模,同時不斷提升系統對使用者即時興趣的響應能力。我們還致力於整合大模型,以更深入地瞭解我們平台上的內容,從而實現更加個性化的推薦。今年另一項重要的投資領域是開發下一代推薦系統。我們在這方面投入了多項重金,包括從零開始建構基於LLM的全新模型架構,利用LLM的世界知識和推理能力來更準確地推斷使用者的興趣。除了改進推薦系統之外,我們還計畫利用MetaSuperintelligenceLabs開發的模型,打造引人注目且獨具特色的AI產品。目前,我們已經看到AI視訊本地化配音方面展現出巨大潛力。我們目前支援九種語言,每天有數億使用者觀看AI翻譯的視訊。這已經顯著提升了使用者在Instagram上的停留時間,我們計畫在今年內推出更多語言支援。此外,我們的媒體創作工具也獲得了強勁的反響。使用者每天觀看的Reels視訊中,近10%來自我們的Edits應用,比上一季度增長了近三倍。在MetaAI方面,第四季度每日活躍使用者創作媒體內容的數量同比增長了三倍。今年,我們計畫提升底層媒體生成模型的性能,並推出新功能,進一步增強產品體驗。MetaAI的另一個重點領域是個性化。早期測試表明,個性化回覆能夠顯著提升使用者參與度,我們計畫今年大幅提升MetaAI的個性化功能。這與我們對內容理解的投入相輔相成,這將使我們的系統能夠更深入地瞭解每個使用者的興趣和偏好,同時識別平台上最相關的內容並將其用於回覆。接下來,我們來談談影響營收的第二個因素:提高變現效率。這項工作的第一步是最佳化自然流量中的廣告投放比例。目前,我們的重點仍然是調整系統,以便找到投放廣告的最佳時間和地點。在某些情況下,這使我們能夠在保持使用者體驗的同時,提升廣告的整體投放量。然而,這項工作日益重要的部分在於,如何通過判斷使用者何時更願意觀看廣告,在廣告投放量不變的情況下,尋找提升轉化率的機會。事實上,在2025年下半年,我們在Facebook上推行的跨使用者和跨會話重新分配廣告的舉措,其帶來的收入增長幾乎是Facebook廣告投放量增長的四倍。我們也在不斷推進將廣告引入我們最新的服務。在Threads平台,我們本月開始將廣告擴展到所有剩餘國家/地區,包括英國、歐盟和巴西。在WhatsApp平台,我們預計將在年內完成廣告和狀態功能的全面推廣,短期內廣告投放量將保持較低水平,因為我們將遵循標準策略,在逐步增加廣告庫存之前,先最佳化廣告格式和效果。接下來,我們將著手提升變現效率的第二階段,即提高使用我們工具的企業的業績。我們看到,2025年全年對廣告效果的投資已取得非常顯著的成效,同比轉化率增長在第四季度加速。我們預計,2026年的一系列投資將使我們能夠進一步提升業績,因為我們將繼續把人工智慧融入行銷和客戶互動管道的各個層面。首先是我們的廣告系統,我們將持續擴展模型的複雜性和規模,以便更好地選擇展示那些廣告。第四季度,我們用於訓練GEM模型(用於廣告排名)的GPU數量翻了一番。此外,我們還採用了一種新的序列學習模型架構,該架構能夠處理更長的使用者行為序列,並處理關於每條內容的更豐富的資訊。第四季度,GEM和序列學習技術的改進共同推動Facebook廣告點選量提升3.5%,Instagram轉化率提升超過1%。這種全新的序列學習架構比我們之前的架構效率顯著更高,這將使我們能夠進一步擴展未來排名模型的資料量、複雜性和計算能力,從而提升廣告效果。在擴展GEM等基礎廣告模型的同時,我們也在開發更高級的模型,以便在執行階段進行下游廣告推理。第四季度,我們在Instagram資訊流、快拍和Reels中推出了新的執行階段模型,使轉化率在第四季度提升了3%。在Lattice的支援下,我們的模型統一工作也在持續推進。繼2025年上半年成功整合Facebook資訊流和視訊模型後,我們在第四季度將FacebookStories和其他平台的模型整合到了Facebook整體模型中。這一舉措,加上一系列後端改進,使廣告質量提升了12%。2026年,我們預計將整合比過去兩年更多的模型,因為我們將繼續改進系統,使其能夠運行數量更少但功能更強大的模型。接下來是廣告產品領域。我們持續投資,致力於幫助企業利用人工智慧降低廣告活動設定和最佳化的難度。第四季度,我們開始與廣告主測試MetaAI商業助手,該助手可協助完成廣告活動最佳化和帳戶支援等任務。未來幾個月,我們將向更多廣告主開放該助手,確保每家企業都能體驗並使用。未來幾個月,我們將向更多廣告主開放這項服務,讓每家企業都能擁有一個可以與之互動的AI助手。該助手能夠記住企業的目標,並提供個性化的業績提升建議。我們還在廣告創意領域部署AI以提升業績。第四季度,視訊生成工具的綜合營收年化率達到100億美元,環比增長速度幾乎是整體廣告收入增長速度的三倍。此外,我們的增量歸因功能也取得了非常顯著的成效,該功能能夠即時最佳化增量轉化。我們在第四季度推出的最新模型,相比標準歸因模型,轉化率提升了24%。該產品自推出僅七個月,年收入就已達到數十億美元。我要介紹的最後一個盈利領域是企業消息服務,我們整個解決方案組合在該領域都展現出了強勁的增長勢頭。第四季度,點選消息廣告的收入增長加速,其中美國地區的同比增長超過50%,這主要得益於我們網站消息廣告的廣泛應用。這類廣告會將使用者引導至企業網站以獲取更多資訊,然後再發起聊天。WhatsApp內的付費消息服務也持續增長,第四季度年收入突破20億美元。最後,我們在墨西哥和菲律賓的商業人工智慧也取得了良好的早期進展,目前每周有超過100萬次使用者與商業人工智慧在我們的消息平台上進行對話。今年,我們將把業務人工智慧推廣到更多市場,同時擴展其功能,使其不僅能回答產品庫存等問題,還能幫助使用者在WhatsApp內高效完成各項任務。我們經常談到人工智慧如何改進我們的產品,但我想借此機會簡要介紹一下它如何改變我們的工作方式。馬克提到,我們致力於將Meta打造成一個讓每個人都能發揮重大影響的平台。其中一項重點工作是推動我們人工智慧編碼工具的普及和發展,目前我們在這方面看到了強勁的增長勢頭。自2025年初以來,每位工程師的產出增長了30%,其中大部分增長來自智能體編碼的普及,而智能體編碼在第四季度實現了顯著增長。人工智慧編碼工具的高級使用者增長更為顯著,他們的產出同比增長了80%。我們預計這一增長勢頭將在未來半年加速。接下來,我想談談我們的資本配置策略。2026年,我們擁有顯著提升核心業務的機遇。我們計畫繼續優先投資於核心業務,以支援這些機遇,同時為未來幾年由人工智慧模型驅動的全新產品周期做好準備。確保充足的基礎設施容量是這些舉措的核心,我們正努力通過部署各種晶片來滿足我們的晶片需求,以最佳方式支援我們不同的工作負載。為此,在第四季度,我們擴展了Andromeda廣告檢索引擎,使其現在可以在NVIDIA、AMD和MTIA晶片上運行。這一改進,加上模型創新,使Andromeda的計算效率提升了近三倍。在第一季度,我們將擴展MTIA項目,使其除了目前運行的推理工作負載外,還能支援我們的核心排名和推薦訓練工作負載。更廣泛地說,在投資基礎設施以滿足業務需求的同時,我們將繼續優先考慮保持長期靈活性,以便能夠適應市場的發展變化。我們正通過多種方式應對挑戰,包括改變資料中心建設方式、建立戰略合作夥伴關係、簽訂雲容量合同,以及為部分大型資料中心建立新的所有權結構。我們擁有強勁的淨現金餘額,並預計到2026年,我們的業務將繼續產生充足的現金流,以支援我們的基礎設施投資,這已反映在我們的預期中。儘管如此,我們將繼續尋求機會,定期通過審慎的、成本效益高的外部融資來補充我們強勁的營運現金流,這最終可能使我們保持正的淨債務餘額。接下來,我們展望一下財務前景。我們預計2026年第一季度總營收將在535億美元至565億美元之間。根據當前匯率,我們的預測假設外匯因素將對同比總營收增長起到約4%的推動作用。接下來是支出和資本支出展望。我們預計2026年全年總支出將在1620億美元至1690億美元之間。大部分支出增長將由基礎設施成本驅動,其中包括第三方雲支出、更高的折舊費用和更高的基礎設施營運費用。支出增長的第二大因素是員工薪酬,這主要源於對技術人才的投資。這包括為支援我們的重點領域(特別是人工智慧)而招聘的2026年員工,以及2025年招聘員工的全年費用。從業務類股來看,我們預計支出增長將主要由“應用家族”(FamilyofApps)推動,而RealityLabs的營運虧損將與2025年的水平基本持平。我們預計2026年的資本支出(包括融資租賃的本金支付)將在1150億美元至1350億美元之間,同比增長主要得益於對元超級智能實驗室和核心業務投資的增加。儘管基礎設施投資大幅增長,但我們預計2026年的營業收入將高於2025年。在稅收環境未發生變化的情況下,我們預計2026年全年稅率為13%至16%。此外,我們近期與歐盟委員會就進一步調整個性化程度較低的廣告服務達成一致,並將於本季度開始逐步推出。然而,我們仍在密切關注歐盟和美國的法律和監管方面的不利因素,這些因素可能會對我們的業務和財務業績產生重大影響。例如,我們持續關注與青少年相關的問題,並且今年在美國計畫開展多項試驗,這些試驗最終可能導致重大損失。總之,2025年對我們公司而言又是強勁的一年。我們為改善業務所做的投資正在持續推動強勁增長,今年我們制定了令人振奮的路線圖,為我們的全球社區提供新的體驗和服務。一如既往,感謝我們團隊的辛勤付出和對我們使命的堅定承諾。克麗斯塔,接下來我們開始接受提問。操作員:謝謝。現在我們將開放問答環節。(操作員說明)(操作員說明)您的第一個問題來自摩根士丹利的Brian Nowak。請提問。Q1 Brian Nowak:感謝您回答我的問題。我有一個問題問Mark,一個問題問Susan。Mark,第一個問題是關於長期發展的。考慮到您計畫擴大投資規模,並抓住個人智能和元宇宙領域的機遇,您能否簡要介紹一下,您認為在未來三到五年甚至十年內,通過這些投資,您最看重那些長期收入或投資回報率(ROIC)?Susan,第二個問題是關於近期的,比如2026年。我認為你們的指南業務是近五年來增長最快的。我知道你們在推薦和盈利效率方面做了很多改進,但您能否幫我們分析一下,2026年收入增長的兩三個主要驅動因素是什麼?馬克·祖克柏,創始人、董事長兼首席執行長:好的,我想我可以先回答第一個問題。不過我得先說明,我覺得這次通話中我對你們很多問題的回答可能不太令人滿意,因為我們正處於一個有趣的時期,我們一直在重建人工智慧項目,已經進行了六個月,我對目前的進展感到滿意。但在接下來的幾個月裡,我們將圍繞這些內容陸續推出首批模型、產品和業務。屆時,我會就所有這些方面分享更多資訊。所以,我很樂意先給大家提供一個概覽。但我提前要說的是,這些內容可能不會特別詳細,不過隨著我們逐步推出,相信會令人興奮。我認為,就業務而言,我的意思是——我並不認為我會在這裡提出什麼新觀點,但是——我們正專注於幾個重要的商業機遇。我認為其中之一就是改進核心產品並加速核心業務的發展。我之前談到過將推薦系統和LLM連接起來,我認為這將同時提升自然流量體驗和廣告質量。我們將看到媒體生成技術的進步提升內容質量,再加上推薦系統的改進,我們預計核心業務的質量和效率將全面提升,無論對於自然流量使用者還是企業使用者都是如此。所以我認為這會產生連鎖反應。然後,我認為會湧現出許多新的商業機會。我的意思是,我們一直在研究元人工智慧,我想你們已經開始看到這類產品在整個行業中的一些盈利模式了。當我們把這項技術發展到我們想要的規模和深度時,我們認為無論是在訂閱、廣告還是其他各種方面,都會出現很多機會。是的,關於購物和電商,我有很多興奮之處,我在前面的評論中也提到過。隨著模型的推出和功能的展示,無論是首批模型還是未來一年的後續模型,我認為這些模型都會變得更加完善。我們將能夠把不同的產品與這些模型結合起來,從而更好地服務於不同的企業——包括使用我們平台的企業以及直接面向消費者的企業。我想,值得一提的是,我們之前似乎都沒有提到Manus的收購。我認為Manus的收購就是一個很好的例子,它能幫助很多企業加速業務增長。目前,很多企業已經付費訂閱Manus的工具,而我們將把這類工具整合到我們的廣告和商務管理平台中。這樣一來,我們就能為數百萬使用和依賴我們平台的企業提供更加一體化的解決方案,這將非常強大,不僅能幫助他們利用現有產品加速業務增長,還能通過新增產品線來進一步提升業績。所以,我的回答比較概括,我認為如果我們在這一年中做好自己的工作,情況會變得更加清晰,也會更加令人興奮。蘇珊·李,首席財務官:布萊恩,關於你的第二個問題,2026年第一季度營收預期顯然涵蓋了多種可能的結果。總體而言,它反映了我們對該季度強勁增長的預期。該預期區間反映了加速增長的前景,而這主要得益於我們在第四季度末以及2026年初持續強勁的需求。此外,我們預計外匯因素將對同比增長產生4個百分點的利多。這比2025年第四季度美元走強時所受到的利多因素大了3個百分點。但總體而言,我們看到廣告商對我們所做的廣告效果改進做出了積極響應。它們正在推動強勁的轉化率增長。我們在2025年進行了大量此類投資,包括改進廣告排名和投放系統、更有效地重新分配廣告負載、在Advantage+等廣告產品中推出新功能、改進衡量方法,以及其他許多有助於推動廣告持續表現的出色工作。操作員:您的下一個問題來自高盛的Eric Sheridan。請提問。Q2 Eric Sheridan:非常感謝您回答這個問題。如果可以的話,我想問兩個問題。您之前曾提到過公司內部產能有限,計算能力不足以實現您在平台和產品方面設定的目標。我想瞭解一下,您目前如何看待自身內部對計算能力的需求與路線圖的契合度?第二個問題是,隨著廣告業務規模的不斷擴大,尤其是在年收入增長方面,我們是否已經看到了業務規模擴大對計算能力提升帶來的全部直接影響?或者說,投資者應該如何看待算力提升與盈利提升之間的方向性關係?謝謝。蘇珊·李,首席財務官:關於您的第一個問題,我們確實仍然面臨產能瓶頸。我們的團隊在2025年期間出色地完成了基礎設施升級工作,但公司對計算資源的需求增長速度甚至超過了我們的供應速度。因此,我們預計到2026年,隨著雲業務的拓展,今年的計算能力將顯著提升。但直到我們自有設施的額外容量在2026年晚些時候上線之前,我們的計算能力在2026年的大部分時間裡仍可能受到限制。儘管如此,我認為我們在內部已經有效地緩解了計算能力限制對業務的影響。我預計這種情況在2026年仍將持續。我們正持續從多個方面提升基礎設施效率,包括最佳化工作負載、提高基礎設施利用率、實現晶片供應多元化,以及在內容和廣告排名等領域的核心技術研發工作中加大效率提升方面的投入。這是您的第一個問題。第二個問題是關於廣告業務如何擴展。我想我無法對此給出非常精確的答案。我想說的是,我們提升廣告效果的方法之一是改進我們的大型模型以及用於執行階段廣告推理的輕量級模型。我們通常不會將像GEM這樣的大型模型架構用於推理,因為它們的規模和複雜性會導致成本過高。因此,我們提升這些模型性能的方式是利用它們將知識遷移到執行階段使用的小型輕量級模型。但我認為,我們的大型模型仍有提升空間,可以從更多的計算資源中獲益。隨著我們增加可用於這些模型以及支撐廣告排名和推薦各個階段的基礎模型的計算資源,我們預計性能將會得到提升。操作員:下一個問題來自Bernstein的 Mark Shmulik。請繼續。Q3 Mark Shmulik:馬克,你提到預計今年工作方式和運作方式會有一些實質性的變化,那麼,如果到年底我們仍然看不到一些你推出的新產品和新舉措取得實質性進展或被廣泛採用,你會感到驚訝嗎?或者我們應該對時間表更有耐心一些?蘇珊,你之前給出的指導意見是——我仍然預計今年的增長速度會比去年更快——假設幾個月後我們意識到需要更多投資和資源來繼續抓住人工智慧帶來的機遇,但宏觀經濟形勢可能略顯疲軟。那麼,投資水平與核心業績之間的關聯度有多高?謝謝。馬克·祖克柏,創始人、董事長兼首席執行長:我認為第一個問題是問我預計產品何時會產生影響。我的意思是,我們將在今年陸續推出新產品。我認為重要的是,我們並非只推出一項功能,而是在建構多個功能。人工智慧將帶來許多全新的體驗。我在之前關於個人人工智慧、LLM與推薦系統的討論中,已經概括地闡述了其中的一些主題。我認為這將是一個相對長期的研究項目,它將在很長一段時間內產生回報。但隨著我們將更多人工智慧研究的改進和進展融入推薦系統,我們已經看到推薦系統得到了顯著的最佳化。內容將會改進,會有新的形式,眼鏡也會有所提升。我們會嘗試很多不同的方面,包括一些我們認為全新的、並非現有功能的簡單擴展。所以,是的,我的意思是,我預計這些功能會在今年陸續推出。有時候,產品需要經過幾次迭代才能真正達到市場認可度,找到所需的市場契合點。但我認為我們有足夠的時間,而且年初就啟動了,所以我預計到年底,無論是在內容方面還是在工作方面,我們都能取得一些成功。我們之前討論過,我認為很難精準預測組織的工作模式會如何變化。但我認為,智能代理現在開始真正發揮作用,這意義重大,而且我認為這將帶來顯著的改變。我們已經開始看到,採用智能代理的人的工作效率顯著提高。能做好這件事的人和做不好這件事的人之間存在著巨大的差距。我認為這將對整個行業乃至整個經濟產生深遠的影響,影響著我們營運這些公司的生產力和效率。我希望我們能夠利用這一點,比以往完成更多的工作。我最關注的是確保Meta成為一家能夠產生巨大影響的偉大公司。你可以在任何地方使用這些智能工具,但只有加入像Meta這樣的公司,你才能將產品交付給數十億使用者,而像Meta這樣的公司並不多。所以我認為,如果我們能夠成功——能夠駕馭這些工具——那麼隨著時間的推移,我們應該會看到產出量的顯著提升。現在,要精準預測這項技術何時普及,確實有點難,對吧?我不會預測具體是那個季度之類的,但趨勢表明,這勢在必行。對我來說,這非常令人興奮。就像我之前說的,說實話,這也挺有意思的,對吧?我覺得能夠建構很多東西,會讓事情變得更有趣。而這正是我們來這裡的目的。蘇珊·李,首席財務官:謝謝你,馬克。關於你的第二個問題,我想確認並澄清一下。我記得你在問題中提到,2026年的營業收入增長率會高於2025年。我想確保我的解釋非常清楚。我們預計2026年的營業收入將高於2025年。這裡比較的是絕對金額,而不是增長率。為了便於理解,我們2026年伊始就實現了強勁的營收增長。當然,目前我們才剛剛開始幾周,而且是在宏觀經濟形勢良好的背景下。因此,顯然很難將目前的趨勢推斷到全年。此外,當前形勢下存在諸多變數。我們確實充分利用了當前的業務優勢,將大量收入再投資於我們認為極具吸引力的人工智慧基礎設施和人才投資機會。由於我們仍在權衡各種產能選擇,因此很難評估今年所有投資機會的具體情況。當然,目前的招聘市場競爭依然非常激烈,但我們希望在力所能及的範圍內積極投資。我們將繼續沿用幾年前提出的框架,即隨著時間推移不斷提高合併營業利潤,以此指導這些投資。根據我們目前的計畫,我們預計2026年的營業收入將超過2025年。操作員:你的下一個問題來自摩根大通的Doug Anmuth。請繼續。Q4:Doug Anmuth:非常感謝您回答這些問題。我問馬克一個問題,蘇珊一個問題。馬克,您能否詳細介紹一下MSL團隊幾個月以來的進展,以及您對今年邁向前沿模式的看法?蘇珊,我知道您預計2026年營業收入會增長。您是否也預計會有正的自由現金流?我們應該如何看待目前以及未來在資料中心和計算設施建設方面的合資項目?謝謝。馬克·祖克柏,創始人、董事長兼首席執行長:關於目前的進展,我暫時沒什麼可補充的了。我的意思是,所以我一開始就說了,現在回答這些問題可能有點不太合適。MSL項目已經進行了大約六個月,我對團隊的素質非常滿意。我認為我們擁有業內最強大的研發團隊,一些早期指標也顯示出積極的態勢。但是,我認為這是一項長期的工作。我們做這件事的目的不是為了推出單一的模型或產品。我們會隨著時間的推移開發很多模型和各種不同的產品。我希望確保作品本身就能說明一切,同時我們也希望大家都能明白,這是一段旅程,我們推出的第一批產品,我認為更多的是為了展現我們正在走的軌跡,而不是某個特定時刻的成果。所以,是的,我很樂觀,但目前還沒有其他特別具體的消息可以分享。蘇珊·李,首席財務官:道格,關於你問題的第一部分,我們今年在基礎設施建設方面進行了大量投資,以支援我們的人工智慧項目。我們相信,憑藉今年的業務現金流,我們完全有能力為這些投資提供強有力的支援。同時,我們也將繼續探索不同的路徑,不斷完善基礎設施,以期在未來幾年可能出現的各種容量需求背景下,為我們提供所需的長期靈活性和選擇價值。因此,目前我們暫無其他消息可以公佈。你知道,我們正在研究所有不同的機會,以便在我們需要的各種時間範圍內建立和發展能力。操作員:下一個問題來自美國銀行的Justin Post。請提問。Q5 Justin Post:好的,有兩個問題,一個馬克,一個給蘇珊。感覺你們的產能非常驚人。你們打算如何拓展廣告以外的業務機會?比如訂閱模式、雲授權模式,以及你們正在開發的各種有趣的產品。我並不期待你們發佈任何產品公告,但你們除了廣告之外還能做些什麼呢?另外,Susan,看到廣告行業(包括FX)的加速發展真的很有意思。我想知道你們是否也觀察到了電子商務的整體加速發展,你們認為資金主要來自那裡?整個網際網路生態系統是否也在加速發展?我想聽聽你們的看法。馬克·祖克柏,創始人、董事長兼首席執行長:是的,我們關注的重點不僅限於廣告。我認為,從資料來看,未來幾年廣告仍將是我們業務增長的最重要驅動力。因此,我們在推進相關工作的同時,也在努力平衡各種創新舉措,並大力投資人工智慧,確保我們在人工智慧領域所做的一切努力都能提升我們核心應用和業務的質量和績效。當然,我們之後會分享更多相關資訊。但需要指出的是,所有這些舉措,即便能夠快速擴展,也需要一段時間才能在廣告業務的規模上真正發揮作用。與此同時,我們也非常專注於為企業提供更多價值,並提高我們投放廣告的應用程式的質量。蘇珊·李,首席財務官:賈斯汀,關於你的第二個問題,第四季度除政治類股(因為我們錯過了去年的美國總統大選)外,所有垂直領域均實現了穩健的同比增長。其中,電商類股是同比增長的最大貢獻者,其次是專業服務和科技類股。因此,線上商務業務同比增長強勁,與第三季度基本持平,且增長勢頭遍及各個地區和規模的廣告主。總體而言,我們看到,從假日購物季前到網路星期一,再到年底,市場需求持續旺盛,這對我們來說非常有利。專業服務領域也實現了強勁的全面增長,這主要得益於我們產品改進帶來的潛在客戶開發廣告的顯著貢獻,包括我們在第四季度初全面推出的Advantage+潛在客戶開發活動。科技垂直領域也繼續保持強勁增長,同樣,增長勢頭遍及各個地區和規模的廣告主。總而言之,我認為整體增長非常健康,且增長動力來自各個方面。操作員:您的下一個問題來自巴克萊銀行的Ross Sandler。請提問。Q6 Ross Sandler:是的,馬克,你提到過要把《地平線世界》移植到移動平台。我們之前很少聽到《地平線世界》團隊在電話會議上發言。所以,聽說這個項目要推進移動端真是太好了。看來,人工智慧和你們在《地平線》中打造的技術相結合,可能會為遊戲領域或新的溝通方式開闢許多新的可能性。那麼,您能否詳細說明一下具體的計畫是什麼?謝謝。馬克·祖克柏,創始人、董事長兼首席執行長:是的,那我就來談談這個基本主題。這些年來,我在一些電話會議上提到過一個核心觀點,那就是人們總是渴望以儘可能豐富的方式來表達自我、體驗世界。所以今天我先談了這一點。我們剛起步的時候,很多內容都是以文字為主,對吧?那幾乎是我們當時能做到的極限了。後來,手機普及,有了攝影機,很多內容都變成了視覺化的。但隨著照片的普及,我們經歷了一段行動網路不穩定的時期,每次想看視訊都要緩衝。這個問題解決後,現在視訊已經成為內容的主要形式。我們一直以來的核心理念之一就是,這並非終點,對吧?視訊會長期存在,它會繼續發展壯大,不會消失,就像照片和文字一樣,在很多方面都會繼續發展,即使市場本身也在不斷增長。但我認為視訊並非最終的最終形式。我認為未來會出現更多互動性更強、沉浸感更強的形式,而且這些形式會出現在你的資訊流中。你可以想像一下,當然,這其中還有很多細節需要完善,但你可以想像,人們可以通過提示輕鬆地創造一個世界或建立一個遊戲,並與他們關心的人分享。你可以在資訊流中看到它,並立即參與其中。而且,這種技術既有3D版本,也有2D版本。我認為Horizon非常適合打造沉浸式3D體驗。但可以肯定的是,在未來,任何視訊都可以點選進入,以更有意義的方式參與其中,獲得更豐富的體驗。我認為,我們在虛擬現實軟體和Horizon以及公司其他諸多領域的投資,將與人工智慧的進步完美結合,從而通過移動裝置將這些體驗帶給數億乃至數十億使用者。總之,這就是我非常興奮的地方,但這只是眾多主題中的一種,我認為這個主題會非常有趣。我認為未來會湧現出許多不同類型的互動式沉浸式內容。而《地平線》就是一個非常有趣的例子,我很期待看到它如何發展。操作員:下一個問題來自花旗銀行的Ron Josey,請提問。Q7 Ron Josey:太好了,謝謝你回答這個問題。我想就你之前關於排名推薦模型變革的評論,和蘇珊深入探討一下。鑑於GEM、Andromeda、Lattice以及模型整合等方面的成果,顯然有很多有利因素。那麼,你能否幫我們更詳細地瞭解一下路線圖,以及我們在排名推薦模型變革方面所處的階段?有一種觀點認為,我們可能遇到了某種限制因素,或者我們正在等待更新的模型,但任何見解都將對我們思考下一步以及未來的發展方向非常有幫助。謝謝。蘇珊·李,首席財務官:是的,謝謝你的提問,Ron。我剛才在想你的問題究竟是更側重於廣告方面,還是更側重於使用者互動方面,不過我會儘量兩方面都談談。關於核心的使用者互動部分,我們在第四季度針對Facebook和Instagram推出了一系列排名最佳化措施,這些措施有效提升了使用者互動。實際上,並沒有那一次產品發佈是推動增長的主要因素。這得益於我們對推薦系統的多項最佳化,這些最佳化幫助我們更精準地預測每個使用者的興趣所在。我剛才也簡單介紹了其中的一些最佳化,以及它們在Facebook和Instagram上的具體應用。我們認為,到2026年,我們的推薦系統還有很大的提升空間,預計這將進一步推動這兩個應用的使用者參與度增長。首先,我們計畫繼續擴展模型規模,並增加資料使用量,包括納入更長時間的內容互動歷史記錄,以進一步提升推薦的整體質量。同時,我們將開始驗證廣告訊號和自然內容推薦的使用情況,並逐步建構一個更加共享的自然內容和廣告推薦平台。其次,我們將繼續最佳化推薦,使其更貼合使用者在會話期間的互動內容,從而提供更符合他們當下興趣的推薦。最後,鑑於LLM能夠更深入地理解內容,我們將致力於將其更深入地融入現有的推薦系統。我認為這對近期發佈的內容尤其有用,因為這類內容缺乏足夠的互動資料來支撐推薦。在廣告方面,我們已經討論過Andromeda、Lattice和GEM等模型在廣告領域的諸多工作。我將在第四季度重點介紹GEM,我們擴展了GEM,使其能夠覆蓋FacebookReels。現在,它覆蓋了Facebook和Instagram的所有主要平台。我們還將用於訓練GEM的GPU叢集規模擴大了一倍。預計到2026年,我們將把GEM的訓練規模顯著擴大到更大的叢集,從而提升模型的複雜性,擴展訓練資料,並利用我們在第四季度開始部署的全新序列學習架構。此外,我們還將進一步改進如何將GEM基礎模型的學習成果遷移到我們使用的執行階段模型中。所以我認為,在技術堆疊的許多元件中,還有很大的提升空間。這是我們首次找到一種能夠像LLM一樣高效擴展的推薦模型架構。我們希望這將使我們能夠在保持可觀投資回報率的同時,大幅擴展排名模型的規模。操作員:接下來的問題將來自富國銀行的Ken Gawrelski。請繼續。Q8 Ken Gawrelski:非常感謝。首先,對於Mark來說,Meta擁有一個領先的通用模型有多重要?或者,一個在特定用例中表現卓越的模型是否就足夠了,比如像Anthropic目前在編碼方面所展現的那樣?我們非常希望您能就此發表意見。其次,我想再追問一下,蘇珊,關於您目前所掌握的資訊。您提到2026年您在模型方面做了一些改進,對核心功能進行了微調,包括提升使用者參與度和廣告相關性。您能否談談這些投資是否出現了收益遞減的跡象?您認為2026年以後,在那些方面還有進一步的發展機會?謝謝。馬克·祖克柏,創始人、董事長兼首席執行長:我認為問題在於,對我們來說,擁有一個通用模型究竟有多重要?在我看來,Meta就像是一家深度科技公司。所以,人們會想到我們,因為我們在建構這些應用和體驗。但讓我們能夠建構所有這些產品的關鍵在於,我們建構並掌控著底層技術,這使我們能夠整合和設計我們想要的體驗,而不是僅僅受限於生態系統中其他參與者正在建構或允許我們建構的內容。因此,我認為這是一個非常根本的問題。我猜測,由於種種原因,包括一些競爭因素和一些安全因素,前沿人工智慧技術不可能總是通過API向所有人開放。所以,我認為,如果你想成為塑造這些產品未來的世界級公司之一,那麼擁有建構你想要的體驗的能力至關重要。所以我覺得,從商業角度來看,這非常重要。而且,從創意和使命的角度來看,能夠真正設計和建構我們認為應該為人們打造的體驗也至關重要。是的,我的意思是,我認為這非常重要。否則,我們就不會如此專注於此,我們現在顯然非常重視這一點。蘇珊·李,首席財務官:關於您的第二個問題,有趣的是,一年前的這次電話會議上,我好像談到了我們在2025年預算流程中針對廣告效果和自然流量互動計畫所做的一系列投資。這些投資總體上都取得了成效,我們對當時採用的流程非常滿意,包括使用預期投資回報率對投資進行排序,確保我們擁有完善的衡量體系,為那些投資回報率為正的項目提供資金,並跟蹤它們在一年中的表現。我們剛剛完成了2026年的預算流程,並為類似的投資項目提供了資金,我們預計這些投資將使我們能夠在2026年繼續保持強勁的營收增長。儘管如此,由於一些原因,我預計全年報告營收和按固定匯率計算的營收增長都將低於第一季度的水平。首先,根據目前的匯率,我們預計匯率利多因素將在今年晚些時候消退。其次,我們將在今年晚些時候結束此前受益於2025年廣告效果投資和強勁宏觀經濟環境的強勁增長期。最後,我們預計在歐盟推出的修訂版、個性化程度較低的廣告服務可能會帶來一些不利影響,該服務將於第一季度末開始逐步推出。但與2025年類似,我們對我們識別具有吸引力的投資機會並將其納入預算以支援排名和推薦系統關鍵舉措以及提高模型容量效率的過程感到滿意,所有這些都是推動我們增長的關鍵。操作員:下一個問題來自Evercore樂隊的MarkMahaney,請提問。Q9 Mark Mahaney:好的,我想問兩個問題。MetaAI,關於使用者參與度和使用情況,你們有什麼最新進展嗎?你們是否剛剛開始對這項功能進行改進?另外,Susan,關於股票回購,我想你們本季度沒有回購任何股票。您已經有一段時間沒有回購股票了,大概有一年了吧。年初的時候您談到過資本配置,聽起來您近期沒有回購股票的打算,您能再確認一下嗎?非常感謝。蘇珊·李,首席財務官:好的,我很樂意回答這兩個問題。MetaAI的最新進展是,它現在已覆蓋超過200個市場。MetaAI日活躍使用者最多的市場與我們其他應用非常流行的市場基本一致。不過,不同地區使用者使用MetaAI的主要應用有所不同。例如,在印度和印度尼西亞,WhatsApp的使用率最高。在美國,Facebook是提升使用者參與度的重要驅動力。總的來說,我們看到了很多機會,可以簡化使用者每天使用我們服務所要完成的任務。如果我們能做好這一點,使用者使用我們產品的方式將會不斷擴展。因此,我們致力於將MetaAI打造成最個性化的助手,同時利用我們平台上的海量資訊、趨勢和內容,提供差異化的洞察。我們認為,我們在建構高度個性化的體驗方面擁有非常強大的實力,並將這些優勢融入MetaAI,以便我們能夠根據每個人的個人興趣和偏好定製回覆。關於您的第二個問題,即股票回購,我們的股票回購水平會因多種原因而隨時調整,包括我們是否認為某些領域在短期內更需要資金。目前,我們認為公司的首要任務是投入資源,將自身定位為人工智慧領域的領導者。因此,這確實是資金的首要用途,但我們將繼續保持機會主義,評估股票回購與其他資金用途之間的利弊。KennethDorell,投資者關係總監:好的,我想我們今天的節目就到這裡吧。感謝各位今天的參與。我們期待很快能再次與大家交流。操作員:今天的電話會議到此結束。感謝您的參與,您現在可以斷開連接了。活動已結束。 (invest wallstreet)
中國半導體,預計增長31.26%
根據Omdia發佈的半導體產業觀察,AI應用模型正在中國各垂直行業廣泛落地,標誌著邊緣AI時代的到來。眾多大語言模型(LLM)正在各行業積極部署垂直應用模型。具備邊緣推理能力的數字終端將快速增長,成為中國半導體產業擴張的重要驅動力——尤其是成熟工藝技術領域。2025年四季度最新資料顯示,2026年中國半導體市場預計增長31.26%,市場規模將達到5465億美元。《半導體應用領域市場預測工具(AMFT)- 中國地區(2Q25)》預計中國半導體市場在2025年增長16.17%,2026年增長13.63%。在《半導體應用領域市場預測工具(AMFT)- 中國地區(4Q25)》報告中,2025年四季度的更新將預測上調為2025年增長21.63%、2026年增長31.26%。2025年第四季度預測中,儲存市場規模顯著上調。與二季度版本相比,對2026年儲存市場的預測在新版本中增長了62.8%、對2027年的預測增長了53%、2028年的增長了36%、2029年的增長了25.8%.隨著2025年第四季度開始的全球AI大基建的狂潮,中美雙方AI對於記憶體的消耗量是指數級增長,資料中心的大規模部署帶來的高性能儲存晶片(HBM)需求暴漲。供應受限而需求增加,在供需失衡的大背景下,記憶體價格經歷著巨大的波動,並且根據Omdia的預測,這樣的緊缺會延續到2027-2028年。隨著AI發展勢頭日益明確,儲存晶片供需進一步失衡,全球短缺狀況持續蔓延。中國高端儲存晶片(HBM、高端DRAM、NAND)自給率仍然較低,約90%的供應依賴三星和SK海力士,而美光仍面臨政治限制。因此,市場議價能力偏弱,儲存晶片單價居高不下。計算與無線通訊類別受儲存產品影響顯著,市場規模大幅增長《半導體應用領域市場預測工具(AMFT)- 中國地區(4Q25)》修訂了主流應用增長趨勢。相較於《半導體應用領域市場預測工具(AMFT)- 中國地區(2Q25)》中 “計算與資料儲存”類別,在《半導體應用領域市場預測工具(AMFT)- 中國地區(4Q25)》版本中呈現出更為明顯的增長趨勢。2026年和2027年的資料均較前一版本上調20%以上。主要驅動因素是資料中心推動下高端儲存晶片用量與單價上升,以及5nm及以上先進工藝節點中AI相關邏輯晶片的採用。“無線通訊”類別是另一個增長顯著的應用領域。然而,這一收入增長主要由於供需失衡,導致電子裝置中使用的儲存晶片(LPDDR、3D NAND)ASP顯著上漲所致,而非對無線終端(智慧型手機、平板等)的市場需求出貨量提升。2025年四季度市場反饋顯示,儲存ASP持續上漲及供應商簽訂非長期協議的做法促使多家OEM下調2026年出貨量預期。AI將為中國帶來新的半導體應用因輝達AI晶片對華禁售,2026年中國本土AI晶片供應商的市場份額將進一步擴大。2026年,邊緣AI將為中國的推理AI晶片帶來顯著增長機會。終端裝置中AI的滲透率預計在2026年持續提升,為滿足低時延網路連線的需求,無線的裝置連接變得日益重要。對於具備端到端AI處理能力的裝置而言,採用混合專家模型(MoE)架構是加速開發處理程序的關鍵,尤其是在壓縮和小型化大模型方面。Omdia表示,看到了算力與AI生態深度協同的有力證據,這展現了中國在AI基礎設施領域的多元化突破。2026年,隨著技術與生態的持續協同,中國智算能力將發揮愈發重要的作用。 (半導體芯聞)
一夜200萬閱讀,OpenAI神同步!這項測評框架讓全球頂尖LLM全翻車
這篇中國團隊領銜發佈的論文,已經在外網刷屏了,僅一夜閱讀就達到了200萬!這位MIT博士回國創業後組建的團隊,拉來全球24所頂級機構,給AI如何助力科學發現來了一劑猛藥。最近,一篇由中國團隊領銜全球24所TOP高校機構發佈,用於評測LLMs for Science能力高低的論文,在外網炸了!當晚,Keras (最高效易用的深度學習框架之一)締造者François Chollet轉發論文連結,並喊出:「我們迫切需要新思路來推動人工智慧走向科學創新。」AI領域KOL Alex Prompter分享論文核心摘要後,NBA獨行俠隊老闆Mark Cuban跟帖轉發,矽谷投資人、歐洲家族辦公室、體育媒體同時湧進評論區。僅一夜,累計閱讀量逼近200萬。值得一提的是,同一時間窗裡,OpenAI也發佈了對於AI在科學發現領域能力評測的論文《FrontierScience: Evaluating Al's Ability to Perform Scientific Research Tasks》概述,指出現有評測標準在AI for Science領域失靈。神同步OpenAI、海外討論出圈,究竟是什麼樣的一份工作成果,攪動了全球AI輿論場?AI距離可以助力科學發現,還有多遠?前段時間,美國推出「創世紀計畫」,號稱要調動「自阿波羅計畫以來最大規模的聯邦科研資源」,目標是在十年內將美國科研的生產力和影響力翻倍。但在人工智慧估值泡沫隱現、能耗與產出比飽受質疑的當下,一面是資本的狂歡,另一面卻是AI能力困於「文生圖」等表層應用的尷尬;一面是各類大語言模型頻繁霸榜GPQA、MMMU等題庫式Benchmark的層出不窮,另一面卻是現有LLMs還無法精準解析簡單核磁圖譜的尷尬現狀。人們不禁要問:能在題庫拿高分,就能助力科學發現嗎?現在的模型距離科學發現還有多遠?究竟什麼樣的AI模型可以勝任,拓寬人類的生存邊界?這些討論,在中美AI競爭白熱化的當下變得愈發濃烈。在此背景下,由中國AI for Science領域的初創企業「深度原理Deep Principle」領銜麻省理工學院、哈佛、普林斯頓、史丹佛、劍橋、牛津等全球24所科研院校共同發佈的《Evaluating LLMs in Scientific Discovery》論文,正式回答該時代之問。論文推出了LLMs for Science首套評測體系SDE(Scientific Discovery Evaluation),從科學問題到研究項目,對GPT-5、Claude-4.5、DeepSeek-R1、Grok-4等全球主流大語言模型在生物、化學、材料、物理領域的科學研究與發現能力完成摸底。同以往評測體系不同的是,SDE對模型能力的考量,從簡單的問答式,引向了具體的「假設->實驗->分析」實驗場景。研究發現,GPT-5、Claude-4.5、DeepSeek-R1、Grok-4 平均精準率 50–70%,遠低於它們在GPQA、MMMU等題庫上的80–90%;在86道「SDE-Hard」難題中,最高分不足12%,共同暴露出多步推理、不確定性量化和實驗-理論閉環的短板。更值得警惕的是,模型規模與推理能力的提升已呈現明顯的 「邊際效益遞減」。GPT-5相較於前一代模型,參數規模和推理算力顯著增加,但在SDE基準的四大科學領域中,平均精準率僅提升3%-5%,部分場景(如NMR結構解析)甚至出現性能下滑。換句話說,當前大語言模型在推動科學發現方面的表現,還不如一個普通的本科生。能領銜24所頂尖科研院校發佈背後團隊是誰?《Evaluating LLMs in Scientific Discovery》論文通訊作者段辰儒,是「深度原理Deep Principle」創始人兼CTO。早在2021年,在MIT攻讀化學博士期間,他就已在圖靈獎得主Yoshua Bengio的支援下,發起了AI for Science社區的建立,並在NeurIPS上舉辦AI for Science workshop。2024年初,他與MIT物理化學博士賈皓鈞回國,共同創立「深度原理Deep Principle」。賈皓鈞任CEO,段辰儒任CTO,兩人雖為95後,但已在全球AI for Science創業領域小有名氣。創業一年半以來,其已獲得線性資本、高瓴創投、螞蟻集團等多家知名機構的投資,且與晶泰科技、深勢科技等AI for Science領域的知名企業建立戰略合作關係。「深度原理Deep Principle」從創立之初,就帶著全球AI for Science頭部研究者們的期待。目前「深度原理Deep Principle」已深入全球材料研發中的第一線,將生成式人工智慧同量子化學結合起來,致力於推動材料發現等領域進入新紀元。在過去的一年中,他們在Nature大子刊和JACS等頂級期刊上不斷扔出重磅成果,宣告著他們的技術領先和開放交流的「95後創業公司」心態。從開拓擴散生成模型(Diffusion Models)在化學反應的生成,證明「不止要生成材料,更需要生成材料的合成路徑」,到機器學習勢(Machine Learning Potentials, MLPs)和擴散生成模型的直接對比,證明傳統的機器學習勢不是「萬能」的,再到現在組織各大頂級學者和高校推出SDE,證明傳統一問一答的Benchmark不能帶領我們走向科學超級智能,精準切入AI for Science領域的核心衝突。但同時,對於所有的AI4S公司而言,在商業真金白銀的檢驗中,AI能否真正解決新產品研發問題、滿足客戶期待,是日復一日必須面對的拷問。隨著與行業頭部客戶的商業化合作落地,「深度原理Deep Principle」的資料庫中已經匯聚了來源於客戶與自己實驗室、大量來自第一線的真實工業研發場景資料和模型應用經驗。學術圈的深耕與在AI for Science商業化第一線的積累,讓「深度原理Deep Principle」在提出要建構一把新尺子評測LLMs for Science能力時,一呼百應,搖來了23家全球TOP科學發現機構的50餘位科學家,成立了制定SDE的「夢之隊」。這其中,不乏活躍在LLM領域的大牛學者們,比如:孫歡(Huan Sun),MMMU發起人,俄亥俄州立教授杜沅豈(Yuanqi Du),康奈爾博士,AI4Science 社區「營運大管家」王夢迪,普林斯頓最年輕教授,AI+Bio Safety先驅者Philippe Schwaller,IBM RXN之父,EPFL教授而「深度原理Deep Principle」前期積累的科學發現場景,成為了後來SDE評測體系的前身。在經歷近9個月的跨高校跨學科跨時區的協作後,《Evaluating LLMs in Scientific Discovery》論文正式發佈,通訊單位赫然寫著:深度原理,杭州,中國。自此,匯聚著全球頂級科學發現機構的集體智慧,來自中國的創業團隊「深度原理Deep Principle」,和大洋彼岸的OpenAI,同時站在了向AI for Science——這一人類通往終極AGI頂峰攀登的起跑線。或許千百年後,當人類回望AGI時代,在21世紀的四分之一結束的當口,這場由中美團隊共同呼應的,對於AI for Science的嚴肅討論,把LLMs在各類問答式榜單上的內卷,向真正科學發現的星辰大海推近了一步。「深度原理Deep Principle」與20多所機構的50多位合作者的研究證明了,目前LLM的發展路徑並不能「順便攻克」科學發現。這條通往科學超級智能之路,需要更多有識之士共同並肩而行。 (新智元)
突發!新物種!AI盡頭是空間智能深度洞察研究報告!2025
前言:AI的“空間轉向”與新物種誕生的必然性1.1 前言2025年,人工智慧產業迎來歷史性轉折點——以大型語言模型(LLM)為代表的通用AI技術在文字互動、圖像生成等領域的突破已觸及天花板,而“空間智能”作為連接虛擬算力與物理世界的核心載體,正成為AI技術演進的終極方向。史丹佛大學教授李飛飛在《從語言到世界:空間智能是AI的下一個前沿》中明確指出,當前AI系統困於“語言的世界”,缺乏對現實空間、物理規律與因果關係的真正理解,而空間智能將實現AI從“理解語言”到“理解世界”的跨越,成為AI攀登的下一座高峰。這一轉向不僅催生了“AI+空間”融合的產業新物種,更重塑了全球算力產業鏈的競爭格局與需求結構。本報告聚焦2025年AI與空間智能融合發展的核心議題,核心研究內容包括:空間智能的技術架構與“新物種”產業形態界定;全球及中國算力產業鏈的全景對比(上游晶片、中游算力服務、下游應用);空間智能驅動下的算力需求分層分析(行業、場景、算力形態);技術瓶頸與風險挑戰;未來發展趨勢與產業機遇。報告依託2025年最新行業資料、政策檔案及企業實踐案例,兼具技術深度與產業指導價值,旨在為產業鏈參與者、投資者及政策制定者提供全景式洞察。1.2 核心結論預覽1. 技術演進:空間智能是AI的“終極形態”,其核心是建構融合幾何、物理與動態規則的“世界模型”,實現從被動分析到主動規劃的跨越,當前已進入技術突破與規模化應用的臨界點。2. 產業新物種:催生三大類新物種形態——技術層的“空間大模型”、產品層的“具身智慧型手機器人”、服務層的“空間即服務(SPaaS)”,2025年全球相關市場規模已突破1.2兆元。3. 算力格局:全球智能算力規模2025年達1980 EFLOPS,中國佔比37.8%(748 EFLOPS),算力結構從訓練主導向推理驅動切換,邊緣算力增速(CAGR 50%-60%)遠超雲端。4. 產業鏈競爭:國外形成輝達、AMD雙寡頭格局,國內“一超多強”態勢顯現,國產晶片替代率2025年達41%,沐曦、壁仞等企業加速資本化處理程序。5. 需求驅動:智慧城市、工業智能空間、自動駕駛是核心需求領域,生物醫藥、AR/VR等細分場景算力需求增速超200%,端側AI裝置出貨量2025年破5億台。6. 挑戰與機遇:技術瓶頸集中於晶片製程、叢集互聯效率,地緣政治與能源約束加劇供需失衡;未來機遇在於異構算力協同、綠電算力基建及跨行業場景滲透。第一章 概念界定:AI與空間智能的融合演進1.1 空間智能的核心定義與技術內涵空間智能(Spatial Intelligence)是指機器對物理空間進行感知、建模、推理、規劃並實現互動的綜合能力,其核心是將多模態感知資料轉化為對空間關係、物理規律與因果邏輯的理解,實現虛擬算力與物理世界的精準對應。與傳統AI技術相比,空間智能具有三大核心特徵:一是多模態融合感知,整合LiDAR、攝影機、UWB、地理資訊等多源資料,實現釐米級定位與毫米級建模精度;二是動態世界建模,建構兼具語義與幾何屬性的3D動態場景,支援物理規則模擬與未來狀態預測;三是具身互動能力,依託“感知-決策-行動”閉環,實現與物理空間的自主協同互動。從技術架構來看,空間智能的實現需建構“五層技術堆疊”:第一層底層為算力支撐層(雲端+邊緣+終端異構算力);第二層為感知硬體層(LiDAR、毫米波雷達、高畫質攝影機等);第三層為資料處理層(空間資料清洗、融合與標註);第四層為核心演算法層(3D生成模型、物理引擎、具身智能演算法);頂層為應用場景層(智慧城市、工業、自動駕駛等)。其中,核心演算法層的“世界模型”是空間智能的技術核心,需突破現有LLM的範式侷限,實現語義關係與物理規律的統一理解。1.2 AI向空間智能演進的邏輯必然性AI技術的演進遵循“能力升級-場景拓展-需求倒逼”的邏輯,向空間智能轉向是技術發展與產業需求共同作用的必然結果。從技術層面看,當前以LLM為代表的通用AI存在三大核心侷限:一是缺乏空間認知能力,即使是最新的多模態大模型,在估算距離、方向、大小等基礎空間屬性時表現不及隨機水平;二是物理規律認知缺失,無法穩定預測物體運動軌跡、碰撞關係等基本物理規則;三是動態連貫性不足,生成的視訊內容往往在幾秒內失去空間邏輯連貫性。這些侷限使得AI難以真正賦能需要與物理世界互動的場景,成為技術演進的“天花板”。從產業需求來看,數字經濟與實體經濟的深度融合對AI提出了“落地物理世界”的迫切需求。智慧城市需要全域空間感知與智能調度,工業製造需要數字孿生與即時最佳化,自動駕駛需要高精度空間定位與動態決策,這些場景均要求AI具備空間認知與互動能力。據測算,2025年全球需要空間智能支撐的產業規模已達5兆美元,佔數字經濟總量的28%,需求倒逼成為AI向空間智能轉向的核心驅動力。從認知本質來看,空間智能是人類認知建構的“腳手架”,驅動著想像、創造與推理能力的形成。李飛飛團隊的研究表明,空間智能是連接感知與行動的核心能力,人類通過空間認知實現停車測距、人群穿行等日常動作,其本質是“想像-感知-行動”的一體化過程。AI作為模擬人類智能的技術體系,向空間智能演進是其逼近甚至超越人類認知能力的必然路徑,也是實現從“弱人工智慧”向“強人工智慧”跨越的關鍵環節。1.3 空間智能的“新物種”形態界定AI與空間智能的融合催生了三類具有顛覆性的產業新物種,這些新物種打破了傳統產業邊界,重構了價值創造模式:1. 技術層新物種:空間大模型。區別於傳統LLM,空間大模型以“空間資料”為核心訓練素材,融合地理資訊、3D點雲、物理規則等資料,具備空間建模、動態預測與場景生成能力。例如,史丹佛大學World Labs研發的世界模型可在語義與幾何層面理解複雜3D場景,推理物理屬性與互動關係,並生成連貫可探索的虛擬空間。2025年,國內外已有12款空間大模型實現商用,其中GPT-5空間版、百度文心空間大模型等在建築設計、城市規劃領域的應用精準率達93.6%。2. 產品層新物種:具身智慧型手機器人。依託空間感知與互動能力,具身智慧型手機器人實現了從“固定場景作業”到“全域自適應作業”的跨越,可在動態空間中自主規劃路徑、規避障礙並完成任務。典型案例包括亞馬遜倉庫智能分揀機器人(空間定位精度±2cm)、特斯拉Optimus人形機器人(具備家庭空間互動能力)、醫療微創手術機器人(空間操作精度±0.1mm)。2025年全球具身智慧型手機器人出貨量達120萬台,同比增長210%。3. 服務層新物種:空間即服務(SPaaS)。將空間智能能力封裝為標準化服務,通過API介面向千行百業輸出,實現“空間能力的按需呼叫”。例如,華為盤古空間服務平台可提供城市全域空間建模、動態交通預測等服務,已接入200余個智慧城市項目;GoogleEarth Engine空間服務平台為農業、環保領域提供土地利用監測、災害預警等服務,全球使用者超500萬。2025年全球SPaaS市場規模達2000億元,預計2030年突破1.2兆元。1.4 空間智能的發展階段與2025年關鍵節點空間智能的發展可劃分為四個階段:技術探索期(2015-2020年)、技術突破期(2021-2025年)、規模化應用期(2026-2030年)、成熟普及期(2030年後)。2025年正處於“技術突破期”向“規模化應用期”過渡的關鍵節點,呈現三大標誌性特徵:1. 技術突破節點:3D生成模型、物理引擎與具身智能演算法實現融合,空間大模型的場景理解精準率突破90%,邊緣算力支援毫秒級空間響應(延遲≤10ms)。例如,UWB+LiDAR復合定位技術市場滲透率達35%,實現釐米級定位精度;液冷技術普及使智算中心PUE降至1.1以下,支撐單機櫃算力密度達5P Flops。2. 產業落地節點:核心應用場景實現規模化落地,智慧城市試點項目覆蓋全國89%地級市,北京、上海、深圳等超大城市完成全域智能空間基礎設施建設;工業數字孿生工廠覆蓋率突破60%,生產線綜合效率(OEE)平均提升18個百分點;全屋智能滲透率達12.3%,華為鴻蒙生態與小米AIoT平台連接裝置突破8億台。3. 政策與資本節點:全球主要經濟體出台空間智能專項政策,中國《智能空間產業發展行動計畫(2025-2030)》明確培育30家以上獨角獸企業,組建國家級智能空間創新中心;美國《晶片與科學法案》投500億美元用於算力基建,重點支援空間智能相關晶片研發;歐盟“數字羅盤計畫”建100個百億億次超算節點,支撐空間智能場景落地。資本市場熱度攀升,2025年國內算力晶片企業迎來上市潮,摩爾線程、沐曦股份等相繼登陸科創板,融資規模超40億元。第二章 技術架構:空間智能的核心技術體系與算力支撐2.1 核心技術堆疊:從感知到互動的全鏈路拆解2.1.1 感知層技術:多模態融合與高精度定位感知層是空間智能的“眼睛”,核心目標是獲取物理空間的多維度資料,實現高精度、高可靠的空間感知。當前主流技術方向為多模態感測器融合,整合LiDAR、毫米波雷達、高畫質攝影機、UWB、IMU(慣性測量單元)及地理資訊系統(GIS)資料,彌補單一感測器的侷限性。例如,LiDAR具備高精度3D測距能力,但受天氣影響較大;攝影機可獲取豐富語義資訊,但測距精度不足;UWB適合室內短距離定位,室外表現較差。通過多模態融合演算法,可實現“全天候、全場景、高精度”的空間感知。關鍵技術突破包括:一是LiDAR技術的成本下降與性能提升,2025年車規級LiDAR單價降至500美元以下,探測距離突破300米,點雲密度達300萬點/秒;二是UWB+LiDAR復合定位技術,結合兩者優勢,實現室內外無縫切換定位,精度達±2cm,2028年市場滲透率預計達68%;三是多模態資料融合演算法,基於Transformer架構的融合模型可有效處理異構資料,提升感知精準率,在複雜交通場景中目標識別精準率達99.2%。2.1.2 建模層技術:3D動態場景與數字孿生建模層是空間智能的“大腦中樞”,核心是將感知資料轉化為結構化的空間模型,實現對物理世界的精準對應。技術方向分為靜態建模與動態建模兩類:靜態建模聚焦空間幾何結構的重建,如建築、道路、地形等;動態建模聚焦空間中物體的運動狀態與互動關係,如車輛、行人、裝置等。數字孿生是建模層的典型應用,通過“物理實體-虛擬模型-資料鏈路-服務應用”的閉環,實現物理空間與虛擬空間的即時同步。關鍵技術突破包括:一是3D生成模型,基於擴散模型與Transformer的融合架構,可快速生成高保真3D場景,例如史丹佛大學Marble平台允許創作者無需傳統3D建模工具,快速建立和編輯完整的虛擬世界;二是動態場景預測演算法,結合物理引擎與深度學習,可預測空間中物體的運動軌跡,預測準確率達95%以上,為自動駕駛、機器人導航提供支撐;三是輕量化建模技術,針對邊緣端裝置算力有限的問題,提出輕量化3D模型架構,模型體積壓縮70%以上,可在手機、邊緣閘道器等裝置上即時運行。2.1.3 決策層技術:空間推理與具身智能演算法決策層是空間智能的“決策核心”,核心是基於空間模型進行推理、規劃與決策,實現從“理解空間”到“利用空間”的跨越。核心技術包括空間推理演算法、路徑規劃演算法與具身智能決策演算法。空間推理演算法聚焦空間關係的邏輯判斷,如“物體A在物體B的左側”“路徑C比路徑D短20米”等;路徑規劃演算法聚焦動態環境下的最優路徑選擇,如自動駕駛中的避障路徑規劃、機器人的倉儲分揀路徑規劃;具身智能決策演算法聚焦“感知-行動”閉環,使智能體能夠根據空間環境變化調整行動策略。關鍵技術突破包括:一是空間大模型的推理能力提升,GPT-5空間版、文心空間大模型等可基於3D場景進行複雜推理,如建築結構安全性評估、城市交通流量最佳化;二是強化學習在路徑規劃中的應用,通過模擬海量空間場景訓練模型,使智能體在動態環境中(如擁堵路段、突發障礙)快速找到最優路徑,規劃效率提升40%以上;三是人機協同決策技術,結合人類經驗與AI推理能力,在醫療手術、工業操作等高精度場景中實現“人機互補”,降低操作風險。2.1.4 互動層技術:無感化與人機協同互動層是空間智能的“輸出介面”,核心是實現智能體與物理空間、人類的高效互動。技術方向分為兩類:一是智能體與物理空間的互動,如機器人的機械臂操作、自動駕駛汽車的轉向與制動;二是智能體與人類的互動,如語音互動、手勢互動、腦機介面等。當前發展趨勢是“無感化互動”,即智能體通過感知人類行為、情緒等訊號,主動提供服務,無需人類主動觸發。關鍵技術突破包括:一是手勢與姿態識別技術,基於電腦視覺的即時姿態捕捉精度達98%,可實現對機器人的手勢控制、智能座艙的姿態互動;二是語音互動的空間化,結合空間聲學技術,實現多區域語音識別,區分不同位置的說話人,在智慧辦公場景中支援多人同時語音指令;三是腦機介面技術,在高端辦公、醫療場景中實現腦電波控制,2029年商用化率預計突破15%。2.2 算力支撐體系:雲端-邊緣-終端的異構協同空間智能的全鏈路技術落地離不開算力支撐,其算力需求具有“高並行、低延遲、異構化”的特徵:高並行源於多模態感測器的海量資料(如LiDAR每秒產生數十GB資料);低延遲源於即時互動需求(如自動駕駛需≤10ms的決策延遲);異構化源於不同任務對算力的差異化需求(如建模需GPU的平行計算能力,推理需ASIC的高能效比)。為此,空間智能建構了“雲端-邊緣-終端”三級異構算力協同體系,各層級功能與算力形態如下:2.2.1 雲端算力:大規模訓練與全域調度雲端算力是空間智能的“核心算力底座”,主要承擔空間大模型訓練、全域空間資料處理、跨區域調度等重算力任務。2025年全球雲端智能算力佔比70%-75%,單叢集算力達50 EFLOPS,可支撐萬卡級GPU叢集進行空間大模型預訓練。例如,GPT-5空間版的訓練需萬卡級GPU叢集,單次訓練成本超千萬美元,訓練過程消耗算力達100 EFLOPS·天。雲端算力的核心技術方向是異構計算與叢集互聯最佳化。異構計算整合GPU、CPU、NPU、TPU等多種晶片,發揮不同晶片的優勢;叢集互聯技術通過高速互聯匯流排(如輝達NVLink、國產昇騰高速互聯匯流排)提升叢集通訊效率,當前萬卡級叢集互聯效率達60%-70%,仍是算力擴展的主要瓶頸。為支撐雲端算力需求,全球智算中心建設加速,中國“東數西算”工程建成8大算力樞紐,2025年新增算力60%以上集聚國家樞紐節點,新建大型資料中心綠電佔比超80%。2.2.2 邊緣算力:即時推理與本地決策邊緣算力是空間智能的“即時響應核心”,部署於靠近物理空間的邊緣節點(如基站、智能路側裝置、工業閘道器),主要承擔即時推理、本地資料處理、低延遲決策等任務。邊緣算力的核心優勢是低延遲,可將資料傳輸與處理延遲控制在毫秒級,滿足自動駕駛、工業即時控制等場景需求。2025年邊緣算力佔比約15%-20%,2030年將升至30%-35%,2025-2030年CAGR達50%-60%,邊緣AI晶片市場規模達150億美元。邊緣算力的核心技術方向是高能效比晶片與輕量化演算法。邊緣裝置通常受限於功耗與體積,需要高能效比的專用晶片(如ASIC、NPU);同時,通過模型輕量化(剪枝、量化、蒸餾)降低推理算力需求。例如,華為昇騰310B邊緣晶片能效比達200 TOPS/W,可支撐智能路側裝置的即時目標識別;特斯拉D1晶片專為自動駕駛邊緣計算設計,單晶片算力達362 TOPS,滿足車載即時決策需求。2.2.3 終端算力:本地感知與輕量化互動終端算力是空間智能的“末端感知核心”,部署於終端裝置(如智慧型手機、智能手錶、小型機器人),主要承擔本地感知資料預處理、輕量化互動等任務。終端算力的核心需求是低功耗與小型化,滿足移動裝置的續航與體積要求。2025年終端算力佔比約5%-10%,智慧型手機AI算力達10 TOPS以上,車載計算平台增速超40%。終端算力的核心技術方向是整合化晶片與低功耗演算法。整合化晶片將CPU、GPU、NPU等功能整合於單一晶片(如手機SoC),提升整合度與能效比;低功耗演算法通過最佳化計算流程,降低資料處理的功耗。例如,蘋果A18 Pro晶片整合神經網路引擎,算力達35 TOPS,可支撐手機端3D場景掃描與AR互動;小米澎湃C2晶片專為智能穿戴裝置設計,能效比達150 TOPS/W,滿足長期續航需求。2.2.4 異構協同技術:算力資源的高效調度雲端-邊緣-終端的算力協同是空間智能高效運行的關鍵,核心技術是統一調度平台與高速通訊網路。統一調度平台通過算力感知、任務拆分與資源分配,實現“任務在最合適的算力節點運行”:重算力任務(如模型訓練)分配至雲端,即時任務(如自動駕駛推理)分配至邊緣,輕量化任務(如本地感知)分配至終端。高速通訊網路是協同的基礎,5G-A網路支撐的毫秒級空間感知系統實現釐米級定位精度,光互聯技術升級推動CPO市場2025-2027年CAGR達78%,OCS CAGR達120%。當前異構協同的關鍵突破是“算力網路”技術,通過軟體定義網路(SDN)、網路功能虛擬化(NFV)等技術,將分散的算力資源整合為“算力池”,實現跨區域、跨層級的算力調度。例如,中國電信“天翼算力網路”已接入20個省級算力樞紐,實現算力資源的按需調度;中國移動“算力網路”支撐智慧城市場景下的邊緣-雲端算力協同,降低資料傳輸成本30%以上。2.3 2025年技術突破與瓶頸:從可用到好用的差距2.3.1 關鍵技術突破清單1. 感測器技術:車規級LiDAR單價降至500美元以下,探測距離突破300米;UWB+LiDAR復合定位精度達±2cm;高畫質攝影機影格率突破240fps,低光照環境識別精準率達98%。2. 建模技術:3D生成模型生成效率提升10倍,高保真3D場景生成時間從小時級降至分鐘級;動態場景預測準確率達95%以上,預測時長從1秒擴展至5秒。3. 演算法技術:空間大模型參數規模突破兆級,場景理解精準率達93.6%;輕量化模型體積壓縮70%以上,邊緣端推理延遲≤10ms。4. 算力技術:晶片製程推進至3nm/2nm,輝達B200性能較H100翻倍;國產晶片(昇騰910B、寒武紀590)替代率達41%;液冷技術普及使PUE降至1.1以下,能耗降40%。5. 通訊技術:5G-A網路實現10Gbps下行速率,毫秒級傳輸延遲;CPO技術實現光電器件與晶片的整合,通訊頻寬提升5倍。2.3.2 核心技術瓶頸1. 晶片技術瓶頸:晶片製程逼近物理極限,2nm以下製程成本指數級上升,性能提升放緩;高端晶片受地緣政治影響供給受限,全球GPU供需缺口15%-20%。2. 叢集互聯瓶頸:萬卡級叢集互聯效率僅60%-70%,成為算力擴展的主要障礙;儲存頻寬與算力增長不匹配,CXL協議普及尚需時間,資料傳輸延遲影響大規模訓練效率。3. 演算法泛化瓶頸:空間大模型的場景泛化能力不足,在陌生環境中的精準率下降20%-30%;動態場景中突發情況(如交通事故、極端天氣)的預測能力薄弱。4. 資料質量瓶頸:空間資料標註成本高,3D資料標註單價是2D資料的5倍以上;多源資料格式不統一,資料融合難度大;隱私保護要求提升,空間資料採集與使用受限。5. 能源約束瓶頸:智算中心能耗激增,2026年資料中心IT電力需求達96GW,配套電力設施建設壓力大;邊緣與終端裝置功耗控制仍需突破,影響續航能力。第三章 全球算力產業鏈全景分析:競爭格局與技術路線3.1 算力產業鏈結構:從上游核心硬體到下游應用算力產業鏈圍繞“算力生產-算力服務-算力應用”形成完整生態,分為上游核心硬體、中游算力服務、下游應用三大環節,各環節相互支撐、協同發展。上游核心硬體是算力生產的基礎,中游算力服務是算力流通的載體,下游應用是算力需求的來源,三者共同構成“硬體支撐-服務賦能-應用驅動”的產業閉環。2025年全球算力產業鏈規模達6.5兆美元,其中上游硬體佔比45%,中游服務佔比35%,下游應用佔比20%。3.1.1 上游核心硬體:算力的“物理基礎”上游核心硬體包括晶片、伺服器、感測器、光模組、儲存裝置等,其中晶片是核心中的核心,佔上游硬體成本的50%以上。晶片環節分為通用晶片(CPU、GPU)、專用晶片(ASIC、NPU、TPU)、可程式設計晶片(FPGA)三類,分別適用於不同算力場景:GPU主導訓練場景,2027年市場規模達5000-6000億美元;ASIC在推理場景優勢擴大,2027年市場規模280億美元,佔AI晶片市場35%;NPU/TPU等專用晶片快速滲透,2025年市場規模850億美元。伺服器環節聚焦智算伺服器,搭載多顆AI晶片,支援大規模平行計算,2025年全球智算伺服器市場規模達1200億美元,同比增長45%。感測器環節是空間智能的專屬硬體,LiDAR、毫米波雷達等空間感知感測器市場規模達300億美元,同比增長60%。光模組環節支撐高速通訊,2025年CPO市場規模達50億美元,OCS市場規模達20億美元。儲存裝置環節聚焦高速儲存(如HBM、SSD),HBM3E記憶體頻寬達19.6TB/s,2025年市場規模達150億美元。3.1.2 中游算力服務:算力的“流通載體”中游算力服務包括算力基礎設施(智算中心、邊緣節點)、算力營運服務(雲算力、邊緣算力租賃)、算力賦能服務(模型訓練、資料處理)等。智算中心是中游核心基礎設施,2025年全球智算中心數量達1200個,中國佔比40%,“東數西算”工程8大算力樞紐集聚60%以上新增算力。算力租賃服務是當前最熱門的細分領域,受益於大模型訓練與推理需求爆發,2025年全球算力租賃市場規模達800億美元,同比增長80%。算力賦能服務聚焦專業化算力解決方案,為下遊客戶提供定製化的模型訓練、資料處理服務,頭部企業包括亞馬遜AWS、微軟Azure、阿里雲、騰訊雲等。此外,算力網路服務快速發展,通過整合分散算力資源,實現算力的跨區域調度,2025年全球算力網路服務市場規模達300億美元。3.1.3 下游應用:算力的“需求來源”下游應用分為空間智能專屬應用與通用AI應用兩類,其中空間智能專屬應用是核心增長引擎,包括智慧城市、工業智能空間、自動駕駛、AR/VR、智能醫療等。2025年空間智能相關應用佔算力需求的35%,其中智慧城市佔比最高(12%),工業智能空間次之(8%),自動駕駛(7%)、AR/VR(4%)、智能醫療(4%)緊隨其後。通用AI應用包括網際網路內容生成、金融風控、生物醫藥研發等,佔算力需求的65%,其中網際網路行業佔算力採購的60%,阿里、騰訊等頭部企業未來三年AI投資超5000億。3.2 國外算力產業鏈:雙寡頭主導與技術引領3.2.1 美國:全產業鏈主導,技術壁壘高築美國是全球算力產業鏈的領導者,在晶片、伺服器、算力服務等核心環節佔據主導地位,形成“晶片-軟體-服務-應用”的全產業鏈優勢。晶片環節,輝達、AMD形成雙寡頭格局,佔據全球AI晶片市場的70%以上份額。輝達2025年推出Blackwell B200晶片,採用“單封裝雙芯粒”路線,算力密度和記憶體頻寬達行業極致,性能較H100翻倍,並拋出2026–2027路線圖,Vera Rubin與Rubin Ultra即將推出,Rubin推理峰值50 PFLOPS、HBM4記憶體288GB,FP4稀疏算力是B200的2.5倍。AMD採用Chiplet思路,MI350系列採用CDNA4架構、台積電第二代3nm工藝,配備288GB HBM3E記憶體,峰值2.3 PFLOPS,與B200直接競爭,2026年的MI400將邁入2nm,配備432GB HBM4記憶體,目標直指Rubin。算力服務環節,亞馬遜AWS、微軟Azure、GoogleCloud佔據全球雲算力市場的65%份額,其中AWS的Trainium晶片專為模型訓練設計,Inferentia晶片專為推理設計,形成“自研晶片+雲服務”的閉環;微軟Azure與輝達深度合作,推出Azure ND H100 v5虛擬機器,支援萬卡級叢集訓練;GoogleCloud推出TPU v5e晶片,能效比提升2倍,支撐空間大模型訓練。應用環節,美國在自動駕駛、AR/VR、生物醫藥等空間智能相關領域領先,特斯拉Autopilot採用自研D1晶片與多模態感知技術,自動駕駛Level 4等級的測試里程突破10億英里;Meta的Quest 3 VR裝置搭載空間感知晶片,實現高精度空間定位與虛擬場景融合;OpenAI與生物醫藥企業合作,利用空間大模型加速藥物研發,分子結建構模效率提升10倍。政策與資本支援方面,美國《晶片與科學法案》投500億美元用於算力基建,重點支援AI晶片研發與智算中心建設;國防部、能源部等部門持續投入資金支援空間智能相關技術研發;資本市場對算力企業的估值溢價顯著,輝達市值突破3兆美元,成為全球市值最高的企業之一。3.2.2 歐盟:政策驅動,聚焦協同與綠色歐盟算力產業鏈以政策驅動為核心,聚焦算力協同與綠色低碳,試圖通過“聯合創新”突破美國技術壟斷。晶片環節,歐盟缺乏具有全球競爭力的晶片企業,主要依賴輝達、AMD等美國企業,同時通過“歐洲晶片計畫”投入430億歐元支援本土晶片研發,目標2030年本土晶片產能佔全球20%。重點發展方向為專用晶片,如用於工業智能空間的ASIC晶片、用於自動駕駛的邊緣晶片。算力基礎設施環節,歐盟“數字羅盤計畫”提出建設100個百億億次超算節點,支撐空間智能、氣候變化、生物醫藥等領域的科研與應用;推動“歐洲算力聯盟”(EUC)建設,整合成員國算力資源,實現跨區域算力協同。2025年歐盟已建成20個超算節點,其中芬蘭LUMI超算、德國JUWELS超算躋身全球前十,支援工業數字孿生、城市空間規劃等場景。應用環節,歐盟聚焦智慧城市與工業4.0,推出“智慧城市和社區創新夥伴關係”計畫,支援200個智慧城市試點項目;德國“工業4.0”戰略推動工業智能空間落地,西門子數字孿生工廠覆蓋率達70%,生產線效率提升20%以上;法國在智能交通領域領先,巴黎建成全域智能交通管理系統,交通擁堵率下降30%。綠色算力是歐盟的核心特色,提出2030年資料中心全生命周期碳排放量較2020年下降50%,新建智算中心綠電佔比超90%;推廣液冷、風能、太陽能等綠色技術,芬蘭LUMI超算採用水力發電,PUE降至1.05以下,為全球最低之一。3.2.3 其他國家:差異化佈局,依附核心市場日本聚焦機器人與智能感測領域,索尼、松下等企業在LiDAR、毫米波雷達等感測器技術上具有優勢,索尼Vision-S電動概念車搭載28個感測器,實現高精度空間感知;軟銀集團投資大量具身智慧型手機器人企業,推動空間智能在服務機器人領域的應用。政策方面,日本《數字社會推進基本法》投入200億美元支援算力基建,目標2025年智能算力規模達100 EFLOPS。韓國聚焦晶片與終端裝置,三星電子在晶片製造領域具有優勢,2025年實現3nm製程量產,為輝達、AMD提供代工服務;SK海力士在HBM記憶體領域佔據全球40%份額,支撐高端AI晶片的記憶體需求;三星Galaxy S25手機搭載自研NPU晶片,算力達40 TOPS,支援AR空間互動。其他開發中國家主要依附歐美核心市場,通過承接算力服務外包、引進技術等方式發展,如印度、東南亞國家聚焦算力服務外包,為歐美企業提供資料標註、模型訓練輔助服務;巴西、南非等國家推動智慧城市試點,引進歐美成熟技術與裝置。3.3 中國算力產業鏈:自主可控加速,“一超多強”格局顯現3.3.1 上游核心硬體:國產替代加速,突破關鍵瓶頸晶片環節,中國形成“一超多強”的格局,昇騰系列晶片扮演“頭雁”角色,搭建“晶片-框架-叢集-應用”的四級閉環,已支援建造多個萬卡級叢集,2025年推出384卡超節點新形態,最大算力可達300 PFLOPS,配備創新的高速互聯匯流排,大幅提升大模型訓推效率。寒武紀聚焦AI專用晶片,2024年四季度首次實現單季度盈利,2025年前三季度營收46.07億元,同比增長2386.38%,歸母淨利潤16.05億元,核心產品寒武紀590替代率達15%。國產GPU“四小龍”(摩爾線程、沐曦股份、壁仞科技、燧原科技)加速崛起,2025年迎來上市潮:摩爾線程12月5日登陸科創板,上市首日股價躋身A股Top 3,市值3595億元,業務覆蓋AI智算、圖形渲染和智能座艙SoC晶片等領域;沐曦股份12月17日登陸科創板,總募資規模約41.97億元,核心產品曦雲C600性能介於A100和H100之間,實現全流程國產供應鏈閉環,2026年上半年正式量產;壁仞科技港股IPO獲備案,聚焦高性能通用GPU,公開融資總額超50億元;燧原科技啟動上市輔導,擬在科創板上市。其他硬體環節,中國在伺服器、光模組、感測器等領域具有全球競爭力:伺服器領域,浪潮資訊、華為佔據全球智算伺服器市場的25%份額,浪潮AI伺服器出貨量全球第一;光模組領域,中際旭創、天孚通信在CPO、OCS等技術上領先,2025年全球市場份額達30%;感測器領域,華為、大疆創新在LiDAR領域突破,車規級LiDAR單價降至800元以下,國內市場份額達20%。3.3.2 中游算力服務:基建領先,服務生態完善算力基礎設施方面,中國“東數西算”工程成效顯著,建成8大算力樞紐、10個國家資料中心叢集,2025年新增算力60%以上集聚國家樞紐節點,新建大型資料中心綠電佔比超80%。截至2025年3月底,中國智能算力規模達748 EFLOPS,預計2026年達1460.3 EFLOPS,2028年達2781.9 EFLOPS。頭部智算中心包括華為昇騰AI計算中心、阿里達摩院智算中心、騰訊智算中心等,其中華為昇騰AI計算中心已在全國建成20個節點,總算力達500 EFLOPS。算力服務方面,阿里雲、騰訊雲、百度智能雲、華為雲佔據國內雲算力市場的80%份額:阿里雲推出“飛天智算平台”,支援萬卡級大模型訓練,服務超10萬家企業;騰訊雲推出“混元智算平台”,整合自研晶片與輝達晶片,提供彈性算力租賃服務;百度智能雲“千帆大模型平台”聚焦空間大模型服務,已接入百度文心空間大模型等20餘款行業大模型;華為雲“盤古算力平台”依託昇騰晶片,提供全端國產化算力服務。算力網路方面,中國營運商牽頭推動算力網路建設,中國電信“天翼算力網路”、中國移動“算力網路”、中國聯通“智慧算力網路”已實現全國主要城市覆蓋,支援算力的按需調度與跨省互聯。2025年國內營運商算力投資增20%以上,算力核心產業規模2026年達2.6兆元,帶動相關產業超12兆元。3.3.3 下游應用:場景豐富,規模化落地加速中國空間智能應用場景豐富,智慧城市、工業智能空間、智能家居、自動駕駛等領域均實現規模化落地:智慧城市領域,試點項目覆蓋全國89%地級市,北京、上海、深圳等超大城市完成全域智能空間基礎設施建設,城市治理響應速度提升70%,能耗管理效率提高45%;工業智能空間領域,數字孿生工廠覆蓋率突破60%,基於邊緣計算的即時最佳化系統使生產線OEE平均提升18個百分點;智能家居領域,全屋智能滲透率達12.3%,華為鴻蒙生態與小米AIoT平台連接裝置突破8億台;自動駕駛領域,百度Apollo、小鵬汽車、理想汽車等企業的Level 3等級自動駕駛車型實現量產,Level 4等級在特定區域試點營運。政策支援方面,中國出台多項專項政策推動算力與空間智能產業發展:《智能空間產業發展行動計畫(2025-2030)》明確培育30家以上獨角獸企業,組建國家級智能空間創新中心,完成73項行業標準制定;《“十四五”數字經濟發展規劃》要求2025年智能家居市場滲透率達到40%;《建築節能與智能化發展綱要》提出2030年新建建築智能化系統覆蓋率達90%以上,存量建築改造率不低於60%。3.4 國內外產業鏈對比:差距與優勢並存3.4.1 核心差距:高端晶片與生態建構1. 高端晶片技術差距:國外晶片製程已推進至2nm,輝達B200、AMD MI350等產品性能領先,國內最先進製程為3nm,昇騰910B、沐曦C600等產品性能介於A100和H100之間,與最新產品存在一代差距;晶片架構設計能力不足,國外企業擁有成熟的GPU架構(如輝達CUDA架構),國內架構生態尚在建構。2. 軟體生態差距:國外形成“晶片-框架-應用”的完整生態,輝達CUDA生態擁有數百萬開發者,支援各類AI框架與應用;國內生態較為分散,昇騰MindSpore、百度飛槳等框架的開發者數量與應用覆蓋度不足,跨框架相容性差。3. 高端感測器差距:LiDAR、毫米波雷達等高端感測器的核心元器件(如雷射發射器、探測器)依賴進口,國內企業在精度、可靠性等方面存在差距,車規級LiDAR的國外品牌市場份額達80%。3.4.2 中國優勢:市場規模與政策支援1. 龐大的市場需求:中國是全球最大的算力與空間智能應用市場,2025年智能算力規模佔全球37.8%,智慧城市、工業製造等場景的需求規模全球領先,為本土企業提供了廣闊的試錯與迭代空間。2. 強有力的政策支援:國家層面出台多項專項政策,從算力基建、技術研發、標準制定到應用推廣全方位支援,“東數西算”工程、新基建戰略等為產業發展提供了充足的資金與資源保障。3. 完善的製造業基礎:中國擁有全球最完整的電子資訊製造業產業鏈,在伺服器、光模組、終端裝置等硬體製造領域具有全球競爭力,可支撐算力產業鏈的本地化生產與成本控制。4. 快速的迭代速度:本土企業在應用場景落地方面迭代速度快,能夠快速響應客戶需求,在智慧城市、工業智能空間等細分場景形成差異化優勢。3.4.3 未來競爭焦點:異構算力與生態協同未來全球算力產業鏈的競爭焦點將集中在異構算力協同與生態建構:一是異構算力晶片的研發,整合GPU、CPU、NPU等多種晶片優勢,提升算力能效比;二是統一調度平台的建設,實現雲端-邊緣-終端的算力協同;三是開放生態的建構,通過開源框架、開發者社區等吸引全球開發者,擴大應用覆蓋度;四是綠色算力的突破,通過液冷、綠電等技術降低能耗,提升產業可持續性。第四章 算力需求分析:空間智能驅動的分層需求與增長邏輯4.1 算力需求總體特徵:規模爆發與結構分化2025年全球算力需求呈現“規模爆發式增長”與“結構差異化分化”的雙重特徵。從規模來看,全球智能算力規模達1980 EFLOPS,較2023年增長5倍,其中空間智能相關算力需求達693 EFLOPS,佔比35%,成為核心增長引擎。IDC測算2025年全球AI模型訓練與推理算力需求650 EFLOPS,多模態模型貢獻60%算力增量,而空間智能是多模態模型的核心應用場景。從結構來看,算力需求呈現三大分化趨勢:一是訓練與推理分化,訓練算力2025-2027年CAGR 25%-30%,主要用於GPT-5等兆級空間大模型預訓練;推理算力同期CAGR 90%-100%,為訓練的近4倍,2028年規模超訓練,成為算力增長主力,主要源於空間智能應用的規模化落地(如自動駕駛推理、智能路側感知)。二是算力形態分化,雲端算力佔比70%-75%,但邊緣算力增速(CAGR 50%-60%)遠超雲端,終端算力穩步增長,形成“雲端重訓練、邊緣重推理、終端重感知”的格局。三是行業需求分化,網際網路行業仍佔主導(60%),但金融、醫療、自動駕駛、工業模擬等場景增速超行業平均,生物醫藥AI模型訓練需求同比增210%。算力需求的增長邏輯可總結為“技術驅動-場景牽引-政策護航”三大核心要素:技術驅動方面,空間大模型參數規模從千億級邁向兆級,GPT-5級空間模型訓練需萬卡級GPU叢集,單次訓練成本超千萬美元,倒逼算力規模提升;場景牽引方面,智慧城市、自動駕駛等場景的規模化落地,帶來海量即時推理需求,Token消耗激增,中信證券預計2030年全球Token消耗為2025年的100-340倍,推理算力規模為2025年的65-220倍;政策護航方面,全球主要經濟體出台算力基建支援政策,中國“東數西算”、美國《晶片與科學法案》、歐盟“數字羅盤計畫”等為算力需求增長提供保障。4.2 分行業算力需求:核心場景與量化分析4.2.1 智慧城市:全域感知與智能調度的算力盛宴智慧城市是空間智能的核心應用場景,算力需求源於全域空間感知、數字孿生建模、智能調度決策三大環節,2025年算力需求達180 EFLOPS,佔空間智能總算力的25.9%。具體場景包括智能交通、智能安防、智能市政、智慧能源等:1. 智能交通:核心需求是即時交通感知與動態調度,單條智能路側裝置(含LiDAR、攝影機、雷達)每秒產生10GB資料,需邊緣算力進行即時處理(目標識別、軌跡預測),單路裝置推理算力需求達10 TOPS;城市級智能交通調度平台需雲端算力進行全域最佳化,一線城市(如北京、上海)調度平台的雲端算力需求達5 EFLOPS。2025年智能交通領域算力需求達80 EFLOPS,同比增長70%。2. 智能安防:核心需求是全域視訊監控與異常行為識別,超大城市的視訊監控點位超10萬個,單個點位需0.5 TOPS推理算力,邊緣端總算力需求達5 EFLOPS;雲端需進行視訊資料回溯分析與模型訓練,算力需求達2 EFLOPS。2025年智能安防領域算力需求達15 EFLOPS,同比增長50%。3. 數字孿生城市:核心需求是全域3D建模與動態模擬,超大城市全域數字孿生建模需處理PB級空間資料,訓練算力需求達10 EFLOPS;動態模擬需即時更新城市狀態,推理算力需求達5 EFLOPS。2025年數字孿生城市領域算力需求達30 EFLOPS,同比增長100%。4. 智慧能源:核心需求是電網、管網的空間監測與最佳化調度,城市級電網數字孿生需處理海量感測器資料,推理算力需求達3 EFLOPS;能源調度最佳化模型訓練需1 EFLOPS算力。2025年智慧能源領域算力需求達8 EFLOPS,同比增長60%。政策驅動是智慧城市算力需求增長的核心動力,中國《智能空間產業發展行動計畫(2025-2030)》要求2025年前完成200個智慧城市試點建設,配套財政補貼規模超800億元;住建部《建築節能與智能化發展綱要》提出2030年新建建築智能化系統覆蓋率達90%以上。 (AI雲原生智能算力架構)
倒計時3周離職!LeCun最後警告:矽谷已陷入集體幻覺
【新智元導讀】LeCun不忍了,三周後從Meta「提桶跑路」,臨走前狠扇了矽谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!大模型是一條死路,無法通往AGI!在今天的最新一期深度訪談中,LeCun直言不諱指出:所謂的ASI路線——不斷訓練LLM,用更多合成資料喂模型,雇上幾千人在後訓練階段「管教」系統,再折騰出一些RL的新技巧。在我看來,完全是胡說八道!這條路根本行不通,而且永遠都不可能成功。任職12年,即將暴走Meta的65歲圖靈獎得主,在公眾場合的觀點愈加偏激了。這場近2小時的對談中,LeCun的觀點一針見血——矽谷對不斷「堆大」LLM的痴迷是一條死路;搞AI最難的問題在於,它依舊是「阿貓阿狗」的智能,而非類人的水平。如今,他正把一生的學術聲譽押注在一條截然不同的AI路線之上,即「世界模型」。訪談中,LeCun還分享了創業公司AMI(Advanced Machine Intelligence)正在建構的「世界模型」——在抽象表徵空間中進行預測,而不是簡單地像素級輸出。幾天前,LeCun在與GoogleDeepMind大佬Adam Brown一場激辯中,同樣提出他的經典論點:LLM沒那麼聰明,畢竟一隻貓或一個孩子僅用少得多的資料就能理解世界。Token預測全是泡沫,物理世界才是真相。有網友辣評道,「Meta在AI領域失敗,LeCun是罪魁禍首」。還有人表示,「LeCun很聰明,在Meta保持沉默現在開始發聲了」。65歲創業,再造一個FAIR播客開場,主持人問道,「從Meta這樣大公司跳出來,從0起步,是什麼感覺」?LeCun坦言,雖然他此前也參與過創業,但這次的AMI意義非凡。這次的獨特之處在於一種新現象,即投資者也願意為其買單。這要是放在以往,是不可能的。歷史上,像貝爾、IBM、施樂PARC這樣的大實驗室,都一同壟斷了企業的財力。如今,行業風向正在轉變。FAIR通過開源推動了生態的發展,但近年來越來越多實驗室選擇閉源,OpenAI、Google,甚至Meta也不例外。在LeCun看來,這種閉源趨勢,不利於真正突破性的研究。因此,他決定在Meta外部創辦AMI,專注於「世界模型」,並計畫延續開放研究的傳統。除非你把論文發表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態。看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——此前曾爆出,FAIR實驗室想要發論文,必須經過MSL批准後才可以。LeCun再次強調,「如果真的想要突破,需要讓你的員工發表論文。沒有別的辦法。這是目前很多行業正在遺忘的事情」。下一步,AMI的目標不僅是研究,還會打造實際的產品,比如與世界模型、規劃有關的,並成為智能系統的核心供應商。接下來的話題,又回到了LeCun老生常談的事情。LeCun放話:LLM走不通他明確表示,當前的LLM或基於LLM的AI智能體,處理語言尚可,但在可靠性、資料效率、多模態處理上遠遠不足。我已經說了快十年了,世界模型才是解決這一問題的「正確方法」。「世界模型」能夠預測一個動作或一系列動作的後果,然後系統通過最佳化得出一系列動作,即找出那一系列動作能最好地完成設定的任務,這就是「規劃」。因此,LeCun認為,智能的一個重要部分是能夠預測行動的後果,然後將其用於規劃。「世界模型」是設計用來處理,高維、連續和嘈雜的模態資料,LLM完全不行。真正有效的方法是,學習一個抽象的表示空間,消除關於輸入的不可預測的細節,並在表示空間中進行預測。這就是, JEPA(聯合嵌入預測架構)的想法。論文地址:https://arxiv.org/pdf/2509.14252將近有20年的時間,LeCun一直確信,建構智能系統的正確途徑是通過某種形式的「無監督學習」。他回顧了自己的研究歷程——早在2000年代初中期,便開始探索無監督學習,並嘗試通過自編碼器(Autoencoders)來學習表示,但發現表示包含關於輸入的所有資訊是個錯誤。後來,他意識到需要「資訊瓶頸」(Information Bottleneck),限製表示的資訊量。2015年,ResNet(殘差網路)出世,徹底解決了深層網路架構訓練問題,也是從這時起,LeCun開始重新思考:如何推動實現人類水平的AI?他意識到,強化學習等方法,基本上無法scaling,且樣本效率極低,於是開始聚焦「世界模型」。最初嘗試,他在像素級預測視訊,但發現這行不通,真正的突破在於表示層(Representation Level)進行預測。JEPA的發展克服了早期孿生網路(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg最佳化表示空間。最近的Latent Euclidean JEPA,進一步推進了這一思路。論文地址:https://arxiv.org/pdf/2511.08544對於LLM侷限背後的原因,LeCun分享了資料質量方面的「苦澀的教訓」(Bitter Lesson)。訓出一個性能還不錯的LLM,需要網際網路上大約30兆Token(約10^14字節)的文字資料。LLM需要巨大的記憶體,來儲存這些孤立的事實。相較之下,這僅相當於大約15,000小時的視訊——YouTube上30分鐘的上傳量。一個4歲孩子醒著時看到的視覺資訊,大約是16,000小時。去年發佈的V-JEPA 2模型,就是在相當於一個世紀時長視訊資料上訓練的,雖然字節數更多,但視訊資料的冗餘性正是自監督學習所需的。現實世界資料的結構比文字豐富得多,這也是為什麼LeCun堅稱,只靠文字訓練永遠無法達到人類水平的AI。關於理想化的「世界模型」,LeCun回應了主持人對《星際迷航》全息甲板(Holodeck)的比喻:人們誤以為,「世界模型」必須重現世界所有的細節,這不僅錯誤,還會有害。「世界模型」是在抽象表示空間中的模擬器,只模擬現實中相關的部分。不僅如此,LeCun相信合成資料很有用。但有些基本概念是我們通過經驗習得的,而不是天生的。然而,LLM並不真正理解這些,只是被微調出來給出正確答案,更像是「反芻」而非真懂。炮轟矽谷單一文化針對矽谷LLM狂熱的文化,LeCun的批評尤為尖銳。他指出,AI行業存在一種危險的「羊群效應」——競爭太過激烈,大家都害怕走偏路線而落後,於是OpenAI、Google、Meta、Anthropic等科技巨頭幾乎都在做同一件事。那便是,瘋狂堆疊LLM。這導致,矽谷形成了「單一的文化」,甚至這背後多少帶著點優越感。LeCun警告,一旦深陷「戰壕」,就只能拚命往前衝,因為誰也承擔不起被競爭對手甩開的風險。但更大的風險是,被完全不同方向、出乎意料的一套技術顛覆,它甚至可能解決完全不同的問題。JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應付的資料。LeCun甚至毫不客氣地說——如果你不想變成矽谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會相信這樣一條路徑:只要不停地訓練LLM,用更多合成資料,去授權更多資料,再雇上成千上萬的人來做後訓練,在強化學習(RL)上不斷加點新花樣,你就能一路走到ASI。我認為這完全是扯淡,這條路根本不可能成功!「沒錯,你必須逃離那種文化」。他還透露,即使在矽谷的各家公司內部,也有不少人心裡很清楚:這條路走不通!因此,擺脫這種單一文化,正是LeCun創辦AMI的動因之一。他透露,AMI這家公司是全球性的,總部將設在巴黎,其全球其他幾個地方,包括紐約設立分辦公室。AGI是胡扯「類人AI」還需5-10年當被問及AGI時間線,LeCun先澄清:不存在「通用智能」這種東西!這個概唸完全沒有意義,因為它是被設計用來指代人類水平的智能,但人類智能是超級專業化的。所以AGI這個概唸完全是胡扯。話又說回來,他還是認為,我們會擁有在所有領域都和人類一樣好或更好的機器。「但這不會是一個單一事件,這將是非常漸進的」。他樂觀地預測道,如果未來兩年,能在JEPA、世界模型、規劃等方向取得重大進展。我們可能在5-10年內,看到接近人類智能,也許是狗的智能水平的AI。但這已是極度樂觀。更現實的是,AI歷史上多次出現未預見的障礙,需要我們發明新概念實現超越。那可能需要20年,甚至更久。有趣的是,LeCun認為最難的部分不是從狗到人類,而是達到狗的水平——一旦你達到了狗的水平AI,你基本上就擁有了大部分要素。從靈長類動物到人類,除了大腦的大小差異之外,還缺的是「語言」。語言基本上由韋尼克區(Wernicke area)以及布羅卡區(Broca area)處理。而LLM已經在語言編碼/解碼上表現不錯,或許能充當大腦的韋尼克區和布羅卡區。LeCun稱,我們現在正在研究的是前額葉皮層,那是「世界模型」所在的地方。離職Meta,三周倒計時訪談中,LeCun還談及了Meta AI的重組。他表示,Alexandr Wang並非接替他的位置,而是統管Meta所有AI相關研發和產品,包括四個主要部門:FAIR(長期研究)GenAI Lab(專注前沿LLM建構)AI基礎設施模型轉化為實際產品的部門重磅的是,LeCun透露,自己將在Meta再待三個星期。(估計1月初,正式告別Meta了)FAIR現在由紐約大學Rob Fergus領導,正被推向「更短期的項目」——較少強調發表論文,更多專注於協助GenAI Lab進行LLM和前沿模型的研究。GenAI Lab也有一個首席科學家,專注於LLM,其他組織更像是基礎設施和產品。看得出,Meta重組重心完全放在了LLM,這也是LeCun選擇出來創業的部分原因。此外,LeCun還點評了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。Ilya創立的SSI,甚至包括他們的投資人,都不知道這家公司要做什麼。給年輕人的建議:別學CS訪談的最後,主持人問道,「如果你今天重新開始AI職業生涯,會專注那些技能和方向」?LeCun的回答直擊要害,學習那些「保質期長」(long shelf life)的知識,以及能讓你「學會如何學習」的東西。因為技術演變得太快了,你需要具備快速學習的能力。他開玩笑地說,「保質期長的東西,往往不是電腦科學」。所以,作為一個電腦科學教授,我勸大家別學電腦科學。不過,LeCun還是給出了一些具體的建議,其中包括:深入學習數學(微積分、線性代數、機率論)、建模基礎,尤其是能與現實世界聯絡的數學(工程學科中常見);電氣工程、機械工程等傳統工程專業,能提供控制理論、訊號處理、最佳化等對AI極有用的工具;物理學也是絕佳選擇:物理學的核心就是「如何表徵現實以建立預測模型」——這正是智能的本質;電腦科學只需學到能熟練程式設計和使用電腦的程度(即使未來AI寫程式碼,你仍需懂底層);別忘了學點哲學。LeCun強調,這些基礎能讓你在AI快速變化中始終站穩腳跟,而不是被短期熱點牽著鼻子走。 (新智元)
DeepSeek 與 Google 的暗戰:誰會最先找到通往 AGI 的鑰匙?
自從 2022 年 ChatGPT 3.5 橫空出世,讓世人領略到 AI 的非凡魅力;再到 2024 年底 DeepSeek 驚豔登場,給國人帶來了巨大的驚喜與自信。如今,各類大模型(LLM)及 AI 應用已經深刻地改變了我們的生活。AI 每天都在增強功能。昨天做不到的事,今天已經能做;前天做不好的題,今天已經可以輕鬆解決。我們彷彿回到了蒸汽機投入實用後的那段時間——新技術、新發明以肉眼可見的速度狂飆突進。然而,在這波 AI 浪潮的狂歡背後,科技界仍存爭議:LLM 真的是通往 AGI(通用人工智慧)的正確方向嗎? 或者說,僅靠當前的 LLM 就足夠了嗎?答案其實很清晰:不夠。Transformer 是一次偉大的突破,但要讓機器真正“理解世界”,我們仍需要更多類似 Transformer 等級的全新核心技術。凍結的知識快照不是智能我們知道,當前大模型的訓練方法,本質是讓 Transformer 在大量文字裡尋找“詞與詞的關係”,並基於這些統計關係預測下一個詞。訓練完成後,所有知識都被壓縮排最終的權重檔案裡,像一張凝固的“知識快照”。 但之後它不會自動學習新知識,除非重新訓練或微調。明天產生的新知識無法自動融入,換言之,LLM 本身沒有即時的學習能力。從上面你很快能就發現當前基於LLM的AI的兩個“死穴”:其一,LLM只是一個機率模型,它知道“E=mc²”後面大機率跟著“愛因斯坦”,也知道怎麼用這句話造句,但它不知道這公式是怎麼推匯出來的,也不知道如果光速改變了世界會怎樣。它學到的是知識的“投影”(文字),而不是知識的“本體”(邏輯與因果)。其二,它的知識是靜態的。正因為它沒有一個知識的生產過程,所以它不知道這些知識是如何產生的,為什麼會形成這個知識,這些知識為什麼對,為什麼錯。正如X上有某位大佬所言:“當前 AI 水平離真正的 AGI 還差好幾個 Transformer 等級的創新。” 但遺憾的是,現在還沒有可以取代Transformer的新架構。在這一點上,中美其實“站在同一片荒原上”,未來怎麼走,大家都在摸索。理解知識的積累過程,是智能的前提嗎?回想一下人類的學習方式:從小到大,知識是一點一滴積累的,對同一個知識點的理解也是層層遞進的。相比之下,LLM 生成即“凍結”,缺失了進化的過程,所以它“知道”,但它不“理解”。那麼,將知識的積累過程保留下來,會不會是通往 AGI 的一個方向?如果 AI 能復現人類對某個現象的認識過程,是否就能理解其背後的原理,從而舉一反三?至少,可以將這個認識過程當作一種“元模式”記錄下來,在處理新問題時按部就班地套用。當然,這個觀點也存在爭議。因為許多科學突破是“斷層式”的——先是天才的“靈光一閃”,後人再通過邏輯去填補證據。不過,從人類的普適經驗來看,模擬知識的積累過程,肯定有助於 AI 達到人類智能的平均水準。我們不指望 AI 頓悟成愛因斯坦,但達到專家的水平是完全可期的。這個過程可以從兩個角度來分析一是知識的層級性,高階知識依賴並建立在前導知識(基礎概念、技能)之上。比如說,一個人學習流體力學前,需掌握微積分與線性代數。二是學習的漸進性,對具體知識的理解和記憶,是一個從模糊、具體到清晰、抽象的動態過程。對於個人來說,對新概念的掌握,會從最初的生硬記憶,逐漸內化為可靈活運用的直覺。Google的思考:結構化與記憶針對第一個維度(層級性),Google 試圖將模型的知識結構化為不同時間尺度、相互巢狀的層級,提出了“巢狀學習”(Nested Learning)與記憶框架。(參見論文:https://abehrouz.github.io/files/NL.pdf)。“巢狀學習”的核心是將一個複雜的AI模型,視為一系列相互巢狀的最佳化問題。簡單來說,模型的不同部分可以像人的不同記憶一樣,以不同的“速度”學習和更新。簡單舉例,一般的LLM訓練,對於一個文字來說,可以理解成一個平面,從上而下,流式分佈。然後訓練過程相當於找出每個字之間的關係機率,因為處理窗口的關係,如果算到了後面的內容,往往與前面的文字關係就小了,計算時用的權重也就低了。如同一篇小說,即使作者費盡心機在結尾時回應了開頭處的一個梗,填了開始的一個坑,對於AI來說,也是拋媚眼給瞎子看。AI早就忘記了。而Google的巢狀學習,則是對同一篇文章,除正常的訓練方式外,還對文章先在不同的層次上進行預處理。比如先做一個文章梗概,先過一遍文章,把所有作者預埋的“坑”提取出來……,這樣一篇文字就變成了n篇不同維度文字,然後在訓練時,這些文字都參與訓練,可以平行處理,只是訓練參數和訓練方法不同。能根據性質選擇不同精度和速度的計算,而且訓練出的成果是可以疊加的,不再是單一固定的權重檔案。上面的圖就是一個例子,左邊是普通的深度學習訓練過程,而右邊則是巢狀學習的例子,你能看出對於同一個內容,根據進行多次訓練,只是廣度和精度各不相同。此外,Google 的 ReasoningBank 記憶框架(相關論文:https://arxiv.org/abs/2509.25140 )則更進一步。它的思路是讓AI智能體從以往的成功與失敗經驗中,主動提煉出結構化的“記憶項”。每個“記憶項”包含策略標題、描述和推理內容,本質上是對低級經驗的抽象總結。當面對新任務時,AI會檢索並應用這些抽象原則來指導行動,這模擬了人類專家運用已有知識框架去解決新問題的過程。DeepSeek的嘗試:多維感知與自驗證推理針對第二個維度(漸進性),DeepSeek 在感知與推理兩個層面都展現了對人類思維模式的深度模擬。首先在視覺感知層面,以 DeepSeek-OCR 為例,他們採用了一種獨特的“多解析度訓練”思路:不僅僅是對圖像進行簡單的向量化,而是試圖模擬人類的視覺認知過程——即 “從模糊到清晰” 的動態掃描。對同一張圖片(場景),模型會同時學習其低解析度的宏觀輪廓與高解析度的微觀細節(相關技術細節可參看此前的公眾號文章)。這種策略暗合了人類大腦處理視覺資訊的生物學模式:先建立全域印象,再填充局部細節。不僅在感知上發力,DeepSeek 更試圖在推理層面重現人類的“反思”能力。DeepSeek 不僅在基礎大模型上發力,向各個專家模型演進(如 DeepSeekMath-V2),更在某些領域嘗試模擬人類的“記憶狀態”。在 2025 年 11 月 27 日剛剛發佈的 DeepSeekMath-V2(論文:https://arxiv.org/pdf/2511.22570 )中,DeepSeek 引入了突破性的 “自驗證”(Self-Verification) 機制。這相當於讓 AI 進化出了“自我監考”的能力。傳統的模型像是一個只顧填答題卡的考生,只在乎最終答案是否命中;而 DeepSeekMath-V2 則像是一個嚴格的老師,它不僅檢查答案的對錯,更會一步步審視 解題過程(Process) 的邏輯鏈條。通過這種方式,模型不再是“蒙”對了一個答案,而是真正確信自己“理解”了這道題。這種從“結果導向”向“過程導向”的轉變,是 AI 邁向深度邏輯推理的關鍵一步。DeepSeek 的“自驗證”機制構成了一個自我完善的智能閉環:它不僅能評估解題過程,更能主動生成推理步驟並對其驗證。這模仿了人類的元認知與自我學習能力。古人倡導“吾日三省吾身”,而 AI 則可實現瞬時、高頻的自我審視與迭代最佳化。如下圖(論文中的附圖)所示,隨著驗證次數(最高達7次)的增加,模型解決問題的能力顯著提升,充分體現了通過“反覆自學”實現能力進化的潛力。雖然上述分別列舉了兩家公司的例子,但在技術演進的洪流中,它們並非孤立存在。Google 的巢狀學習涉及不同清晰度資料的處理,而 DeepSeek 的多專家系統(MoE)及多層次資料訓練,本質上也是在對知識進行結構化拆解。結尾:AGI的未來方向,也許正在悄悄顯現從 Google 到 DeepSeek,我們正在看到一個趨勢越來越明確:真正的智能,不是更大的模型,而是更“結構化”的學習過程。未來的 AI,可能會具備:能分層理解知識結構的能力能保持多時間尺度記憶的能力能自主總結“經驗規則”的能力能在模糊與清晰之間漸進切換的能力能記錄“知識的進化史”而不是只記錄結論這些能力加在一起,不是“下一代更大的 Transformer”,而是:一種能夠像人一樣“成長”的架構。我們或許距離 AGI 仍有數個重要突破,但路徑正在變得越來越清晰:不是簡單堆算力、堆資料,而是讓模型獲得“理解知識如何生成”的能力。或許,真正的智能不是一夜之間的奇蹟,而是一次又一次讓機器“重走人類認知之路”的漫長積累。而現在,我們正在走在這條路的最前面。 (亍雲旁觀)
AI的Scaling時代正在進入尾聲?
近期不管是Dwarkesh Podcast上Ilya的訪談,還是行業前沿一些最新的論文進展與NeurIPS 的最佳論文,似乎都在揭示一個真相就是AI的Scaling 時代正在進入尾聲?這屆 NeurIPS 的最佳論文名單,我看了一遍,似乎也並不是在說“Scaling 完全沒用了”,而是在給 2018–2025 這一輪“簡單堆大模型 + RLHF”的路線開一份“體檢報告”:哪些地方已經到 邊際收益遞減 / 隱患暴露期;哪些方向還存在 新的可擴展維度(結構、更深網路、訓練動力學)。結合 Ilya 在 Dwarkesh 訪談裡那句“It’s back to the age of research again, just with big computers”,這 7 篇論文確實在接近一個真相,就是“Scaling 時代”正在接近尾聲,要通過scaling獲得模型邊際性能的提升變得越來越難了。一、先把 7 篇論文拎成 3 條主線按主題而不是按官方獎項看,會更清楚:主線 A:對“無腦 Scaling + RLHF”的反思Artificial Hivemind(Best Paper)這對未來兩個東西都很要命:這篇論文在實證層面告訴你:繼續按照現在這套 RLHF + 合成資料流水線往前堆,遲早會撞到“資訊熵天花板”。創意 / 多樣性:LLM 越來越像一個“平均值人類”,長尾觀點全被削平。合成資料訓練:如果你再用這些“高度平均化”的 LLM 輸出去訓練下一代模型,訓練分佈的資訊熵會持續下降 → 相當於在做一個“生態等級的 mode collapse”。Intra-model:同一個模型對不同採樣、不同時間,回答非常像。Inter-model:不同家的 SOTA 模型(不同架構、不同實驗室)對開放問題的回答也高度相似。做了一個大規模開放式問答資料集 Infinity-Chat(26K 開放式問題 + 超 3 萬人類標註)。發現兩個層面的同質化:這種“人工蜂巢思維”很大一部分來自 RLHF / 對齊階段的 reward model 把“安全、無爭議、平均偏好”的那一塊分佈壓得特別重。2. Does RL really incentivize reasoning capacity?(Runner-up)這基本在幫 Ilya 把話說完:你不能指望一個表徵不夠好的基座,只靠後期 RL 就“解鎖智力上限”。RLVR 是在擠同一塊資訊海綿裡的最後一點水,而不是往海綿裡再灌海水。RL 更像是在隱空間裡學會“少走彎路、直接拿出自己已經會的解法”;但要讓模型學會真正 OOD 的邏輯結構,主戰場仍然是 pre-training 表徵質量。做了嚴格控參實驗,比較 base model 與 RLVR / CoT RL 後的模型。結論不是“RL 沒用”,而是:大部分提升來自“更會採樣”而不是“更會推理”。3. Superposition Yields Robust Neural Scaling(Runner-up)從這裡開始,Scaling 不再是“經驗公式”,而變成“有前提條件的物理定律”:前提不滿足(比如特徵太同質、資料熵不足、RLHF 拉平分佈),Scaling 的收益自然就塌了。Scaling Law 不是玄學,是網路在“塞越來越多特徵進去同一維度空間”時的統計結果;但一旦 superposition 太極端,也會帶來干擾、解釋性差等問題。做的是 toy model + 理論:解釋 Scaling Law 為何看起來像“物理定律”。觀點:網路不是“一維一個特徵”,而是在有限維度裡做了大量 非正交特徵疊加(superposition),在一定條件下可以推匯出類似 “loss ∝ 1/d” 這樣的反比關係。主線 B:從“堆大”轉向“改結構 / 改動力學”這裡是最貼近 Ilya 所說的“Age of Research”的部分:不是把模型做更大,而是在相似計算預算下,重寫 Recipe。4. Gated Attention for LLMs(Best Paper,阿里 Qwen)很小的改動:在 scaled dot-product attention 的輸出後面,加一個 head-specific 的 sigmoid gate。實驗:在 1.7B dense + 15B MoE 模型、3.5T tokens 上系統比較了 30 多種 gating 變體。給原本線性的 low-rank attention 對應加了一層非線性;按 query 自適應做稀疏門控,抑制不該擴大的殘差。結果:這個簡單門控能同時帶來:訓練更穩定、允許更大的學習率;更好的 scaling 性能;長上下文 extrapolation 更好,並且 緩解 attention sink(那種開頭 token 吃掉一堆注意力的現象)。本質上這類工作說明:架構級的小手術 + 訓練動力學的理解,可以在“不多加算力”的前提下,把 Scaling 繼續向前推一段。這就是 Ilya 所謂“回到 research,只不過有更大的電腦”。5.1000 Layer Networks for Self-Supervised RL(Best Paper)有點反轉:說明 “Scaling 結束” 不是全行業的,而是 “某種簡單 scaling 策略的天花板到了”;其他範式(RL + SSL + 具身智能)反而剛剛拉開帷幕。LLM 那邊大家在喊“Scaling 遇到瓶頸”;RL 這邊反而剛進入自己的 Scaling Moment(但靠的是深度 + 自監督,而不是僅僅加寬點 MLP)。傳統 RL policy 網路一般就 2–5 層,深了就梯度斷、訊號稀疏。這篇用 自監督目標 + goal-conditioned 無獎勵設定,把網路深度做到 1024 層,在 Locomotion / Manipulation 的目標達成任務上提升 2x–50x。更重要的不是數字,而是 qualitative change:深層表徵開始出現 “湧現的目標達成策略”,而不是簡單的局部最優。6. Why Diffusion Models Don’t Memorize(Best Paper)研究擴散模型在訓練過程中的 兩階段動力學:早期:迅速學到資料流形的結構 → 泛化能力主要形成於此;後期:緩慢開始記憶孤立樣本 → 過擬合主要在這個階段發生。把這個現象解釋為一種 隱式動力學正則化(implicit dynamical regularization):噪聲調度 + 損失景觀,讓模型更傾向學“結構”而不是“具體樣本”。這對現實世界有兩個含義:從理論上解釋了為什麼擴散模型在很多實驗裡 不太“死記硬背”訓練樣本;也給出了一個穩健操作建議:控制訓練時長 / 早停點,就可以在不改變結構的前提下獲得 better generalization。這裡的關鍵詞是:理解訓練動力學 → 調 recipe,而不是再堆參數。7. Optimal Mistake Bounds for Transductive Online Learning(Runner-up)這是純理論,把一個 30 年的 open problem(直推線上學習的 mistake bound)補完。配上上面幾篇,可以看出一個趨勢:Scaling 不再等於“加 labeled data + 加參數”,而是“利用 unlabeled / self-supervised 結構,把資訊效率榨滿”。給半監督 / 自監督學習的 “極限收益” 一個更清晰的下界;幫你回答“多利用 unlabeled data 到底理論上能好多少”。結論:在有大量未標註資料的情境下,可以把錯誤界從線性降到 √n 等級。主線 C:回到“生物與歷史”的兩塊基石Test of Time:Faster R-CNN10 年前的工作被授予時間檢驗獎,本質是在提醒大家:當年深度學習取代手工特徵工程(Selective Search 等)的邏輯,就是:“只要接上梯度,一切皆可學習”。和 Gated Attention 一起看,相當於在說:真正改變時代的架構創新,往往不是“多 10 倍參數”,而是“發現一個新的 end-to-end 可微組合方式”。Sejnowski-Hinton Prize:Random Synaptic Feedback / Feedback Alignment這篇 2016 年的工作證明:即使反向傳播的 feedback 權重是固定隨機的,前向權重也可以在訓練中“自動對齊”它們,從而逼近真正梯度。對今天的暗示:深度學習不必拘泥於“生物不可能實現 exact backprop,所以不 biologically plausible”;你可以探索 更鬆弛、但可實現的學習機制。配合 Ilya 現在在 Safe Superintelligence 做的事情,其實是在告訴你:下一階段的“Research”不僅是工程層面的 recipe,更是“理解大腦 / 理解學習規律”層面的基礎研究回歸。二、這 7 篇論文是如何給 Ilya 那句“Scaling 時代結束”做註腳的?把 Ilya 訪談裡的時間軸簡單整理一下:2012–2020:Age of ResearchCNN / RNN / attention / Transformer / RL breakthroughs。2020–2025:Age of Scaling大模型 + 巨量資料 + 大算力,“公式非常簡單、低風險”:堆 GPU 就是正解。2025 以後:Back to the age of research, just with big computers規模已經很大,再 100× 不會“質變一切”,必須重新在“方法 / 架構 / 理論”上做發現。NeurIPS 這幾篇獲獎論文剛好對應三個層面:1. Scaling 舊範式的“副作用清單”這幾篇一起,把“簡單繼續沿用過去 5 年的 scaling recipe” 的邊界畫出來了。Artificial Hivemind:過度對齊 + 合成資料 = 生態級 mode collapse 風險。RLVR 去魅論文:把 RL 當“神奇推理放大器”是不現實的;它更多是採樣器最佳化。Superposition Scaling:Scaling Law 只是某些結構下的“物理現象”,前提一旦被破壞,law 就不再適用。2. 新範式的“起點示例”博弈的重點,從 “再加多少 GPU” 變成 “在既有算力預算下,如何通過結構 + 動力學 + 理論把效率榨盡”。Gated Attention:通過理解 attention 動力學(attention sink、低秩對應),做最小結構改動,換來更穩定、更可擴展的訓練。1000-Layer Self-supervised RL:在 RL 場景裡把深度 scaling 打開,但必須配合自監督世界模型。Diffusion Dynamics:通過分析訓練動力學,給出“不 memorization” 的機制解釋和操作準則。Transductive Mistake Bounds:為“如何利用 unlabeled data 到極限”提供理論下界。3. 回到“世界怎麼工作的”這和 Ilya 現在的強調完全對應:模型已經“足夠大”,但 泛化比人差得多;下一個階段必須是理解“泛化的物理 / 生物機制”,而不是繼續盲目擴表。Faster R-CNN 與 Feedback Alignment 兩個獎項,某種意義上是在說:深度學習最強的時候,從來不是模型最大的時候,而是我們第一次找到“世界 / 視覺 / 大腦”真正規律的那些時刻。三、這個判斷在提醒什麼?換成很實在的視角:1. 資料與分佈:不要再把“更多樣本”當唯一武器合成資料 ≠ 免費午餐,如果源模型高度同質,我們只是把“平均人類”的偏見重複寫 N 遍;對於開放式任務,需要設計能衡量 輸出多樣性 / 長尾質量 / 個體偏好差異 的基準,而不只是平均分。真正的泛化很多時候來自訓練動力學(比如噪聲 schedule),而不是資料量超大;未來圍繞“資料版權 / 記憶與泛化邊界”的爭論,會越來越依賴這種動力學層面的理論。2. 模型與架構:規模相近的情況下,誰的 Recipe 更聰明?許多“訓練不穩 / sink token / 長上下文塌陷”的問題,可以通過 非常局部的結構改動 來解決;這類工作對工業界極具價值,因為它幾乎是“drop-in replacement”。在 RL 這種傳統上偏淺層的領域,深度本身就是一個還沒被用完的 scaling 維度;但要開啟它,你必須引入 自監督世界模型 / 輔助目標,否則梯度與訊號撐不住。如果把 2018–2025 的 LLM 熱潮比作一次“大煉丹”:這幾年我們已經證明:Scaling 非常有效,但不是無限有效。NeurIPS 2025 的這幾篇獲獎論文,在不同維度上給出了同一個答案:再往前走,不能再靠“多幾倍 GPU”來當默認路線了。 需要的是:理解分佈、理解架構、理解訓練動力學、理解泛化極限。換成 Ilya 的話就是:時代沒有從 Scaling 退回“什麼都沒有”, 而是從“只有 Scaling”回到了“Research + 大算力”並重。 (貝葉斯之美)