#AI+
美國開源AI最後的旗幟,也倒了
開源領域一大悲號傳來——艾倫人工智慧研究所(Ai2),宣佈削減開源模型開發(包括OLMo)的資金,轉向AI應用。就在同一時間,AI2核心團隊幾乎被“打包帶走”,集體流向微軟。人員包括前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,都是Ai2的核心力量。其中有的人上周剛參加完GTC大會,還跟老黃暢談開源模型的未來。他們的下一站,則是微軟穆斯塔法·蘇萊曼的超級智能團隊。X上已經炸了鍋,全網一片哀鳴。不少網友唏噓:這對開源社區來說是個巨大遺憾,OLMo是極少數真正開放原始碼的模型之一。核心人員打包進微軟核心人員集體離職,是一個非常不妙的訊號。Ai2前CEO阿里·法哈迪、前首席營運官索菲·萊佈雷希特、漢娜·哈吉希爾齊和蘭傑·克里希納,統統被蘇萊曼打包進了微軟。法哈迪已於3月12日卸任,結束了超過兩年半的Ai2掌門人生涯。他與Ai2的淵源頗為深厚。法哈迪是一位電腦視覺專家,也是華盛頓大學電腦科學與工程學院的教授,該院即以微軟聯合創始人、Ai2創始人保羅·艾倫(Paul Allen)的名字命名。他還聯合創立了Ai2的衍生公司Xnor.ai,該公司於2020年被蘋果以約2億美元的價格收購。在蘋果,他曾領導機器學習工作。哈吉希爾齊是OLMo開源模型項目的聯合負責人,上周剛在輝達GTC大會上代表Ai2參加了多場會議,還和黃仁勳探討開源模型的未來。她還是開源多模態人工智慧基礎設施加速科學發展項目(OMAI)的聯合首席研究員。這個項目旨在建構用於科學研究的開源模型,為期5年,耗資1.52億美元,由輝達和美國國家科學基金會聯合資助。克里希納則主導了Ai2多模態模型Molmo等多個關鍵項目,同樣在剛剛結束的GTC大會上代表Ai2發表演講。而現在,這些人才將集體加入微軟穆斯塔法·蘇萊曼的超級智能團隊。從去年11月起,蘇萊曼就開始組建超級智能團隊,目前已從Google、Meta、OpenAI、Anthropic等巨頭挖角了不少研究人員,還在不斷從Ai2和華盛頓大學聘請人才。蘇萊曼在領英上公開發帖,歡迎他們的加入。他還稱讚法哈迪帶領Ai2在一年內發佈了100多個模型;而哈吉希爾齊是“世界上被引用次數最多的自然語言處理研究人員之一,毋庸置疑”。而萊佈雷希特則擴大了Ai2的營運規模和開源工作,共同領導和創立了Xnor.ai和Neon Labs,還擁有布朗大學認知神經科學博士學位。蘇萊曼表示,他們將助力推進微軟的使命——實現“以人為本的超級智能:打造更安全、可控、更強大的AI系統,服務於人類以及解決最棘手的問題”。法哈迪也在領英上表示自己很高興加入微軟。可想而知,一批核心人員的離職對於Ai2而言是一次重大打擊。但他們為什麼要走呢?答案還是出在資金上。Ai2董事會主席比爾·希爾夫透露,法哈迪希望在人工智慧的前沿領域進行研究,而OpenAI、Google等公司會花費數十億美元來訓練最先進的模型。但對於一家非營利組織而言,很難以慈善資金訓練出對標巨頭的模型,還完全開源。希爾夫表示,董事會必須權衡其慈善資金是否還應該用於“追趕進度”。他也承認,在大模型開發的最高規模上與科技巨頭競爭,已經變得異常困難。此話怎講呢?GPT-4等級模型訓練成本估計在1-2億美元量級,當前前沿模型已攀升至數億美元。AI2的年度營運預算雖未公開,但可以參考一些指標。比如OMAI項目的1.52億美元是五年期、多機構共享的專項資助,年均約3000萬美元,僅相當於最前沿的單個大模型訓練成本的一小部分。這和巨頭相比是數量級差距,很難正面競爭。進一步來說,投資方的策略調整是更加決定性的因素。Ai2最初由艾倫的Vulcan公司資助,後來由其遺產繼續資助。現在的最大資助方是科學與技術基金會(FFST),該基金會由保羅·艾倫的遺產設立,規模達31億美元。2024年,琳達·斯圖爾特博士接任FFST CEO後,資助策略發生了顯著變化。斯圖爾特是一位醫生科學家,曾領導華盛頓大學蛋白質設計研究所。她更傾向於具有明確科學應用和可量化社會影響的項目,而非投入大量資金進行前沿模型的研究。據GeekWire報導,2026年Ai2的所有項目都已經獲得全額資助,但FFST的資助模式將由提供年度總資助轉向基於項目提案的資助模式。這種轉變意味著什麼?在年度整體資助模式下,研究機構通常擁有較高自主權,能夠承擔長期風險、靈活調整資源分配。而基於提案的模式引入了更強的成果導向和短期問責,每個資助周期都需要明確的可交付成果和影響力指標。對於開源基礎模型開發——周期長、成本高、商業回報不直接——這種轉變意味著更大的不確定性和更高的申請成本。有知情人士透露,FFST未來的資助預計將更傾向於人工智慧的實際應用,而非建構開源基礎模型。這也很好地解釋了,為何專注於模型開發的研究人員紛紛選擇離開。美國開源AI最後的旗幟倒了消息一出,X上一片悲鳴。不少網友表示:美國開源AI最後的旗幟也倒了。為何這麼說?因為過去幾年,Ai2確實投入了大量資源做真正開放原始碼的大模型。Ai2的OLMo系列,極致地踐行了“完全開源”(truly open)理念。它不僅開源模型權重,而且從資料處理到預訓練、微調,再到評測,全階段都公開透明。並且始終採用對開發者友好的Apache2.0許可證。2025年11月發佈的OLMo 3,進一步強化了這種透明度承諾。該系列包括Base、Instruct、Think和RL Zero四個變體,覆蓋7B和32B參數規模。其中OLMo 3-Think 32B被宣傳為“該規模首個完全開源推理模型” 。更重要的是,Ai2發佈了完整的“模型流程”(model flow),包括訓練日誌、中間檢查點、完整程式碼和配置。還有升級版的OlmoTrace工具,允許研究者將模型推理步驟回溯到具體影響它的資料和訓練決策。因此也有說法認為:OLMo與Llama 4、Mistral Large 3並稱為“三大開源支柱”。並且OLMo更透明,因為它提供所有中間產物,而Llama只開源權重,Mistral部分資料閉源。但現在,這個開源領域旗幟性的標竿,倒了。一時之間,梗圖與迷因齊飛。大洋彼岸的網友們進行了一場賽博悼念,大感“開源悲劇”,還有人聯想到了全球同此涼熱。不過也有人認為,這很正常,開源經濟學理論站不住腳。用非營利方式做頂級開源模型這條路,難以持續。目前,臨時CEO皮特·克拉克表示Ai2仍致力於其使命以及與NSF和Nvidia的合作關係,包括OMAI計畫。克拉克是Ai2的創始成員之一,曾於2022-2023年擔任臨時CEO。他曾共同領導Ai2的Asta項目,旨在開發用於輔助和自動化科學發現的智能體框架的大型計畫。開源AI的東昇西落美國仍有開源力量,但都在變形:Meta的LLaMA,名義上“開源”,但越來越偏“可控開放”。訓練資料不公開,許可有限制,並且還持續難產。Google的Gemma,提供模型權重、推理使用權限,但同樣沒有完整訓練資料或流程。Hugging Face的SmolLM,完全開源,但由社區驅動,缺乏大規模訓練資源。輝達的Nemotron系列,近期更開放了,不斷推出開放許可,更多開源資料發佈,但主要服務硬體生態。相比之下,中國的開源模型已經超越了美國領先的開源模型,並進一步拉大了與它們的性能差距。現在,Ai2的戰略調整,也會加速美國與中國在開源AI領域的差距擴大。在OpenRouter上,過去三周中國大模型的呼叫量已經連續超過美國,跟領先的閉源模型也打得有來有回。MIT與抱抱臉的聯合報告顯示,過去一年,中國開源模型全球下載量佔比達到17.1%,首次反超美國。許多美國初創企業也開始“悄悄”依賴中國開源模型進行建構,其默認選擇進一步向中國模型傾斜。比如上周Cursor發佈新模型Composer 2,被曝套殼Kimi K2.5;還有初創公司Deep Cogito去年發佈的Cogito v2.1,也被曝基模是DeepSeek,都從側面證實了中國開源模型的實力。開放原始碼的火種未熄,但風向已變。開源AI已經完全進入了中國時間。開源AI的未來,只能在中國了。如果存在一個大模型Android版,那這個也只能在中國了。 (量子位)
黑馬AI橫掃預測市場!預測未來勝率已超過人類
【新智元導讀】大模型能否預測未來?UniPat AI建構了一套完整的預測智能基礎設施,Echo,包含動態評測引擎、面向未來事件的訓練範式和預測專用模型EchoZ-1.0。在其公開的General AI Prediction Leaderboard上,EchoZ-1.0穩居第一,並在與Polymarket人類交易市場的直接對比中展現出顯著優勢。過去一年,預測能力越來越受到模型廠商的重視。但預測領域有一個根本性的驗證難題:你說你能預測未來,怎麼證明?發佈時的demo無法追溯,事後公佈的案例存在選擇性偏差,通用基準測試衡量的是語言理解和推理能力,跟真實預測是兩碼事。UniPat AI近日發佈的Echo系統,試圖用一套完整的基礎設施來回答這個問題。Echo由三個緊密耦合的元件構成:一個持續運轉的動態評測引擎,一套面向未來事件的後訓練流程(Train-on-Future),一個未來可能的AI原生預測API。官網:https://echo.unipat.ai/ Blog:https://unipat.ai/blog/Echo核心模型EchoZ-1.0是第一個在Train-on-Future範式下端到端訓練的大語言模型。在General AI Prediction Leaderboard 上(2026年3月資料),EchoZ-1.0以Elo 1034.2排名第一,領先 Google的Gemini-3.1-Pro(1032.2)和Anthropic的Claude-Opus-4.6(1017.2)。排行榜涵蓋12個模型,覆蓋政治、經濟、體育、科技、加密貨幣等7個領域,活躍題目超過1000道。EchoZ在排名魯棒性測試中穩定第一排名本身只是一個快照,排名的穩定性更值得關注。部落格中披露了一組σ參數敏感性測試:調整Elo框架中的σ參數(控制Brier Score差異向勝率的轉化強度)從 0.01到0.50共9個取值,重新計算全部模型排名。這個參數簡單來說,就是控制「模型之間表現差距」會被放大到什麼程度。EchoZ在全部9個分組均保持第一,是唯一排名未發生任何波動的模型。作為對比,GPT-5.2的排名在第2到第9之間波動過8個位次。更有說服力的一個細節是,EchoZ的競爭對手不僅有頂級大模型,還有預測市場上真實投入資金的人類交易者的聚合判斷,EchoZ的Elo分數顯著高於這條基線。與此同時,Echo官網公開了所有預測問題、模型輸出的機率分佈和最終結算結果,任何人都可以回溯驗證。三個層面的可驗證性疊加在一起(動態排行榜、實盤市場對照、全量資料公開),構成了Echo與此前各種「AI 預測」最根本的區別。那麼,EchoZ對人類預測者的實際優勢有多大?Unipat AI給出了一組分層對比:將EchoZ與人類市場在同一預測批次中的同一問題上進行比較,基於Brier Score計算勝率,按領域、預測期限和市場不確定性三個維度展開:政治與治理領域:EchoZ勝率63.2%長期預測(7天以上):EchoZ勝率59.3%市場不確定區間(人類信心55%-70%):EchoZ勝率57.9%一個值得注意的規律是:人類預測者越猶豫的場景(高不確定性、長時間跨度、複雜政治博弈)EchoZ的優勢反而越明顯。這暗示模型在資訊整合和機率校準上的系統性優勢,恰好在人類直覺最不可靠的區域得到了最大程度的釋放。一個持續生長的評測引擎建構評測基準本身並不新鮮,但Echo的做法有一個關鍵差異:它建構的不是一個靜態的題庫,而是一個能夠自動出題、自動結算、持續更新排名的動態系統。為什麼「動態」這件事很重要?拿一道具體的預測題來說:「2026年3月31日收盤時,全球市值最大的公司是那家?」如果模型A在3月1日給出了預測,模型B在3月28日給出了預測,兩者的正確率能直接比較嗎?顯然不能。越接近結算時間,可用資訊越多,預測難度越低。這就是現有預測基準的第一個結構性問題:時序不對稱。第二個問題是題源過於單一:現有基準的題目幾乎全部來自預測市場,偏向容易結算的二元問題,大量來自專業領域和新興話題的預測需求被遺漏了。Echo Leaderboard 的架構正是圍繞這兩個問題展開的。整套系統可以拆解為四個階段的持續循環:Echo 評測引擎建構流程第一步,資料採集。三條資料管道同時運行。第一條對接Polymarket等預測市場,篩選有明確結算規則和高品質共識訊號的合約。第二條面向開放域,抓取Google Trends等即時趨勢,自動生成關於尚未發生事件的預測問題,由agent持續搜尋進展並自動結算。第三條來自真實專業場景:科研、工程、醫療等領域的專家將自己工作流中有價值的預測題貢獻到系統中,並在預定時間點給出權威判定。從Polymarket上的大眾共識到實驗室裡的專家判斷,三條管道覆蓋了一個相當完整的預測光譜。第二步,預測點調度。每道題不只做一次預測。系統使用對數調度演算法,根據題目的結算周期長度分配多個prediction points(預測時間點),既保證了生命周期內的覆蓋密度,又控制了計算開銷。第三步,對戰建構。這是解決時序不對稱問題的關鍵環節。評測使用point-aligned Elo機制:嚴格只比較「同一道題、同一預測時間點」的結果。所有參賽模型在完全相同的資訊上下文下對決,公平性由此建立。第四步,Elo評分更新。基於Bradley-Terry MLE演算法計算全域排名。實驗資料顯示,這套框架對新加入模型的排名收斂速度是傳統Avg Brier方法的2.7倍。模型排名收斂速度對比這四步構成一個不斷循環的閉環:新題目持續流入,新的預測點持續觸發,對戰持續發生,排行榜持續更新。用一句話概括:Echo造了一把動態校準的尺子,而這把尺子本身也在不停生長。Train-on-Future:當推理過程本身成為訓練訊號評測引擎解決了「怎麼量」的問題,接下來要回答的是「怎麼訓」。Echo 的訓練流程同樣是一套結構化的系統,UniPat稱之為Train-on-Future範式,由三個核心機制組成。在展開之前,有必要先理解傳統路徑(Train-on-Past)為什麼走不通。用歷史事件的已知結果來訓練預測模型,面臨兩個很難繞過的困難。第一個是工程悖論:網際網路內容持續更新,用過去的事件做訓練題時,模型在搜尋網頁的過程中幾乎必然會撞上包含答案的資訊,資料洩露在工程實現上極難杜絕。第二個是結果導向偏差:現實事件充滿隨機性,一個邏輯嚴密的分析可能因為黑天鵝事件而給出「錯誤」答案,一個粗糙的猜測可能碰巧命中。直接用最終結果做訓練訊號,模型很容易過擬合到噪聲上。Train-on-Future 的三個機制分別瞄準了這些問題:機制一:動態問題合成。與使用歷史題庫不同,Echo通過一條自動化管道,持續從即時資料流中生成關於未來事件的高資訊量預測問題。因為每道題都關乎尚未發生的事件,訓練天然不存在資料洩露的問題。機制二:Automated Rubric Search。這是整個訓練範式中最有技術含量的部分。Echo的做法是:把訓練訊號建立在推理過程的質量上,而非最終預測的對錯。但隨之而來的問題是,「好的推理過程」該如何定義?舉一個體育預測領域的具體例子。Echo的Rubric中有一個維度叫做「Precursor and External Catalyst Evaluation」,評估模型是否利用高度相關的先行訊號或外部驅動因素。得5分的標準是:識別具體的近期或即將發生的催化因素(如關鍵球員回歸、連續客場結束、關鍵對位變化),並分析這些因素與比賽結果之間的歷史關聯。得 1 分的標準是:僅泛泛提及「狀態不錯」或「士氣提升」等模糊因素,而未繫結具體可驗證事件。另一個維度是「Multi-Factor Causal Synthesis」,評估模型是否將多個獨立因素整合為一個有因果結構的預測結論。得5分的標準是:明確整合至少三個相互獨立的因素(如傷病情況、近期狀態、主客場表現、賠率基線),並解釋這些因素如何相互作用(如傷病削弱進攻效率,而主場優勢部分避險該影響),最終形成一個加權後的整體判斷。得1分的標準是:僅基於單一因素(如「某隊最近連勝」)直接得出結論,或簡單羅列資訊而沒有解釋各因素之間的作用關係。總結來說,這兩個維度分別關注模型是否能夠在時間維度上引入可量化的前瞻性的關鍵變化,並在同一時點上將這些變化與既有資訊整合為結構化的因果判斷,從而提升預測的完整性與動態適應能力。模型按rubrics打分的排名與Elo排名相關係數隨rubrics質量提升而提升。這些維度高度具體,顯然不是泛泛而談的「推理質量」。但靠人工設計也走不遠,預測領域噪聲極高,不同領域的邏輯差異很大。Echo把這個問題轉化成了一個資料驅動的搜尋任務:由LLM生成候選評分標準(rubric),每一輪基於上一輪的反饋進行迭代,搜尋目標是讓rubric產生的模型排名與真實Elo排名之間的Spearman ρ最大化。搜尋按領域獨立進行,政治領域和體育領域各自搜尋出20個評分維度。實驗資料顯示,rubric的評估質量在迭代過程中持續攀升。機制三:Map-Reduce Agent架構。訓練完成後,EchoZ-1.0在推理階段採用分佈式的Map-Reduce流程。Map階段將一個宏觀預測問題分解為多個正交子任務,派出多個agent平行完成資訊採集和領域推理;Reduce階段由聚合節點處理跨源衝突、對齊因果鏈,輸出最終的機率判斷。這個循環支援多輪自適應迭代,直到資訊覆蓋度和推理深度趨於穩定。這套訓練範式的本質可以這樣理解:不僅考察模型猜對了沒有,也考察模型的分析過程是不是優秀。而「評價分析過程」這件事本身,也由這個系統自動完成。值得留意的下一步據瞭解,UniPat計畫將EchoZ-1.0的預測能力封裝為一套AI-native Prediction API對外開放。從部落格已披露的技術架構來看,這套API將支援自然語言形式的預測問題輸入,返回包含機率分佈、分層證據鏈、反事實脆弱性評估和監測建議的完整結構化報告,每份報告由多輪Map-Reduce agent對即時網路證據循環檢索和推理後生成。UniPat在官網上為Echo寫下了這樣一句話:「The future is no longer a probability you guess — it is a parameter you integrate.」當預測從一種直覺判斷變成一個可呼叫、可整合的參數,它能嵌入的決策場景,金融市場、演算法交易、企業戰略,遠比當前看到的要多。UniPat為Echo定義了四個關鍵詞:General、Evaluable、Trainable,以及Profitable。而落地的效果,則需要期待API的正式上線。 (新智元)
Meta Ray-Ban智能眼鏡捨棄顯示器,最新推出兩款全新Ray-Ban AI眼鏡
目前Meta Ray-Ban使用者雖然能夠更換帶度數的鏡片,但是Meta公司認為現有的Meta Ray-Ban智能眼鏡還不夠滿足市場需求。據多個媒報導,Meta計畫推出兩款全新的AI智慧眼鏡,這兩款產品從設計階段起就專為需要「驗光鏡片」的使用者而設計。雖然報導指出這不是Meta Ray-Ban系列的「下一代」重大改款,但Meta公司計畫通過進入傳統眼鏡配鏡市場,旨在將AI眼鏡的影響力擴展到全球數以億計的近視及視力矯正人群中。01. 推出兩款AI近視眼鏡當前市場上銷售的Meta Ray-Ban AI眼鏡,雖然支援通過第三方或官方網站定製帶度數的鏡片,但其主要使用者群體仍以“電子產品消費者”為主。即將推出的兩款新型號,應該是為了“人群擴張”,這兩款在市場和設計策略上存在顯著差異:獨特的外觀設計:新款眼鏡將提供方形和圓形兩種經典鏡框樣式,以滿足日常佩戴的美觀和光學鏡片的需求。進軍傳統光學管道:這是Meta與Ray-Ban首次針對特定消費者群體推出AI眼鏡,預計將通過“傳統處方眼鏡管道”進行銷售。這意味著消費者未來可以在普通眼鏡店進行驗光時,直接購買一副具備AI功能的眼鏡。Meta此舉不僅僅是為了“打造更酷的AI眼鏡”,而是開始進軍“傳統眼鏡市場”了。02. 最新AI眼鏡只賣美國?產能又如何?據報導,社交媒體巨頭Meta在歐盟推出新款智能眼鏡的計畫面臨困難,主要原因包括供應不足和與電池及人工智慧(AI)相關的監管問題。自2019年起,Meta與全球最大的眼鏡製造商依視路陸遜梯卡(EssilorLuxottica)合作推出AI眼鏡。兩家公司於2021年首次推出雷朋(Ray-Ban)品牌的智能眼鏡,並在去年9月推出了新一代雷朋智能眼鏡,其中一片鏡片配備了小型螢幕。據知情人士透露,Meta原本希望在歐盟推出新款智能眼鏡,但目前未能獲得足夠的供貨。Meta在今年1月表示,因新款雷朋眼鏡庫存極為有限,公司已暫停在英國、法國、義大利和加拿大市場推出該產品的計畫,而是專注於美國市場。在今年1月初時,小智有寫過這篇文章《Meta官方揭秘:暫停AI眼鏡Meta Ray-Ban Display全球擴張計畫,國內AI眼鏡廠商“彎道超車”機會來了!》。這Meta新推出兩款AI眼鏡產能又如何?是否還是專注美國市場?值得期待!03. Meta最新兩款AI眼鏡無顯示器這兩款即將發佈的新產品,很可能就是之前在美國聯邦通訊委員會(FCC)檔案中被The Verge網站發現的代號為“RayBan Meta Scriber”及“RayBan Meta Blazer”的AI眼鏡。認證檔案顯示兩款裝置的型號為RW7001和RW7002,與目前銷售的產品(RW4002–RW4014)相比,存在顯著差距,這可能暗示這些新產品會採用全新平台或配備更高性能的晶片。量產即將開始:FCC檔案中將這些裝置稱作「量產機」,這意味著Meta已完成硬體開發,隨時準備上市,最快可能在下周正式公佈。無螢幕設計:從目前洩露的硬體規格來看,這兩款專為處方眼鏡設計的眼鏡,不太可能具備類似「Meta Ray-Ban Display」的視覺顯示功能。這兩款AI眼鏡將繼續專注於通過麥克風、揚聲器和內建鏡頭,提供基於語音和視覺識別的無縫AI助理體驗,從而換取更輕薄的鏡架和更長的電池續航時間。寫在最後:當AI眼鏡逐漸融入驗光流程,並取代傳統眼鏡時,它便不僅僅是一款“新型裝置”,而是成為了人類視覺系統的組成部分。你是否願意每天戴上這個AI眼鏡? (AI共生紀)
中國AI呼叫量正式反超美國!2.5倍差距引爆全球:一場由價格、場景、生態主導的東方逆襲
Token呼叫量,是衡量一個國家AI真實活躍度、產業滲透度、生態繁榮度的核心硬指標。就在剛剛,第三方權威平台OpenRouter公佈最新一周資料:中國AI模型周呼叫量7.36兆Token,美國僅2.95兆Token,中國整整是美國的2.5倍,且已連續三周實現反超。這不是偶然波動,不是短期衝量,而是中國AI在成本、場景、開源、算力基建四大維度全面碾壓的結果。矽谷壟斷AI的時代,正式結束了一、資料炸穿全網:中國AI呼叫量,是美國的2.5倍先看最硬核、無水分的第三方統計資料(OpenRouter 2026.3.16–3.22):- 中國總呼叫量:7.359 兆 Token- 美國總呼叫量:2.954 兆 Token- 倍數差距:中國 = 美國 × 2.5- 全球佔比:全球總呼叫20.4兆Token,中國獨佔36%,美國僅14.5%- 增長速度:中國環比暴漲56.9%,美國僅微增7.3%,差距還在持續拉大更顛覆認知的是全球頭部模型排名:全球呼叫量前五名裡,中國模型包攬前四,美國GPT-5.4僅排第五。1. MiniMax M2.5(中國):2.8兆2. 小米MiMo V2 Pro(中國):1.9兆3. GLM-5(中國):1.7兆4. DeepSeek-V3.2(中國):1.6兆5. GPT-5.4(美國):1.2兆還有一個最關鍵的細節:OpenRouter平台上美國開發者佔47%,中國開發者僅6%,這意味著:不是中國人自己刷量,是全球開發者用腳投票,瘋狂選擇中國AI。二、真相只有一個:美國AI貴到用不起,中國AI便宜到隨便用為什麼全球開發者集體倒向中國?答案直白又殘酷:價格差最高達到50倍。直接對比主流API定價(每百萬Token):- 中國DeepSeek-V3.2:0.28美元- 中國MiniMax M2.5:0.3美元- 美國GPT-5.4:15美元- 美國Claude Opus:5美元換算一下:同樣跑10億Token呼叫,- 中國模型成本:幾十美元- 美國模型成本:幾千到上萬美元對企業、智能體、開發者來說,這不是“貴一點”,是生死線差距。美國AI閉源高定價,直接把中小開發者、大規模場景擋在門外;中國AI走普惠路線,讓AI真正實現**“人人可用、處處可用、批次可用”**。三、場景爆發:中國AI扎進實體經濟,美國AI還停留在聊天呼叫量差距的本質,是場景落地差距。中國AI:千行百業全面滲透,Token消耗量爆炸- AI智能體爆發:OpenClaw等自動化智能體單節點日耗百萬Token,企業一部署就是成千上萬實例- 本土超級場景:政務問答、電商客服、短影片生成、工業質檢、教育批改、金融風控- 國民級入口:微信、釘釘、飛書、抖音內建AI,十億級使用者持續產生呼叫美國AI:高度集中在C端聊天,產業落地嚴重滯後- 場景高度集中在個人聊天、寫作輔助- 企業級、行業級解決方案推進緩慢- 缺乏超級APP入口,無法形成規模化持續呼叫一句話總結:美國AI還在“炫技術”,中國AI已經在“賺效率、改行業”。四、底層支撐:算力、架構、生態,中國全面換道超車1. 國產算力突圍,徹底擺脫卡脖子- 海光、寒武紀等國產晶片大規模商用- DeepSeek等模型實現純國產晶片訓練+推理- 成本相比輝達方案直接下降60%2. MoE架構成為主流,性價比碾壓大參數路線- 中國模型普遍採用MoE混合專家架構- 視訊記憶體佔用降低60%,吞吐量提升十幾倍- 用更小算力跑出更大規模服務3. 開源生態碾壓,矽谷80%初創都在用中國模型- 中國開源模型全球下載量、貢獻量全球第一- 美國初創公司沒錢用GPT,普遍拿中國開源模型做原型、做路演- 中國形成“開源+API”雙輪驅動,美國閉源自困,生態越走越窄五、格局徹底改寫:全球AI中心,正在從矽谷東移這組資料的歷史意義,遠超很多人想像:1. AI應用中心東移呼叫量 = 真實活躍度 = 產業價值。中國已經成為全球AI最大應用市場、最大開發市場、最大落地市場。2. Token定價權易主全球AI服務將逐步向中國低價普惠模式看齊,美國高定價模式加速崩盤。3. 技術路線分出勝負“低成本+大規模+強落地”的中國路線,正式戰勝“高參數+高價格+閉源壟斷”的美國路線。六、冷靜思考:領先是真的,短板也必須承認這篇文章不吹不黑,在反超資料面前,也要清醒看到差距:- 通用推理、複雜邏輯、超長上下文能力,中美仍有3–6個月代差- 基礎研究、底層框架、編譯器創新,中國仍需持續補課- 低品質Token佔比較高,未來要從“拼量”轉向“拼價值”但不可否認的是:中國AI已經完成從跟跑到並跑、再到規模化領跑的歷史性跨7.36兆 vs 2.95兆,2.5倍的呼叫量差距,不是一天衝出來的,是無數次模型迭代、算力攻堅、場景下沉、生態開放堆出來的結果。曾經,我們仰望矽谷AI;今天,全球開發者正在湧向中國AI。 (AI技術前景研究)
🎯歷史級崩盤訊號已亮紅燈?這種股票再不賣,財富將大縮水?!Line@連結:https://lin.ee/mua8YUP⭕油價突然飆升,市場現在最怕的不是戰爭,而是那個消失已久的幽靈~「滯脹」回來了。但高手都知道:真正該怕的不是下跌,而是抱錯股票。如果你現在還在看著綠色的虧損,想著要去「攤平」那些曾經的熱門股,江江直接告訴你:那是慢性自殺!很多曾經很紅的大型股,現在技術面其實已經很誠實:頭頭低、底底低。像2317鴻海、2382廣達、3231緯創基本面穩,但成長想像力不足,股價自然走不出大波段。甚至連獲利優等生6669緯穎也一樣,今年EPS很漂亮,但市場看的是未來三年,當成長曲線開始變平,聰明錢就先走了。所以現在最重要的四個字只有一句:「棄弱留強」。⭕那問題來了!拉回要買什麼?答案很簡單:AI真正的「基礎建設」。不是題材股,而是那種就算全球打仗也得繼續買的產品。我直接講三個正在共振的產業。🔎第一:CPO+磷化銦(InP)AI算力越大,傳輸就越塞車。800G→1.6T的時代,光通訊變唯一解方。【3081聯亞】磷化銦磊晶技術門檻極高,訂單看到2030年。未來兩年成長率市場預估50%起跳。【2455全新】同時掌握GaAs與InP技術,已打入美系大客戶供應鏈。毛利率可能衝破40%。🔎第二:低軌衛星(LEO)SpaceX準備IPO,市場估值1.75兆美元。這不是題材,這是下一個通訊革命。【3491昇達科】衛星高頻通訊零件核心供應商。【2313華通】衛星HDI板今年量產。【2367燿華】泰國新廠準備放量。【6285啟碁】Starlink地面接收站重要供應鏈,衛星需求一爆發,EPS可能直接上修。🔎第三:AI散熱+載板AI晶片越強,熱度越恐怖,散熱就是剛需。【3324雙鴻】液冷、水冷板訂單爆發。【3189景碩】ABF載板正在低檔整固,未來三年砸235億擴產,直攻AI伺服器。🔴下一檔AI主升股,會是誰?接下來我們會在粉絲團持續幫大家鎖定+追蹤,若還不知道該如何操作?那建議你務必要鎖定江江在Line @,將有更進一步的訊息給大家了解。https://lin.ee/mua8YUP🔴想了解還未起漲的市場主流,同步了解大盤多空轉折點及學習預測技術分析,江江YT節目都會持續追蹤+預告。https://reurl.cc/02drMk********************************************************有持股問題或想要飆股→請加入Line:https://lin.ee/mua8YUP江江的Youtube【點股成金】解盤:https://reurl.cc/02drMk*********************************************************(本公司所推薦分析之個別有價證券 無不當之財務利益關係以往之績效不保證未來獲利 投資人應獨立判斷 審慎評估並自負投資風險)
中國 AI 漲價,美國使用者先慌了
3 月中旬,阿里雲、百度智能雲先後放了一個消息:AI 產品要集體漲價了,算力、儲存、大模型推理服務,全都在漲價名單裡。業內人士普遍認為,這標誌著中國雲市場正式進入漲價周期。有趣的是,這消息一出,這邊中國使用者倒是挺淡定,先慌的居然是美國使用者。你沒看錯,這些習慣用中國 AI 的美國工程師們,真的有點手忙腳亂。為什麼?得先看看過去兩年中國 AI 的價格史。從 2023 下半年到 2025 年,中國大模型廠商幾乎在玩“史詩級打骨折”。對標 GPT‑4 的主力模型,單價下調 90% 以上,輸入價格被媒體調侃成“美國同行的一個零頭”。有的廠商還直接放出大量免費額度,把中小開發者和初創公司全拉進自家陣地。各種研究報告和評論指出,中國雲和 AI 服務長期處於高投入、低價格狀態,大模型價格戰背後是資本撐著、用規模換市場份額。行業裡調侃一句:“美國在卷算力,中國在卷算力單價。”也正是在這種背景下,“China’s AI is cheap”幾乎成了美國使用者的默認印象。其實,美國使用者慌的不只是“價格上升”本身,而是過去兩年養成的習慣被打亂了。根據彭博社記者盧茲·丁(Luz Ding)一年的跟蹤報導,中國 AI 企業甚至刻意選在美國開發者的作息時間發佈新模型。目的很明確:方便給太平洋彼岸的開發者留,同時暗示:“來試用我們的模型吧。”不僅是線上推送,很多廠商還跑到舊金山灣區,扎堆參加技術沙龍、駭客松,甚至舉辦“麻將之夜”,獎品就是搭載中國模型的雲服務免費額度。效果立竿見影,美國創業者和工程師們很直接:“只要能幫我把 AI 成本砍下來,誰的模型都願意試。”Airbnb 首席執行長布萊恩·切斯基(Brian Chesky),也是 OpenAI 創始人薩姆·奧特曼(Sam Altman)的朋友。他透露,Airbnb 非常依賴阿里巴巴的 Qwen 模型,因為中國 AI 性能好、速度快、成本低。相比之下,他評價 ChatGPT 時表示:“我認為它還不夠好。”美國風險投資公司 16z 的合夥人馬丁·卡薩多(Martin Casado)也觀察到,大多數美國 AI 創業者都在用中國模型。“我估計他們有 80% 的機率在使用中國開源模型。”投資人 Chamath Palihapitiya(Social Capital)同樣坦言,他選擇用中國 Moonshot AI 開發的開源模型 Kimi K2 處理公司大部分工作。因為性能遠超 OpenAI,而且價格便宜得多。甚至在開發者圈裡,全球主流 AI 原生程式碼編輯器 Cursor 的聯合創始人阿曼·桑格(Aman Sanger)也公開承認。他們的新程式碼模型 Composer 2,其實是基於中國企業“月之暗面”的開源模型 Kimi K2.5 二次開發的,月之暗面方面也確認了雙方的授權商業合作。不只是創業者,學術圈同樣熱衷中國模型。比如在波士頓大學的一場駭客馬拉松上,參會者對中國開源模型青睞有加。麻省理工學院講師安德魯·米德(Andrew Mead)在現場介紹最新中國開源模型。他營運的 AI 技術趨勢通訊《向量實驗室》(Vector Lab)一直關注中國大模型的崛起。米德觀察到,這些模型不僅價格低廉,性能在很多指標上甚至接近美國頂級專有模型。更有哈佛和史丹佛的科研團隊採用“混合策略”:先用 Claude 等美國模型搭建項目框架,再把性價比高的中國模型交給具體任務執行。那怕第一次跑失敗也沒關係,因為成本低,可以多次偵錯,總體成本仍比全程用美國模型划算。資料也佐證了這種趨勢。根據全球最大大模型 API 聚合平台 OpenRouter 的統計。中國模型使用量從 2024 年幾乎為零,到 2025 年 11 月已佔平台總流量超過 30%。在本周的大語言模型熱門榜單前十中,中國模型佔據七席,小米最近發佈的 MiMo‑V2‑Pro 更是位列首位。所以,當中國雲廠商宣佈漲價,台下美國開發者慌得很直接:便宜的成本方案沒了,議價籌碼也弱了,而且全球算力都在漲價。此外,AWS、Google雲都在調價,硬體、電力、冷卻成本都在漲,原本覺得“有中國模型能避開漲價”的安全區,而如今貌似也不存在了。而中國 AI 漲價的原因也很現實,AI 推理和大模型訓練背後是真金白銀的成本。GPU、ASIC、資料中心、電力、冷卻……這些開支壓得人喘不過氣。過去靠資本燒錢撐價格,遲早得回到可持續盈利。這波漲價,對行業其實也有好處。廠商有利潤,才能繼續迭代和研發;開發者也能明確成本邊界,不再抱著“幾塊錢就能跑千張圖片”的錯覺。從長遠來看,中美 AI 的競爭焦點也在悄悄變化。不再是比誰便宜,而是比誰的性能/成本比更高,誰能持續迭代不燒錢,誰能在多雲、多模型環境下靈活調度。 (科技狐)
跨國工業巨頭盯上中國機器人
近期,上百家來自全球跨國企業的CEO齊聚中國,參加中國發展高層論壇。第一財經記者瞭解到,不少全球高管利用此次訪華之際,參觀了中國先進製造企業,包括電動汽車、智能家電以及人形機器人廠商。芬蘭電梯巨頭通力集團總裁兼首席執行長菲利普·德龍(Philippe Delorme)此次走訪了中國多個城市的多家本土企業,他對中國企業的數位化生態建設感受頗深。德龍在近日舉辦的一場通力電梯入華30周年活動上對第一財經記者表示:“中國有三個領域的生態讓我們感興趣,數位化生態、電動汽車以及機器人生態。”他表示,通力電梯在中國的數位化方案將完全基於中國的生態系統,使用中國開發的技術。通力電梯正在中國加大對智能製造領域的投入。截至目前,該公司已經發運超過180萬台裝置。通力電梯最新在中國進行全球首發的新一代智慧電梯技術平台將算力提升了22倍,通過開放API融入各類數字生態,可借助人工智慧將維保服務從“被動維修”轉向“主動預防”。德龍表示,機器人生態也是通力未來重點的發展方向之一。“中國在機器人領域投入巨大,並且發展速度非常快。”德龍對第一財經記者說道,“我們看到了機器人在電梯行業中的廣闊應用潛力,特別是在安裝、服務和維保等關鍵環節,有機會顯著提升效率。”他還稱,中國機器人產業的發展為行業帶來新的能力和思路。通力電梯正在積極探索與中國機器人領域專家的合作,共創適用於電梯行業的專業化機器人解決方案,包括未來行業的智能化與標準化體系的建立。“這些機器人有望在中國生產,輸出全球市場。”德龍表示。中國的機器人已經從傳統的機械臂迅速迭代到人形機器人領域,這些機器人通過加入人工智慧功能,有望緩解未來勞動力的短缺。這些機器人預計將在未來幾年內逐步進入工業、醫療、家庭等多個領域。美國摩根士丹利2025年發佈的報告指出,預計2050年全球人形機器人市場規模將達5兆美元,超10億台機器人投入使用,主導國家是中國和美國。據中國工信部資料,截至2025年,中國國內佈局人形機器人研發與生產的企業已超140家,包括智元機器人、宇樹科技等頭部企業都吸引了跨國企業的目光。據悉,一些人形機器人廠商為獲取研發自主控制機器人和機械的AI所需的資料,正在建立大型工廠以收集資料。這也讓跨國工業巨頭看到了機遇。過去一周,西門子全球資料與AI負責人也走訪了中國的多家不同類型的公司,其中就包括人形機器人廠商。西門子中國董事長、總裁兼首席執行長肖松告訴第一財經記者,中國的創新潛力近幾年來開始加速釋放,具身智能等行業都走在世界前列。“這為西門子這樣的跨國公司帶來了重要機遇。”肖松說道。為此,西門子近日在中國舉辦的首屆科技大會上,與阿里雲宣佈了深度合作,將整合西門子模擬產品組合與阿里雲的算力及基礎設施,面向中國市場客戶,提供以基礎設施即服務(IaaS)模式交付的電腦輔助工程(CAE)能力。這些服務可能會讓宇樹科技等人形機器人公司感興趣。肖松對第一財經記者表示,具身智能作為一個新興的技術,整個行業的資料仍然是缺乏的。“對於西門子而言,我們的資料覆蓋的行業非常廣泛,這對於具身智能這類新興行業有很大的價值。”他說道,“我們也在與行業各方積極探討,探索如何在合規的情況下共享這些資料,要打破資料的壁壘還是有很大的難度。” (第一財經)