#閉源
開源和閉源模型的差距在拉大:這是 DeepSeek 論文揭示的殘酷真相
12月2日,DeepSeek 發佈了 V3.2 技術報告。在這篇論文裡,他們做了一件罕見的事:明確指出開源大模型與閉源模型的性能差距不是在縮小,而是在擴大。這是基於大量實測資料的冷靜判斷。差距正在拉大,這是事實2024年,當 DeepSeek、Qwen、GLM 等開源模型接連發佈時,社區充滿樂觀情緒。"8個月時間差"的說法廣為流傳,許多人相信開源正在追上閉源。但進入2025年,情況發生了變化。DeepSeek 在論文引言部分直言不諱地寫道:“過去幾個月出現了明顯的分化。雖然開源社區持續進步,但閉源專有模型的性能提升速度顯著更快。結果是,兩者的差距非但沒有縮小,反而在擴大,閉源系統在複雜任務上展現出越來越強的優勢。”這個觀察有資料支撐。論文對比了 DeepSeek V3.2 與 GPT-5、Gemini 3.0 Pro 在多個基準測試上的表現。在 MMLU-Pro(多學科知識測試)中,DeepSeek V3.2 得分 85.0,GPT-5 是 87.5,而 Gemini 3.0 Pro 達到了 90.1。在 GPQA Diamond(研究生等級科學問題)測試中,三者的得分分別是 82.4、85.7 和 91.9。更明顯的差距體現在 HLE(Human Last Exam,極難的文字推理測試)中。DeepSeek V3.2 的得分是 25.1,GPT-5 是 26.3,而 Gemini 3.0 Pro 高達 37.7——這個差距已經不是"接近"能形容的了。值得注意的是,DeepSeek V3.2 已經是目前最強的開源模型,在大部分開源模型的對比中都處於領先位置。但即便如此,它與頂級閉源模型之間仍然存在明顯差距,尤其是在需要深度推理和複雜任務處理的場景中。差距為何在拉大?三個結構性問題論文通過系統分析,識別出限制開源模型在複雜任務上能力的三個關鍵缺陷。這些不是表面問題,而是深層次的結構性困境。第一個問題在於架構層面。開源模型普遍依賴傳統的 vanilla attention 機制,這種機制在處理長序列時效率極低。論文指出,這種架構上的依賴"嚴重限制了長序列的效率,對可擴展部署和有效的後訓練構成了實質性障礙"。當閉源模型已經在探索更高效的注意力機制時,開源模型還在用五年前的技術架構,這本身就是一個巨大的劣勢。第二個問題是資源投入的鴻溝,尤其體現在後訓練階段。後訓練是讓模型從"會說話"變成"會思考"的關鍵環節,需要通過強化學習讓模型學會推理、工具使用和遵循複雜指令。論文透露,DeepSeek V3.2 的後訓練計算預算超過了預訓練成本的 10%。要知道,預訓練本身就是天價投入,而大部分開源模型的後訓練預算可能連 1% 都不到。這種資源投入上的差距,直接導致了性能上的代際差異。第三個問題是 AI Agent 能力的滯後。在真實應用場景中,開源模型的泛化能力和指令理解能力明顯落後。論文引用了三個關鍵的 Agent 測評基準:在 MCP-Mark 中,DeepSeek V3.2 得分 45.9,Gemini 3.0 Pro 是 51.0;在 MCP-Universe 中,前者是 80.3,後者是 87.9;在 Tool-Decathlon 中,差距更加明顯。這些數字背後反映的是開源模型在複雜多輪互動、工具呼叫、長期規劃等場景下的能力不足。論文總結道:"開源模型在泛化能力和指令跟隨能力方面展現出明顯滯後,這阻礙了它們在實際部署中的有效性。"這是一個誠實且殘酷的判斷。DeepSeek 的應對:技術路線的根本性改變認識到問題後,DeepSeek 沒有選擇簡單地堆砌參數或增加資料量,而是在三個核心維度上進行了根本性的技術創新。在架構層面,DeepSeek 引入了 DSA(DeepSeek Sparse Attention)機制。傳統注意力機制的計算複雜度是 O(L²),序列長度翻倍,計算量就要翻四倍。DSA 通過"閃電索引器"(Lightning Indexer)快速計算每個 token 的重要性評分,然後只選擇 top-k 個最重要的 token 參與注意力計算(論文中 k=2048),將複雜度從 O(L²) 降至 O(L×k)。這個改進不僅僅是理論上的最佳化。論文通過實測資料表明,在 128K 上下文長度下,DSA 大幅降低了推理成本,而性能幾乎沒有損失。更令人意外的是,在 AA-LCR(長文字推理基準)和 Fiction.liveBench(小說理解測試)中,V3.2 的表現甚至優於使用傳統注意力機制的 V3.1。這證明 DSA 不僅更快,在某些場景下質量還更好。在資源投入層面,DeepSeek 做出了超常規的決定。論文明確寫道:"近幾個月來,性能提升與擴展的 RL 訓練預算持續相關,該預算已超過預訓練成本的 10%。"這個數字在開源界極為罕見。具體來說,DeepSeek 為數學、程式設計、推理、Agent 等六大領域分別訓練了專家模型,每個都單獨進行大規模強化學習訓練。在持續預訓練階段,模型經歷了 943.7B tokens 的訓練(在 128K 上下文長度下),然後採用 GRPO(Group Relative Policy Optimization)演算法進行混合訓練,整合推理、Agent 和人類對齊三類任務。在 Agent 能力強化方面,DeepSeek 開發了系統化的任務合成流程。他們合成了超過 1800 個多樣化環境和 85,000 條複雜提示,涵蓋各種真實場景。具體包括 24,667 個程式碼 Agent 任務、50,275 個搜尋 Agent 任務、4,417 個通用 Agent 任務和 5,908 個程式碼直譯器任務。這些合成資料不是隨機生成的,而是通過冷啟動階段學習推理與工具使用的統一模式,然後在規模化階段系統地生成高品質訓練場景。效果是顯著的。在 Agent 相關的測試中,DeepSeek V3.2 顯著縮小了與閉源模型的差距,在 MCP-Universe 上達到了 80.3% 的成功率,雖然仍低於 Gemini 的 87.9%,但已經是開源模型中的最佳表現。論文總結說:“DeepSeek V3.2 成為 Agent 場景中極具成本效益的選擇,顯著縮小了開源與前沿閉源模型之間的性能差距。”論文最後寫了一句耐人尋味的話:"如果 Gemini 3.0 證明了持續擴展預訓練的潛力,DeepSeek V3.2-Speciale 則證明了在大規模上下文環境中強化學習的可擴展性。"言下之意很明顯:閉源巨頭有資源堆預訓練,但開源可以找到自己的路——通過更高效的架構和更科學的後訓練,用更少的資源實現接近的效果。這或許是開源 AI 唯一的生存之道:不是硬碰硬拚資源,而是拼技術路線的創新。至少在這一次,DeepSeek 證明了這條路是走得通的。 (矽星人Pro)
Meta AI大洗牌!超級智能一拆四,小扎押注矽谷華人,LeCun或已出局
【新智元導讀】Meta在半年內第四次重組AI部門,將超級智能實驗室拆分為四個團隊,全面押注「超級智能」。新成立的TBD Lab由Alexandr Wang領銜,或放棄Llama 4並轉向閉源模型,Meta開源旗幟動搖。Meta內部人心浮動,幾家歡喜幾家愁。祖克柏,這次是鐵了心了,他要All in AI,不留一點後路。8月20號,Meta又扔下一顆炸彈!超級智能團隊,再一次大重組,短短6個月這已經是第四次重組AI團隊了。剛成立的超級智能實驗室將一分為四;開源旗幟、模範、先鋒的Meta的下個模型恐怕要「閉源」了;Meta首席AI科學家,圖靈獎得主Yann LeCun再次隱身,隻字未提;由於Alexandr Wang的原因,Meta內部員工關係非常緊張。不過據內部消息說,這可能是短時間內最後一次折騰,畢其功於一役,Meta的AI復仇之戰終於要塵埃落定了。這次的動靜,可不是一般的大,堪稱巨輪掉頭,航母轉舵。就像整個巨型工程,都要推倒重來。外媒報導,據兩位知情人士透露,Meta本周二內部宣佈,超級智能實驗室拆分為四個部門:TBD Lab(To Be Determined,待確定,負責探索/先導研究)FAIR(Fundamental AI Research,長期前沿研究)產品和應用團隊(含Meta AI助手等)基礎設施(訓練與推理的算力、資料與平台)大洗牌!AI部門一分為四TBD Lab負責研發新版旗艦大語言模型Llama,由首席AI官Alexandr Wang領導。新團隊已討論將Meta的下一代AI模型改為閉源模式,這將和Meta長期以來「開源」理唸完全背離。甚至,新團隊已決定放棄Meta此前的Llama 4巨獸Behemoth,並從頭開始研發新模型。根據外媒The Information報導,TBD Labs其他負責人包括:Jack Rae(前Google)將負責預訓練。Ruoming Pang(曾在蘋果領導模型開發)將負責TBD Lab的基礎設施,與更廣義的基礎設施團隊不同。Jiahui Yu(前OpenAI)將負責多模態研究,使模型能夠理解和生成除文字之外的內容。後訓練團隊的領導者包括Hongyu Ren(前OpenAI)和Pei Sun(前Google)產品方向由前GitHub CEO Nat Friedman和前Safe Superintelligence聯合創始人Daniel Gross負責。值得一提的是,Daniel Gross就是Ilya的SSI原CEO,因為祖克柏挖了此人,萬年不發言的Ilya都「被迫」在X上發表了自己的意見。神秘的Ilya和他的SSI還是沒有新消息Robert Fergus(FAIR聯合創始人)將繼續領導研究實驗室,他剛從GoogleDeepMind重新回來Meta。再次!值得一提的是,在所有聲明中,Yann LeCun作為此前Meta整個公司的首席AI科學家身份,隻字未提,完全隱身。「老楊」最新的資訊也沒有引用任何相關新聞,看來過去的圖靈獎得主,首席AI科學家真的要被「架空」了。現在的Meta AI可能是「小王」和「小扎」說了算嘍!和此次重組一起調整的還有Meta在財務和基建層面的「加碼」。Meta選擇PIMCO與Blue Owl牽頭一筆約290億美元的資料中心融資(債務+股權),用於路易斯安那州等地的大型AI基礎設施擴張。這筆投資對應了此次重組的最後一個基礎設施部門,該部分由Aparna Ramani負責。這筆融資與Meta披露的全年資本開支指引上調至660–720億美元相呼應,明確了Meta「算力先行」的資本佈局。這次重組,也許意味著Meta從「研究範式」到「工程落地」的轉移。今年6月,Meta以143億美元入股ScaleAI、取得49%股權,並「挖來」其28歲CEO Alexandr Wang出任公司首席AI官(CAIO)。與以往由研究大牛主導的AI敘事不同,比如Yann LeCun很重視的FAIR基礎研究。這次祖克柏更像押注一位「系統工程+商業統籌」型的總指揮:快速整合資料、標註、訓練、評測、推理與產品化的全鏈條,強化「端到端交付能力」。趕緊發佈新的、可用的模型才是Meta的當務之急。Meta過去幾年以Llama為核心樹立了「開源」旗幟。但從今年7–8月的多方報導看,「是否繼續以Llama為主線、是否轉向閉源/第三方模型」,在公司內部已被擺上桌面。外媒稱,Meta正「積極探索使用第三方模型」,不再只依賴自研模型。同時,「是否放棄內部代號為Behemoth的Llama 4路線、轉而打造閉源新模型」也在討論之列(尚無最終決定)。Meta的「開源」招牌正在動搖,閉源路線能帶來更強的商用控制與貨幣化空間——前提是新模型的性能與可靠性足夠「卡位」。但這很難,GPT-5、Cladue 4、Grok 4,甚至國內的開源模型,目前來看都遠遠領先Llama。幾家歡喜幾家愁重組前後,人才流出與高位補強同步發生。7月,Meta任命了Shengjia Zhao為超級智能實驗室的首席AI科學家,他曾是OpenAI的研究員,也是ChatGPT、GPT-4的核心功臣。幾乎就是和LeCun平起平坐,LeCun也從整個公司的首席AI科學家,漸漸被降低到超級智能實驗分拆的四個部分之一的首席AI科學家。Joelle Pineau(前Meta VP of AI Research,FAIR負責人之一)已於5月離任,並在8月加入Cohere出任首席AI官。Loredana Crisan(曾任Messenger負責人、後轉入生成式AI)將離開Meta加盟Figma任首席設計官。上文提到Meta打算引入第三方模型,這出乎所有人意料。Llama已經遠遠落後現在的頂級模型已成事實,但是每個科技巨頭的底層模型都是自己研發的。第三方模型接入(若成行)或許能加快產品側的節奏,降低Llama單一模型過去多次「滑鐵盧」風險。但長期來看,Meta依然需要自己的模型。此次超級智能一分為四,其中延續十多年的FAIR部分得到保留。這或許意味著Meta並沒有完全放棄基礎研究。員工關係更加緊張當Meta斥資數十億引進頂尖AI人才時,公司內部的老將們對這些「空降兵」卻感到水土不服。今年7月,Meta任命OpenAI研究員ShengjiaZhao為超級智能實驗的首席AI科學家。據一位知情人士描述,最近幾周,Zhao的辦公室門前,Meta的老AI研究員和員工們排起了長隊,等著接受他的「面試盤問」:Zhao對他們過去的工作刨根問底。當然,也有一些元老選擇堅守。2014年共同創立Meta FAIR研究部門的Rob Fergus將繼續執掌公司的基礎AI研究實驗室。而曾負責生成式AI產品的AhmadAl-Dahle和AmirFrenkel,現在則直接向Alexandr Wang匯報,專注於戰略性的AI項目。這場由祖克柏親自導演的AI變革,正以一種近乎殘酷的方式,重塑著Meta的未來。究竟是鳳凰涅槃,還是引火燒身?時間會給出答案。最後附上祖克柏最近從各個地方挖到的核心人員名單和大概加入時間。值得一提的是,其中有半數都是華人。 (新智元)
李開復:中美大模型競爭關鍵在於開源與閉源之爭
近日,2025格隆匯·中期策略峰會在深圳南山香格里拉酒店舉行。零一萬物CEO、創新工場董事長李開復博士帶來了《生成式AI:從ChatBot到Agent 的躍進與機會》的主題演講。李開復在演講中指出,未來5到10年最重要的技術領域就是生成式AI驅動的AI 2.0,如不能及時接納AI未來會被淘汰。相比於PC時代、移動網際網路時代,AI 2.0時代全球GDP會迎來更大幅度的增長。中美之爭不是OpenAI和DeepSeek誰強,而是開源與閉源之爭。輝達依然是一個比較穩妥的投資標的,但需尋找合適的買入時機。美國科技巨頭股票“七選一”,可能會選擇微軟。01. 預訓練Scaling Law失效推理Scaling Law成為模型智能增長新範式生成式AI驅動的AI 2.0是有史以來最偉大的技術革命和平台革命,未來5到10年,AI 2.0將快速走出實驗室,賦能千行百業,創造巨大的經濟價值。過去兩年大模型賽道的一個重要趨勢是,大模型的智能在以每年30個點的速度快速提升,同時,AI的推理成本也在以每年降低10倍的速度快速下降,應用層發展的成本擔憂也在逐步解決。這些重要的變化為AI-First應用的爆發,穿透千行百業奠定了堅實的基礎。現階段,預訓練的Scaling Law基本已經結束了。其中一個原因在於,超大規模的GPU集群越來越不好管理。舉例來說,從一張GPU到10張GPU,可能會得到9.5倍算力提升;但是從1萬張GPU到10萬張GPU,算力可能只有2倍的提升。另一個原因則是可用於模型訓練的資料也存在瓶頸,缺乏高品質資料,GPU燒起來也是事倍功半的結果。新的機會在推理階段的Scaling Law。在推理階段Scaling Law的加持下,大模型的智力不但沒有停止成長,而且還會成長得更快。DeepSeek令人佩服的其中一點就在於,它破解並開源了慢思考推理模型,並且得到了媲美頂級閉源模型的優秀性能。02. 中國在開源模型路徑上開始趕超美國李開復在策略會中指出,美國的前沿技術研究是領先中國的,但是中國吸收消化技術快速迭代的能力很強,中國工程能力也處於世界第一梯隊,更可貴的是,中國的創業者很有拚勁,目前看,世界大模型競賽中只有中美兩國,沒有第三方。美國還有一個新的優勢,就是無論是企業(2B)還是消費者(2C),其付費能力都很強,這個中國還趕不上。然而,中國也有新的優勢,就是開源。中美之間的競爭關鍵並不是OpenAI與DeepSeek孰強孰弱,也不是Deepseek追不追得上OpenAI,而是開源與閉源的路線之爭。中國兩大模型都選擇了開源路線,而美國最好的模型仍在閉源。如果按照這種趨勢,美國可能會輸。開源是中國團隊做出的正確決定。阿里巴巴Qwen和DeepSeek的頂級開源模型讓中國優秀大模型能進一步普惠全球,未來一定會在全球大模型創新生態中帶來巨大的紅利。03. 輝達仍是一個比較穩妥的投資標的關於投資標的,李開復表示依然看好輝達。無論是模型預訓練領域、無人駕駛等等,這些領域都離不開輝達的晶片和技術支援,所以輝達的價值還是很大的。未來一段時間,輝達股價也許不會漲幾十倍,但仍有上升空間,是一個比較穩妥的投資。但是,輝達在未來可能會面臨各種利多和利空因素,例如,最新晶片是否能進入中國市場的潛在風險等,這可能會對公司的股價產生相當大的影響。投資者要綜合考慮,理性投資。在美國七巨頭中,李開復坦言自己更看好微軟。因為微軟敢於大膽投資和創新,有發展前景,同時對商業模式有著深刻的理解,能夠清楚地認識到如何實現盈利,這種兼具多種優勢的公司很少。微軟對於大模型的盈利模式就有著清晰的認知。但是微軟的體量很大,未來實現幾十或上百倍的增長可能性較低。儘管如此,如果美國七巨頭裡面只選一家投資,李開復可能會選擇微軟。(格隆匯APP)
Meta將推出閉源模型,並砸數千億美元打造超算叢集
Meta正在醞釀一場驚天大轉向。祖克柏剛剛宣佈要砸數千億美元建造超級計算叢集,但更勁爆的消息還在後面——這家一直高舉開源大旗的公司,正在考慮徹底拋棄開源路線。據知情人士透露,Meta新成立的超級智能實驗室(Meta Superintelligence Labs)上周進行了一場關鍵討論:是否要將公司最強大的AI模型Behemoth從開源轉為閉源。參與討論的包括28歲的首席AI官Alexandr Wang.沒錯,就是那個剛被Meta以143億美元收購了49%股份的Scale AI創始人。開源信仰動搖了要知道,開源可是Meta在AI領域的核心標籤。Meta的AI大佬Yann LeCun曾經信誓旦旦地說:「贏得平台之戰的,將是開放原始碼的那個。」就在今年,中國的DeepSeek 憑藉開放原始碼推出了先進的AI聊天機器人。但現在,情況變了。知情人士稱,Meta已經完成了Behemoth模型的訓練,但因為內部表現不佳而推遲了發佈。更糟糕的是,自從上個月宣佈成立超級智能實驗室後,負責Behemoth模型的團隊已經停止了新的測試。Bindu Reddy(@bindureddy) 評論道:新晉超級富豪團隊正在考慮讓Meta放棄開源 🥲他們本來就不在地圖上,放棄開源會讓他們失去僅有的粉絲 🤷‍♀️太令人失望了燒錢機器全面啟動與此同時,祖克柏正在瘋狂燒錢。他剛剛宣佈,Meta將建造多個吉瓦級(GW)資料中心,第一個名為「Prometheus」的超級計算叢集將在2026年上線。緊隨其後的是「Hyperion」,這個更猛的傢伙最終將擴展到5GW的規模。祖克柏在Facebook上寫道:「我們還在建造多個Titan叢集。僅其中一個就覆蓋了曼哈頓相當大一部分面積。」這是什麼概念?目前大多數資料中心只有幾百兆瓦的容量。1GW相當於一座中型核電站的發電量,可以容納數萬個最先進的GPU。SemiAnalysis報告稱,Meta有望成為第一個上線1GW+超級叢集的實驗室。💪內部大洗牌為了這個宏偉計畫,Meta正在進行徹底的重組。公司已經將整個AI部門更名為「Meta Superintelligence Labs」,由Alexandr Wang擔任首席AI官。在這個部門內,Wang領導著一個由大約十幾名新聘研究人員組成的精英團隊,其中包括他從Scale AI帶來的幾名副手,以及GitHub前CEO Nat Friedman。這個團隊的辦公空間與公司其他部門隔離,就在祖克柏旁邊。值得注意的是,Wang在與Meta約2000名AI員工的問答會上表示,他的小團隊工作將是保密的,但整個AI部門現在都將致力於創造超級智能。他沒有回答AI模型是否會開源或閉源的問題。千億美元豪賭Meta 2025年的資本支出已經達到640-720億美元,而且還在上升。祖克柏認為,廣告業務產生的現金流足以支撐這場豪賭。通過挖角頂尖人才,加上龐大的計算能力,Meta希望能在與OpenAI和Google的競爭中取得領先。如果Prometheus按計畫推出,Meta的網路延遲將下降,訓練周期將縮短,新的收入來源:Meta AI聊天、自動生成的視訊廣告、更智能的眼鏡,將更快到來。但投資者仍在疑惑:這數千億美元何時能回本?特別是在電價和晶片供應都不穩定的情況下。新的計算瓶頸Meta 的吉瓦級叢集建設也標誌著一個新的轉變:計算現在受限於電網線路,而不是矽片。設計如此大規模的電力和液冷系統意味著需要定製電網連接、現場變電站和新的廢熱回收技術,而不僅僅是機架和電纜。Trace Cohen(@Trace_Cohen):萬歲之王:祖克柏的160億美元AI權力遊戲創始人控制權 + Meta的現金引擎 = 競爭對手無法匹敵的膽識當AI計算從「增加伺服器」轉變為「建造小型發電廠」時,遊戲規則已經徹底改變了。當DeepSeek用Meta的開源模型震驚世界時,祖克柏或許意識到了一個殘酷的真相:開放原始碼的榮耀,可能成為別人的嫁衣。從開源到閉源,從理想主義到現實主義,這不僅是技術路線的轉變,更是一家公司在AI軍備競賽中的生存選擇。當計算能力需要以「曼哈頓面積」來衡量,當投入需要以「千億美元」來計算,當競爭對手都在建造自己的「死星」時,Meta還能堅持多久的開源情懷?或許,這就是AI時代的宿命:要麼成為規則的制定者,要麼成為歷史的註腳。而Meta,顯然不想成為後者。 (AGI Hunt)
Android沒有閉源,但Google越來越封閉了
這幾天,科技圈圍繞著Android“開源還是閉源”爭論不休。導火索是有媒體報導稱,Android作業系統的開發將閉門進行,即AOSP(Android Open Source Project,Android開放原始碼專案)今後將在Google內部運作,程式碼開發的過程不再公開,但是開發好新的Android版本還是會把原始碼發佈到AOSP。於是,這則消息被解讀為“Google終止開源Android”“Google將Android閉源”,這影響面可太大了。要知道,Google不僅佔據手機作業系統74%的市場,還廣泛應用於平板、電視、手錶、汽車、冰箱、音箱等等,幾乎制霸了你使用的各類智能終端裝置。所以如果Android閉源,生態之巨變可想而知。那麼,是開還是閉?先說兩點結論,首先,目前Android並沒有閉源,原始碼會繼續公佈,但是同時,Android開放原始碼的程度在收縮,“開源度”在下降。Google所謂的開源生態正變得越來越封閉,一位資深軟體技術專家向21世紀經濟報導記者指出,Android不閉源,但又向“假開源真壟斷”跨了一步。“不閉源”背後的改變現在看起來,Google好像是要關閉Android開放原始碼專案,但是為什麼Google說這並不意味著閉源?因為Google還是會公佈Android作業系統的原始碼,今年若發佈Android 16,它的原始碼會同步公開。Google在給合作夥伴的溝通訊中也寫道:“目前正在進行內部工作流程變更,以簡化Android的開發模式,但我們仍然致力於繼續為所有後續版本將所有相關平台項目的完整原始碼發佈到AOSP。”所以更準確的說法是,“目前看,只是Android程式碼的開發過程不公開了,但程式碼還是像之前一樣開源,大家都可以用,”前述軟體專家說道,“同時,由於很多元件都是GPL協議(GNU General Public License,通用公共許可證,是一種copyleft的開源許可證,要求任何衍生部分都保持開源狀態),所以Google是一定要開放原始碼的。”在他看來,Google也沒必要閉源,“閉源就沒人用了,Google賺的是GMS(Google移動服務)的錢,用的人越多賺錢越多。”既然繼續開放原始碼,為何引發“閉源”的廣泛討論?到底帶來了什麼變化?我們從Android和AOSP說起。Android作業系統的統稱下,其實有兩個Android,專業術語是有兩個Android分支(branch):一個是對外部公開的AOSP分支,任何人都可以訪問;另一個是Google內部開發的Android分支,需要簽約Google移動服務GMS許可協議才可以使用。其中,AOSP的全稱是“Android Open Source Project”,中文翻譯為“Android開放原始碼專案”。簡單來說,AOSP是Google主導的一個開放原始碼專案,它提供了Android作業系統的核心程式碼和基礎架構。由於AOSP是基於Apache 2.0開源許可證發佈的,根據Apache 2.0,所有程式碼都是公開的,任何人都可以下載、查看、修改,不過對於開發者加入AOSP的程式碼,最終需要由Google稽核決定。但這就像一座“毛坯房”,任何人都能基於這座房子進行裝修,建造出適合自己需求的版本,而無需支付許可費用。因此AOSP被廣泛使用,現在手機廠商都已經基於AOSP開發出定製版本,比如三星的One UI、榮耀的MagicOS、小米的澎湃OS、OPPO的ColorOS、vivo的OriginOS等。而Google內部開發的分支,就像“精裝房”,擁有更完整更核心的Android功能。Android系的手機廠商們都會和Google簽約,海外市場也必須要GMS服務支援各類應用APP。而Google就要維護以上兩個Android,此次動刀的就是公開的AOSP分支,要把它轉向內部閉門開發,只有當Google發佈新版本時,才會發佈更改的原始碼。也就是說,大家不能即時看到AOSP的程式碼變化、也不能即時參與開發。這對於手機廠商來說影響不大,他們能夠使用內部的完整滿血版Android,普通消費者也不會感知到變化,但是對於很多中小開發者而言增加了門檻。前述軟體專家對21世紀經濟報導記者分析道:“現在封閉開發,對於之前參與Android開發者有影響,比如開發者想往AndroidAOSP加入額外的功能,只能等它發佈版本後再自己加。之前幾乎每天、每周都能看到新加的功能程式碼,這樣自己開發迭代快一些。現在是發佈時間變長了,開發者適配起來難度變高,甚至一個功能Android自己做了都不知道,只有等版本發佈了才知道。”開放原始碼專案原本是全球程式設計師一起群策群力,現在Google作為Android最核心貢獻者,決定不“直播”開發過程了,而是在內部開發結束後再公佈原始碼。AOSP官網顯示:“自2025年3月27日起,我們建議使用android-latest-release代替aosp-main來建構和貢獻AOSP。”通過“android-latest-release”,開發者能夠獲取到最新版本的程式碼,但是業內人士不能通過AOSP觀測跟進Android最新的動向了。所以,雖然Android並沒有閉源,但未來基本都由Google自己主導開發,“開源”之門半關,“壟斷”之意更甚。Google的選擇和秩序演變為何Google要選擇這麼做?根據報導,為了平衡AOSP的開放性與其產品開發策略,雖然一些作業系統元件(例如Android的藍牙堆疊)是在AOSP分支中公開開發的,但大多陣列件(包括核心Android作業系統框架)都是在Google的內部分支中私下開發的。Google表示,將很快把所有Android作業系統開發轉移到其內部分支,此舉旨在簡化其開發流程。翻譯一下,是Google想要改變開發流程,降低維護成本。因為Google要維護兩個Android分支,但是兩者之間的程式碼版本具有較大差異性,對外的AOPS版本顯然更簡單,Google內部分支開發了大部分功能,其版本更齊全先進。所以,當兩者需要合併的時候就容易出現程式碼衝突,Google就需要花很多精力把兩邊的程式碼補丁合併到一起。第三方開發者持續貢獻程式碼,Google需要不斷篩選融合、解決更多沖突,導致維護成本越來越高。因此,從商業決策上,閉門研發Android作業系統,對Google而言或是合理的解決方案。除了減少成本,還能帶動收益,一些開發者可能會為了獲得最新進展轉向簽約GMS協議,這也會增加Google的收入。最初Android的開源策略,當然是為了佔據市場份額,如今已經達到全球7成以上的比例。現在即使更封閉一些,短期內對Android也造不成傷害,也不影響其份額。GoogleAndroid的一舉一動固然引起很大聲勢,因為非常多的全球使用者都在使用,大家都會關注到,但是目前看影響有限。也有人擔心,Google封閉開發後,開源行業就進入黯淡?那倒未必。長期來看,正如iOS的閉源帶給GoogleAndroid機會,GoogleAndroid的封閉趨勢,也將給全球作業系統生態帶來新的機遇。我們能看到開源多遠的過去,就能知道多久的將來。回顧Android的發家史,Android崛起的過程中也有很多公司做作業系統,但是Google都一一PK走競爭對手。塞班、Windows Phone、BlackBerry OS都已經退出歷史舞台;曾經Mozilla基金會在2010年推出過Firefox OS,同樣基於Linux核心,欲和Android OS直接競爭,但是被Google碾壓了,在2016年被正式棄用;2012年百度雲OS推出,但是2015年暫停更新;2013年前後,阿里也曾發起作業系統YunOS,向Android挑戰,但是並沒有成功,Google直接以專利和合作發難;三星推出的Tizen也希望和Android、iOS競爭,但是也鎩羽而歸。如果說開源是一片海洋,那Google堪稱“海賊王”,一路逐步變強。現在,大家可以在開放原始碼的海上世界遨遊,但是海權掌握在Google手中。開放原始碼的精神也有很多種,包括低成本的學習、社區的繁榮、培養優秀開發者等,Android同時頗為強勢,市場支配地位很明確。一位軟體工程師甚至向記者比喻道,Google的Android開源史,也是一部“開源霸權”歷史。通過開放原始碼快速佔領市場,再通過GMS服務實現商業閉環,當市佔率到頂後,收緊控制權是壟斷紅利的自然延伸。誠然,Android代表的是一種秩序,但是新的秩序、新的開源精神正在建構中。尤其是面向AI和萬物互聯的時代,科技巨頭們正在創新作業系統。華為發起的鴻蒙作業系統是新興的力量,騰訊、阿里等也有面向物聯網的作業系統,頭部科技廠商都有能力開發一款作業系統,只是生態體系建設還需要時間。但是大家指向的發展趨勢是相似的,跨終端互動、跨系統互通、一個軟體多端可裝的需求在不斷上升。在移動時代Android制霸,但是在下一個時代格局未定,加上中國是軟體應用大國,現在AI又帶來新的變數,大模型將為終端生態注入新的變革。中國廠商憑藉終端生態優勢,或能重構作業系統競爭格局。此外,開源和閉源像是兩股交錯的洋流,此起彼伏。移動時代閉源拿走了大部分利潤,AI時代開源力量正在迅猛崛起,每個時代都有著不同的際遇。當Google的“開源戰艦”收起風帆時,新時代的航海家們,正借助東風,駛向更開放的海域。 (21世紀經濟報導)