#中國開源
矽谷今夜學中文! Cursor被曝「套殼」中國製造,AI頂級人才全是華人
矽谷AI圈最近魔幻事件,不會中文進不了AI核心小組。開完會,全說漢語,老外懵了!連模型在思考時,也在說中文~如果你有在關注最近矽谷的AI圈子,你會發現最近出現一個神奇的現象。當中國都在學英文看文獻的時候,國外的AI圈都說中文了!簡直是倒反天罡。以Meta為例,如果你不會中文,都混不進核心團隊。正式開會說英文,散會後大家集體用中文嘮嗑。現在換老外懵圈了!前幾周OpenAI一個會議,一進門,三百人的會場整個左小半邊都是華人。更有趣的是,當華人成為AI頂尖人才的認證標籤後,連中國的開源模式也被老外偷師。海外模型「偷師」傳說Cursor最近剛發布2.0版本,並推出了他們的第一個自研模型Composer。但很快打臉就來了,網友發現Composer動不動就給他「說中文」。在包裹的思考過程中,Cursor這個所謂的自研模型說的都是中文。這讓老外再一次懵B。最有趣的是Windsurf,直接承認自己拿著GLM-4.6的定製版本進行微調和強化學習。除了「頂級AI人才說中文」和「模型用中國開源大模型微調」這兩個主動選擇,現在連一些大佬都開始放棄OpenAI和Anthropic而被動選擇中國的開源模型。為什麼?因為模型量大管飽,性能還好,還便宜。最近一個消息真的讓我們感覺老外現在不僅不迷信OpenAI等閉源模型,而且紛紛開始選擇中國的模型了。例如Chamath Palihapitiya表示,他的團隊將大量工作負載遷移到了Kimi K2,因為它的效能顯著更好,而且比OpenAI和Anthropic 都便宜得多。這哥們是美國知名的企業家和投資人,他的聲明還是能夠說明一個問題:中國開源大模型,是真的香!不過評論區還是有些冷靜的聲音,說這哥們早期投資了Groq(不是馬斯克那個Grok)。而這次他們團隊從Bedrock(據說是前20大客戶)遷移到Groq上的Kimi K2,因為模型的效能更優!但背後其實可能為了宣傳Groq的服務。這次Cursor為什麼在思考過程頻繁「說中文」,網友們也總結出兩個主要原因:1. 自研難度與成本過高。以Cursor的資源體積,從零預訓練一套強模型的可能性很小,更像是在開源的SOTA智能體模型上做二次訓練;因此出現「說中文」的情況並不奇怪,這更像是底座與訓練資料選擇的結果。2. Composer的滯後與避戰。Composer大機率是用「幾個月前」的開源SOTA做微調,但大模型迭代極快:等推向市場時底層已落後。於是既不願與當下最新的開源SOTA正面對比,又對底層細節諱莫如深;即便融資可觀,仍難擺脫「更多是個殼子」的質疑。總之還是一句話,中國的開源模型,真香。從國外數據網站的統計數據就能看出來。在能力這塊,中國開源穩居第一梯隊在Artificial Analysis Intelligence指數榜單上,除了排在前幾名是閉源的OpenAI的GPT-5、Google的Gemini 2.5、xAI的Grok、Anthropic的Claude 4.5以外,緊隨其後的都是開源模型。而且,大部分都是中國模型:MiniMax-M2、DeepSeek-V3.1、Qwen3-235B-A22B、GLM-4.6、Kimi K2。而開源老祖Meta的Llama,以及相關的微調版本,都得排到他們後邊。而在Coding指數榜單上,依然如此,DeepSeek V3.1要比Google的Gemini 2.5 Pro還要好。智能體榜單上,Kimi、GLM和Qwen也排到了前面。如果按照開源和閉源劃分,全球AI模型的能力中,開源真的很能打。不要忘了,這只是能力榜單,如果再考慮中國開源模型的價格,確實就真香了。在隨著時間,AI能力增長這件事上,雖然OpenAI一直遙遙領先,但MiniMax、DeepSeek、Qwen、GLM、Kimi追改的速度一點都沒有落下。這波AI浪潮,不僅改變了世界科技的走向,甚至對於人才標籤的認知也同樣被改寫。說起來,能把單一頂尖人才的薪水公開喊價到上億美金,也就是前段時間Meta的祖克柏首創的。矽谷頂級華人有那些?首先是Meta。在剛組成幾個月的超級智慧實驗室(Meta Superintelligence Labs)中,最初的44人團隊裡差不多有一半都是華人。其中,趙晟佳和後來加入的宋颺,分別擔任首席科學家和研究負責人。MSL首席科學家,趙晟佳(Shengjia Zhao)。趙晟佳本科畢業於清華大學,史丹佛大學電腦科學博士學位。2022年6月畢業後就加入了OpenAI技術團隊。工作經驗僅有3年的他,履歷上已有了多項輝煌戰果。還在OpenAI時,他是多項里程碑突破背後的關鍵人物。引爆全球AI浪潮的ChatGPT的初始團隊成員GPT-4的核心貢獻者OpenAI首個AI推理模型o1的核心研究員,與OpenAI聯合創始人Ilya Sutskever一同被列為「奠基貢獻者」深度參與mini系列的構建,包括4.1和o3負責OpenAI合成資料團隊作為開啟AI「思考」能力的第一個推理模型,o1的成功,直接推動了整個產業在「思維鏈」技術上的發展熱潮。延伸閱讀:清華校友趙晟佳,出任Meta超級智慧首席科學家! GPT-4核心功臣MSL研究負責人,宋颮(Yang Song)。宋颮本科就讀於清華大學數理基礎科學班,博士畢業於史丹佛電腦科學專業,研究方向聚焦生成模型與多模態推理。在學術界,他以「擴散模型」研究聞名,是該領域的技術奠基者之一。他曾在Google大腦、Uber ATG、微軟研究院等機構實習,擁有豐富的工業與理論背景。2022年加入OpenAI後,他組成「策略探索」團隊,圍繞更大規模、更複雜數據、更高維模態進行方法論探索與系統落地。擴展閱讀:突發! Meta剛從OpenAI挖走了清華校友宋颮比起Meta,OpenAI團隊裡的華人其實更多。每逢重磅發布,從長長的貢獻者名單到直播現場,都少不了華人科學家的身影。不過,擔任高階主管職位的,就只有首席研究官陳信翰(Mark Chen)了。陳信翰的母親邱瀞德是台灣清華大學教授,現任資訊系統與應用研究所所長;父親陳建任曾任亞光電董事長。他高中時曾隨家人從美國回台。在新竹實驗中學的雙語部就讀時,他接連在數學競賽AMC10、AMC12和AIME中取得滿分,並憑此優異成績進入麻省理工學院(MIT)。在MIT獲得數學和電腦科學雙學位後,陳信翰進入一家自營交易公司從事量化投資工作,負責為股票和期貨開發機器學習演算法。在OpenAI的七年時間裡,陳信翰從研究科學家逐步晉升為首席研究官,負責模型開發和公司整體研究工作。在此期間,他領導了多項里程碑式的項目,包括o1系推理模型、文字到圖像模型DALL-E,以及融入視覺感知的GPT-4等等。值得一提的是,剛以突破性進展登上Nature封面的Google量子人工智慧團隊,他們的處理器總監Yu Chen也是華人。Yu Chen先後在中國科學技術大學取得物理學理學士學位,並在明尼蘇達大學取得凝聚態物理學博士學位。在加州大學聖塔芭芭拉分校做了4年博士後研究後,他於2014年加入Google,擔任量子研究科學家。除了這些AI頂尖人才,還有很多耳熟能詳的華人大佬。例如輝達的CEO 黃仁勳、AMD的CEO 蘇姿丰、英特爾的陳立武等等。開源「電廠」,好用又便宜除了人才和模型訓練,許多提供API的平台公司,也紛紛連結中國的開源模型。例如Vercel的老闆Guillermo Rauch就表示,鑑於GLM-4.6的出色表現,「在nextjs.org/evals中排名第三,並且是前五名中唯一的開源模型」。現在,他們不僅提供GLM-4.6的API服務,而且價格也是最低的。10月22日,Airbnb CEO Brian Chesky在訪談中表示,Airbnb的客服AI現在由13個模型組成。關鍵是,他公開承認Airbnb「在很大程度上依賴Qwen來支援AI客服。」甚至表示Qwen比OpenAI的產品更好更便宜。除了這些平台類公司無需開發基礎以外,像Cursor這種一直被喊套殼的公司,想要從零開始預訓練一個模型花費不菲,而且是針對Coding領域的特定模型,純粹預訓練得不償失,那該在怎麼辦?就像網友說的,最好的方法就是找一個開源模型去微調。那現在全世界開源領域最好的模型也就是中國耳熟能詳的那幾家了。而且不僅開源,而且開源選擇的協定都是最友善的。網友們還在Windsurf中直給提問,你是誰,誰開發了你?Windsurf的模型直接回答我就是「GLM」~如果說AI是新時代的電力,那麼以上這些跡象正在表明,我們正在從「世界工廠」轉變為AI的「世界電廠」。透過開源,我們正在搶佔全球AI時代的基礎設施定義權。當一個開源的中國模型能提供80%的效能,而成本只有20%時,選擇是顯而易見的。當這個模型能提供100%甚至110%的效能(如DeepSeek-V3.1在編碼上的表現),而成本依然低廉時,它就從「備選項」變成「最優解」。Cursor被網友抓包時的尷尬,恰恰揭露了矽谷開發者的一種矛盾心態:身體可能很誠實地擁抱中國模型,但在宣傳上仍試圖維持「矽谷原創」的政治正確。最後總結一下,「倒反天罡」的不僅是AI人才中華人的佔比,更重要的技術流向。當矽谷的工程師們為了優化成本和性能,不得不開始研究GLM和Qwen的文檔時,這場關於下一代AI技術浪潮的牌局,才算真正進入了最精彩的下半場。One More Thing不過我們也不能「高興」太早,在AI領域的人才上,華人現在一種標籤。但是,如果看看各大科技公司的CEO,你會發現,印度老哥們也不甘示弱。例如Google的CEO劈柴哥,Sundar Pichai。例如微軟的CEO,納德拉Satya Nadella。例如IBM的CEO,Arvind Krishna。例如Adobe的CEO,Shantanu Narayen。例如霍尼韋爾的CEO,Vimal Kapur。以上這些CEO們都是印度老哥,其中不乏AI科技領域的掌舵人,例如劈柴哥和納德拉。參考資料:https://x.com/FuSheng_0306/status/1983894938669433044https://x.com/auchenberg/status/1983901551048470974https://x.com/AI_Whisper_X/status/1983819229737652336https://x.com/artificialanlys/status/1983915999998230932 (新智元)
輝達與中國正實現雙贏
“中國的開源AI是推動全球進步的催化劑”,輝達CEO黃仁勳在中國鏈博會的開幕式上發表演講,稱讚了中國AI的發展。能重獲中國市場需求對輝達而言是業績提升的推動因素。一方面,中國也考慮在充分利用其產品的同時加快自主AI半導體的開發……首次參展“中國國際供應鏈促進博覽會”的輝達的展位(7月16日,北京市)美國半導體大企業輝達明確展現出重視中國市場的姿態。該公司首次參展了7月16日在北京舉行的中國國際供應鏈促進博覽會(鏈博會),最近還決定重啟專門面向中國設計開發的人工智慧(AI)用半導體晶片的供貨。中國力爭成為“AI強國”,但先進半導體的開發進展仍顯遲緩,在吸引輝達的同時也在加緊促進相關產業的振興。“中國的開源AI是推動全球進步的催化劑, 讓各國和各行業都有機會參與這一AI革命。”在7月16日於北京開幕的鏈博會的開幕式上,輝達首席執行官(CEO)黃仁勳以DeepSeek(深度求索)、阿里巴巴集團、騰訊控股等中國企業為例,稱讚了中國AI的發展。輝達CEO黃仁勳在中國鏈博會上發表演講(7月16日,北京市,Reuters)黃仁勳當天並未穿著標誌性的皮夾克,而是換上了中國傳統服裝登台發言,營造出友好的氛圍。關於此次博覽會,他在演講中特意用中文說道:“這充分體現了中國對創新的支援,並致力於共建繁榮未來”。輝達在會場內的展位展出了該公司銷售的個人用小型AI電腦等產品。還公開了中國企業使用該公司的晶片製造的機器人以及駕駛輔助系統的控制裝置等,並宣傳稱對中國的尖端技術提供了支撐。該博覽會在中國領導層的推動下於2023年首次舉辦。此次為第三屆,吸引了來自中國國內外的650多家企業和團體參展,比2024年舉辦的上屆博覽會增加了約30家。海外企業的參展比例達到了迄今最高的35%。尤其是來自美國的企業,參展數量比上屆鏈博會增加了15%,在各國中數量最多。除了在中國設有生產基地的蘋果和特斯拉之外,從事半導體業務的高通和美光科技等美國大企業往屆也一直參展。在美國企業中,此次首次參展的輝達在中國受到了非常高的關注和期待。中央電視台(CCTV)連日報導了黃仁勳訪華的消息。據報導,黃仁勳7月15日表示,中美應當彼此分享推動技術進步的想法,同時探討如何讓人工智慧更加安全。輝達受到關注的背景在於該公司對中國而言越來越重要。中國領導層2015年發佈的《中國製造2025》推動了半導體產業的發展。美國調研公司國際商業戰略(IBS)的資料顯示,根據中國市場上中國企業的供應額計算出的半導體自給率從2015年的10%擴大到了2024年的33%,預計2028年將超過50%。IBS的首席執行官漢德爾·瓊斯(Handel Jones)指出:“美國加強監管增強了中國半導體產業的韌性”。不過,中國為了實現AI強國所需的尖端半導體的自給仍然滯後。瓊斯提到,由於美國的監管“電路線寬在5奈米以下的尖端領域的(中國)活動減弱”。在AI用半導體方面,中國事實上仍依賴於全球市場份額領先的輝達的產品。對輝達而言,抓住中國市場的巨大需求也是一個挑戰。美國川普政府為了抑制中國的尖端技術開發,4月將該公司為中國設計的AI晶片“H20”納入出口管制。黃仁勳對美國政府進行了遊說,提醒稱如果該公司產品無法在中國市場使用,中國企業將加速AI半導體的自主開發。中國政府也通過對全球份額領先的稀土實施出口管制來對抗美國。最後,在中美6月舉行的關於貿易問題的部長級磋商中,兩國政府達成了互相放寬出口限制的共識。美方重新允許H20對中國出口,這是黃仁勳在北京接連發言稱讚中國AI的背景。輝達CEO黃仁勳接受媒體採訪(7月16日,北京市)7月16日在北京市內,黃仁勳還對媒體表示,希望把更先進的晶片引入中國。他透露,在此次訪問期間還與中國副總理何立峰進行了會面。如果輝達重啟對中國的供貨,將成為業績提升的推動因素。另一方面,中國將在充分利用該公司的產品的同時加快自主AI半導體的開發和供應鏈的建構。輝達與中國的雙贏關係將持續到何時仍存在不確定性。 (日經中文網)
超越DeepSeek,中國開源“集團軍”正重塑全球AI生態
導語:中國開源,正在形成集團化作戰的優勢。DeepSeek和阿里Qwen等基礎模型撐起了中國開放原始碼的上限,而更多的中小企業正在它們的基礎上,不斷推出體量更小卻能力更強的垂直模型,讓今年以來中國大模型更新的速度不斷加快,不斷帶來新的驚喜。而在美國仍以閉源為主的背景下,中國企業擁抱開放原始碼的做法充分展現了中國的技術自信,也開闢出一條技術普惠與全球共生的新路徑,持續開拓海外市場,代表著全球AI技術從“單極霸權”轉向“多極共生”。01. 中國開源,正形成合力2月初,當中國開源大模型DeepSeek在全球140個國家和地區的應用市場下載排行榜同時登頂,OpenAI卻公然在媒體上指責,DeepSeek未經許可使用了ChatGPT的蒸餾資料。這樣的指責非但沒能為OpenAI“挽尊”,卻招來全球科研從業者的“群嘲”。如今,又一個把蒸餾buff疊滿的選手出現了。4月13日,崑崙萬維推出Skywork-OR1(Open Reasoner 1)系列模型,同規模下性能超越阿里QwQ-32B,對齊DeepSeek-R1。資金實力並不雄厚的崑崙萬維,為什麼也可以做出SOTA等級的大模型?其實官方並不諱言,他們的模型是基於DeepSeek-R1-Distill-Qwen-7B和DeepSeek-R1-Distill-Qwen-32B這兩款模型訓練而來。而正如名字裡體現的那樣,DeepSeek的這兩款模型,又蒸餾了阿里的Qwen系列模型。在借力優秀開源模型的同時,崑崙萬維也在為開源社區做出自己的貢獻。相比於只開源模型權重的DeepSeek,崑崙萬維還開放了自己使用的資料集和訓練程式碼,更加接近於“真開源”的概念。這意味著,任何使用者都可以去嘗試復刻他們的模型訓練過程。崑崙萬維這份成果,充分展示了開源最重要的意義——不僅僅是讓給使用者提供一個免費可用的產品,更能夠讓更多開發者站在前人的肩膀上,快速、低成本地推動技術繼續前進。事實上,就在去年業界還在討論大模型預訓練遭遇瓶頸的背景下,今年以來,中國大模型的迭代速度卻仍在加快,並且越來越多的企業投入開源。阿里雲通義千問從除夕夜開源全新的視覺模型Qwen2.5-VL,再到3月初發佈並開源了全新推理模型QwQ-32B,在開源當日就登頂全球主流AI開源社區HuggingFace的趨勢榜。階躍星辰則在一個月左右時間開源三款多模態大模型,其最新開放原始碼的是圖生視訊模型Step-Video-TI2V,支援生成的視訊具備運動幅度可控和鏡頭運動可控兩大核心特點,同時自帶一定的特效生成能力。智譜則在4月宣佈開源32B/9B 系列GLM模型,涵蓋基座、推理、沉思模型,均遵循MIT許可協議。甚至一度閉源的百度,也宣佈將於6月30日完全開源文心大模型。相比於國內開源生態的日益繁榮,美國大模型公司至今仍以閉源為主,這也讓中國大模型的出海迎來難得機遇——DeepSeek讓印尼教育公司Ruangguru借此低成本最佳化了教學模型;新加坡 B2B旅遊技術公司Atlas將Qwen整合至智能客服系統,實現7×24小時多語言支援……02. 為何美國閉源,中國開源?美國AI傾向閉源而中國AI愈發開放,實際上是兩國AI發展環境的必然結果。美國的AI產業主要由科技大廠和VC(風險投資人)主導,由於資方對於AI有著巨大的資本回報預期。因此美國的AI模型企業普遍具有強烈的技術信仰,即追求技術領先後實現一定程度的市場壟斷後創造巨額利潤,其生態也天然的傾向於閉源。以OpenAI發展歷程為例,其在創立期間作為非盈利實體,此後卻不斷走向封閉——GPT-1時完全開源,GPT-2部分開源遭遇反對後才全面開源,GPT-3正式走向閉源,隨後GPT-4時閉源策略進一步強化,模型架構、訓練資料完全保密,甚至限制企業使用者的API呼叫頻率。儘管OpenAI表示閉源是基於合規和管控技術濫用的出發點,但市場普遍認為OpenAI轉向閉源的標誌性事件是其與微軟達成百億美元級合作,將GPT-3嵌入Azure雲服務,形成“技術-資本”閉環。在去年10月微軟首次在財報披露其對OpenAI投資時就表示:“我們對OpenAIGlobal,LLC進行了投資,總投資承諾為130億美元,投資按權益法核算。”所謂的權益法也可以理解為微軟對於OpenAI的投資的目的是獲得回報而不是單純的慈善科研,顯然OpenAI通過閉源生態賣高價API就是其目前最大的收入來源,也成了OpenAI不願開放原始碼的最大阻力。而從OpenAI“分家”成立的Anthropic,更是在一開始就堅定了閉源路線,其大模型產品Claude則全面採取了閉源模式。而即便是美國開源唯一扛把子的META旗下的Llama,開源時也加入了兩條防友商條款:1、開源模型在META批准前不能用於超過7億月活的產品和服務2、不能利用Llama模型的輸出內容來訓練和改進其他的大語言模型可以看到,即便是開源模型,Meta的核心目的依然是打造自己的AI生態而非技術普惠。美國在資本層面選擇了閉源為主,開源為輔的AI戰略,可以說是純商業考量。相比之下,中國自上而下的頂層設計從一開始就重視開源,體現了自主可控思維下的產業優先路徑。早在2017年,中國政府就發佈了《新一代人工智慧發展規劃》,明確提出要加快AI與經濟、社會深度融合的目標,部署構築AI發展的先發優勢。2021年,開源相關內容更是明確列入中國“十四五”規劃中,引發各地積極推動技術革新處理程序。中國科學院院士梅宏就曾表示,語言模型未來的發展必須依賴於開源平台,只有在一個開放的環境中,才能確保各行業使用者對資料上傳和業務整合的安全性與信任度。去年12月工信部等四部門發佈的《中小企業數位化賦能專項行動方案(2025—2027年)》中,明確支援開放原子開源基金會設立“中小企業AI開源專項”,提供可複製,易推廣的訓練框架、測試工具等資源,降低企業技術門檻。工信部等四部門發佈的《中小企業數位化賦能專項行動方案(2025—2027年)》一個更現實的問題是,由於美國的潛在技術封鎖,中國在AI領域並不能單純的做追隨者,而必須打造能夠獨立自主的國產生態,在美國已經建設了一套閉源為主的生態下,再建設一套閉源生態無異於閉門造車,唯有開源生態才能快速助力AI產業的發展。除了頂層支援外,各地對開源生態上也付出了真金白銀的支援。智譜聯合北京國資成立的專注於大模型生態投資的Z基金宣佈,出資3億元支援全球範圍內的AI開源社區發展,任何基於開源模型(不侷限於智譜開源模型)的創業項目均可申請。中美AI產業在開源與閉源策略上的分野,本質是發展邏輯的根本差異——美國受資本驅動,科技大廠與VC的盈利訴求催生了“技術壟斷-高價變現”的閉源生態,即便如Meta嘗試開源,也難逃商業壁壘的桎梏;中國則依託頂層設計,以“技術平權+產業協同”為核心理念,通過政策賦能建構開放生態,讓開源成為降低技術門檻、推動實體經濟融合的基礎設施。這種戰略選擇,既塑造了兩國AI產業的不同路徑,也預示著全球AI生態正從“壟斷競爭”向“開放共贏”加速演進。03. 夠用就是夠好中國的AI開源生態,不僅正在加速中國及全世界的AI產業化發展,還讓美國技術優先的信仰陷入了一個尷尬的陷阱。面對DeepSeek效應帶來的步步緊逼,4月5日,Meta發佈自稱有史以來最強多模態大模型Llama4。然而實測下來,這是一款讓人大跌眼鏡的模型,號稱10m tokens的上下文長度頻頻出錯、初代小球測試難以完成、9.11>9.9的比大小失誤……模型上線幾天內,高管離職、測試作弊等醜聞也被內部員工爆料證實。更多消息證明,Llama4可謂是祖克柏趕鴨子上架的產物。那麼問題來了,為什麼祖克柏一定要趕在4月上線呢?正如前文所述,美國AI產業界對於技術有一種迷之信仰,認為自己的產品必須最強、最先進,因此紛紛開啟軍備競賽。而訓練AI所需的邊際效應遞減,使得大廠們在消耗了天量成本後,技術門檻不僅沒有建成,反而陷入了算力瓶頸的泥沼。OpenAI剛發佈GPT-4o的圖像生成功能,幾天後Altman就發推說他們的GPU“快燒了”。Gemini2.5發佈不到一周,GoogleAIStudio負責人就說他們仍受“速率限制”困擾,開發者每分鐘只能發20個請求。似乎沒有一家公司能應對超大模型的推理需求。GPT-4o生成的吉卜力風格的AI圖片實際上,美國正在陷入誤區。智源研究院的負責人表示:“如果一個新模型用100倍成本跑出了10分基準測試分的提升,那麼這個新模型對於80%以上的應用場景就毫無意義,因為沒有任何性價比。”而中國大模型企業加速開源生態,看似不再去爭奪這個第一,反而憑藉著“夠用就好”贏得了更多的客戶,尤其是工業界客戶的認可。相比於政企客戶動不動千萬的預算,很多企業和機構既有迫切的AI需求,但是又沒有那麼多預算現成解決方案,利用開源模型自行開發幾乎成為了他們不二之選:寶鋼用冶金工程關鍵工序“大模型+小模型”進行生產裝置智能預警;中煤科工的“煤科衛士大模型ChinamjGPT”,使煤機裝備裝置故障停機時間、維修成本分別降低30%和20%;上海孟伯智能物聯網科技有限公司基於輕量大模型打造了邊剪檢測、連退爐工藝最佳化應用平台;彌費科技基於大模型技術實現了半導體晶圓廠自動物料搬運系統智能預測維護與管理。這些都是開源模型在工業場景落地的代表案例。而除了工業用途外,開源生態也能幫助更多的公益事業。山水自然保護中心致力於雪豹及高原生態系統的保護,布設的紅外相機每個季度會拍攝大量照片或視訊,靠人工識別雪豹蹤跡效率極低,耗費大量時間和人力。華為昇騰與山水自然保護中心合作進行雪豹蹤跡識別華為把三江源紅外影像物種識別的相關模型和工具開源,降低了參與AI開發的門檻,讓更多使用該模型的研究保護機構受益,可舉眾人之力在資料集、資料處理和資料清洗多方面最佳化模型。04. 開放原始碼的 “集市”效應開放原始碼軟體運動的旗手、美國人埃裡克·雷蒙德在1999年的《大教堂與集市》一書中提出一個比喻:傳統的、封閉的軟體開發模式如同建造一座大教堂,軟體由少數專家(建築師)在與世隔絕的環境中精心設計和建構,只有在最終完成後才發佈給使用者;而開放原始碼的開發模式。如同一個熙熙攘攘、看似混亂但充滿活力的集市,軟體開發是公開的、去中心化的、演進式的。書中認為,對於許多類型的軟體項目,尤其是複雜的系統級軟體(如作業系統核心),開放、協作、去中心化的“集市”開發模式,儘管看起來可能混亂,但實際上比傳統、封閉、集中式的“大教堂”模式更有效率、更能產生高品質、更健壯的軟體。 它通過“早發佈、常發佈”和利用大規模同行評審(“足夠多的眼睛”)等機制,能夠更快地發現和修復錯誤,並更好地吸納使用者反饋和社區貢獻,從而推動軟體的快速迭代和創新。Linux等開放原始碼專案的巨大成功,驗證了雷蒙德的觀點。開源運動曾經為美國和世界帶來遠超投入本身的巨大價值。哈佛大學2024年的一份研究報告表示:“開源投入41.5億美元,為企業創造了8.8兆美元價值(即每投入1美元,創造2000美元價值)。如果沒有開源,企業在軟體上的支出將是現在的3.5倍。”如今,中國公司學到了這一點。美國AI企業似乎卻忘了。事實上,對於中國的大模型企業們,即使不考慮社會效益,選擇擁抱開源生態對於企業本身也並非無利可圖。多家大模型企業均告訴觀察者網,開源並不是放棄商業化,開源依然有開放原始碼的盈利邏輯,比起開不開源,如何技術上更加服務好客戶才是關鍵的問題。以智譜AI為例,其宣稱為國內唯一全面對標OpenAI的企業,但相比於OpenAI的閉源戰略,其反而是行業內開源戰略最堅定的踐行者之一。智譜於2023年率先開源國內第一個Chat大模型ChatGLM-6B,成立近六年來,智譜已開源55餘款模型,在國際開源社區累計下載量近4000萬次。智譜告訴觀察者網,智譜希望自己的開源戰略為北京打造人工智慧“全球開源之都”貢獻自己的力量。而具體到商業層面,智譜則選擇了開源吸引開發者生態,向B端和G端提供付費的定製解決方案。而除了賣解決方案,賣API也是一個重要的盈利環節。以DeepSeek為例,開源模型的第一筆生意是高性能API的銷售。基礎服務雖免費,但企業可提供高性能API服務,按呼叫量收費。DeepSeek-R1的API定價為每百萬輸入Token1元,每百萬輸出tokens16元。免費token額度用完了或者基礎API滿足不了需求,使用者就傾向於使用付費版保持業務流程的穩定性。相比於只有模型服務的企業,阿里則選擇另一種開源變現模式——生態捆綁。阿里的Qwen系列作為開源急先鋒,通過全模態開源吸引開發者使用雲端運算等基礎設施,形成場景閉環。他們的模型在前期只是一個引子,明碼標價的商品實則是雲服務。中國開源大模型的全球化應用已從“技術跟隨”轉向“生態主導”。當美國陷入“閉源壟斷”與“開源失控”的兩難時,中國通過“協議創新+場景深耕”,正在重構全球AI開源生態的底層邏輯。這場博弈的終極戰場,不在參數規模的競賽,而在AI技術與實體經濟深度融合的兆級市場。 (科工力量)