#開源AI
OpenAI又開源了!僅0.4B,給模型大瘦身
99.9%權重清零,大模型內部思維變“透明”。智東西12月15日報導,昨天,OpenAI開源新模型Circuit-Sparsity,模型參數量僅0.4B,99.9%的權重為零。▲Circuit-Sparsity開源(來源:Hugging Face)這個技術試圖解決模型的可解釋性問題,簡單來說就是回答“模型為什麼做出這個決策?”以及“它是如何得出這個結果的?”這兩個問題。在AI飛速發展的今天,大語言模型(LLM)雖然表現出了驚人的能力,但其內部運作機制始終像一個神秘的“黑箱”。我們不知道它為何做出某個回答,也不清楚它是如何從海量資料中提取知識的。這種不可解釋性,成為了AI在醫療、金融、法律等高風險領域落地的重大障礙。對此,OpenAI研究團隊訓練出了一個權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。在這項研究中,研究團隊在模型內部形成了緊湊且可讀的“電路”(Circuits),每個電路都僅保留了保證模型性能的關鍵節點,神經元的啟動變得具有明確的語義。有外網網友稱這一技術讓當下的MoE(混合專家模型)走到了盡頭,並說“我們一直以來都將權重隔離到‘專家’中,以此粗略地近似稀疏性,僅僅是為了滿足稠密矩陣核的要求。”▲外網評價(圖源:X)更有網友將這項研究形容為將模型“減肥到只剩骨架”,還說這項研究就好像打開了黑匣子,不試圖解開稠密模型而是直接建構稀疏模型,正是這項研究有趣的地方。▲外網評價(圖源:X)但有些網友卻不這麼認為,稱其沒有看出MoE模型為何會因此走到盡頭,並進一步解釋說這一技術是針對XAI(可解釋AI)的,它的訓練成本要高100-1000倍,回到“研究時代”並不意味著讓事情變得更複雜。▲外網評價(圖源:X)該模型目前受限於計算效率瓶頸,其運算速度較密集模型慢100至1000倍,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。開源地址:Github:https://github.com/openai/circuit_sparsityHugging Face:https://huggingface.co/openai/circuit-sparsity01. 訓練稀疏Transformer OpenAI理清模型內部計算要理解這項研究的突破,首先需要明白傳統大模型為何難以解釋。在標準的密集模型(Dense Models)中,神經網路存在一種被稱為“超級位置”(Superposition)的現象。簡單來說,為了儲存海量的資訊,模型被迫讓單個神經元或權重矩陣同時編碼多個完全不同的概念。這種特徵糾纏導致了嚴重的後果,例如模型的決策不可追溯和邏輯混亂,當模型輸出一個結果時,我們無法確定是哪個具體的“概念”在起作用。針對以上問題,以前的研究通常從試圖拆解密集、糾結的網路開始。但OpenAI團隊採取了一種“反直覺”的策略,即訓練權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。強制模型限制了模型只能使用其神經元之間極少的可能連接,而這一簡單的更改,幾乎從根本上理清了模型的內部計算。▲每個神經元只與下一個層的幾個神經元相連(圖源:OpenAI技術部落格)具體的技術手段包括:1、動態剪枝與稀疏約束:在訓練過程中,系統會動態執行“剪枝”操作,每一步最佳化後僅保留絕對值最大的權重(Top-K稀疏化)。2、啟動稀疏化:在殘差流、注意力鍵/值矩陣等關鍵位置,研究團隊引入了AbsTopK啟動函數,強制僅保留前25%的啟動值。3、架構微調:為了配合稀疏化,研究團隊用RMSNorm替代了傳統的LayerNorm,避免歸一化操作破壞稀疏性,同時引入了“Bigram表”來處理簡單的模式匹配,從而釋放模型的主幹容量去處理複雜的邏輯推理。02. 模型內部形成緊湊可讀的“電路”規模縮減16倍這項技術的最大成果,是模型內部形成了緊湊且可讀的“電路”(Circuits)。在傳統密集模型中,完成一個任務可能需要成千上萬個節點協同工作,邏輯分散且難以捕捉。而在稀疏模型中,研究團隊觀察到了極簡的計算路徑:1、極簡的邏輯單元:例如在處理“字串閉合”任務時,模型僅用12個節點就建構了一個完美的電路,清晰地展示了它是如何檢測單引號或雙引號是否閉合的。2、可讀的特徵:神經元的啟動變得具有明確的語義。研究人員發現了一些神經元專門負責檢測“單引號”,另一些則像“計數器”一樣精確地追蹤列表的巢狀深度。3、規模縮減16倍:對比實驗顯示,在相同的任務損失下,稀疏模型的電路規模比密集模型小了16倍。這意味著解讀AI思維的難度降低了整整一個數量級。▲稀疏模型的電路規模比密集模型小了16倍(圖源:OpenAI技術論文)為了驗證這些電路的真實性,團隊進行了“均值消融”實驗。結果證明,移除非電路節點對任務幾乎沒有影響,而一旦移除電路中的關鍵節點,模型性能就會瞬間崩塌。這證實了這些電路確實是模型執行任務的“必經之路”。▲“均值消融”實驗(圖源:OpenAI技術論文)03. 稀疏模型解讀力強但速度慢千倍OpenAI提出“橋樑網路”為了測量稀疏模型計算的解耦程度。研究團隊設計了一套簡單的演算法任務。對於每個模型,他們都將其剪裁成了仍能執行該任務的最小電路,並檢查了該電路的簡潔程度。研究團隊發現,用規模更大、稀疏度更高的模型進行訓練後,就能夠依託結構更簡潔的電路,建構出性能更強的模型。▲模型的可解釋性與能力的對比圖(圖源:OpenAI技術部落格)從模型可解釋性與性能的對比圖可見,在稀疏模型規模固定的前提下,提升稀疏性,也就是將更多權重設零,雖會導致模型性能有所下降,但能顯著增強其可解釋性。儘管稀疏模型在可解釋性方面優勢突出,但其應用目前受限於計算效率瓶頸:稀疏矩陣運算無法借助Tensor Cores實現加速,運算速度較密集模型慢100至1000倍。這意味著,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。為此,研究團隊提出了“橋樑網路”(Bridges)方案:1、編碼-解碼對應:在稀疏模型與預訓練的密集模型之間插入一個編碼器-解碼器對。2、跨模型干預:編碼器將密集模型的啟動對應到稀疏空間,解碼器則反向轉換。“橋樑網路”(Bridges)方案可以在“透明”的稀疏模型上修改某個特徵,然後通過橋樑將這種擾動對應回“黑箱”的密集模型,從而實現對現有大模型的可解釋性行為編輯。04. 結語:OpenAI提出稀疏化新路徑讓大模型從“黑箱”走向“可解釋”OpenAI研究團隊的這項研究,標誌著AI可解釋性領域的一項重要突破,也印證了理解AI並非遙不可及的目標。研究團隊在論文部落格中稱,這項工作是邁向更宏大目標的早期探索。接下來,他們計畫將相關技術擴展至更大規模的模型,同時進一步解釋更多模型的行為邏輯。為解決稀疏模型訓練效率低下的問題,團隊提出了兩個後續研究方向:一是從現有密集模型中提取稀疏電路,替代“從頭訓練稀疏模型”的傳統方式;二是研發更高效的可解釋性模型訓練技術,推動相關技術更易落地生產。“我們的目標是逐步擴大可可靠解釋的模型範圍,同時打造相關工具,讓未來的AI系統更易於分析、偵錯與評估。”研究團隊在論文部落格中寫道。 (智東西)
【DeepSeek】GPT-5危了!DeepSeek開源世界首個奧數金牌AI,正面硬剛Google
沉寂許久的DeepSeek又回來了!今天,DeepSeekMath-V2重磅登場,一舉奪下IMO 2025金牌,實力媲美甚至超越了Google的IMO金牌模型,開源AI再次扳回一局。DeepSeek再次歸來!剛剛,DeepSeek重磅發佈DeepSeekMath-V2新模型,一舉奪下IMO 2025金牌。最關鍵的是,這是首款「開放原始碼的IMO金牌模型」。基於DeepSeek V3.2 Exp Base建構當前,已官宣拿下金牌的兩大模型,一款來自GoogleGemini Deep Think,另一款便來自OpenAI的內部模型。在IMO-ProofBench中,DeepSeekMath-V2展現出強大的定理證明能力:IMO 2025:破解5題(共6題),達到了金牌水平;CMO 2024(中國數學奧林匹克):達到金牌水平;Putnam 2024:得分118接近滿分(120分),超越人類參賽者最高分(90分)。不僅如此,在ProofBench-Basic上,DeepSeekMath-V2的實力碾壓Google金牌模型——Gemini Deep Think;在ProofBench-Advanced上直追Google。論文中,團隊訓練了一個基於LLM驗證器(Verifier)作為獎勵函數,並以此訓練模型以自主解決問題。而且,他們還Scaling了驗證器算力,來標註更複雜的證明,進一步最佳化了驗證器本身。這種方法非常巧妙,能有效彌合生成與驗證之間的差距。結果實證「可驗證的數學推理」,是未來一條可行的研究方向。DeepSeekMath-V2 讓「自驗證」成最強武器DeepSeekMath-V2的論文也於GitHub同步放出了。DeepSeek最新發佈的DeepSeekMath-V2帶來的核心突破就是:自驗證(Self-Verification)。這不僅讓它在最難的數學競賽中橫掃人類頂尖選手,更重要的是,它揭示了通往更高級AI的一條必經之路——學會自我反思。為什麼只看結果是不夠的在過去,訓練AI做數學題的方法很簡單:給它一道題,如果它算出的答案和標準答案一致,就給它獎勵。這在簡單的計算題(如AIME競賽)中很有效。但到了數學皇冠上的明珠——國際數學奧林匹克(IMO)這個等級,這種方法就徹底失效了。因為IMO的題目往往沒有簡單的數值答案,而是要求你寫出一段邏輯無懈可擊的證明過程。以前的AI在這裡經常是個「大忽悠」,它能胡編亂造一通看起來很專業的數學黑話,最後強行得出一個結論。雖然它可能蒙對了結果,但過程全是漏洞。DeepSeekMath-V2決定從根本上改變規則,不僅要獎勵正確的答案,更要獎勵嚴謹的「自我找茬」過程。秘密武器:左右互搏的三位一體為了實現這種「自我反思」,DeepSeek設計了一套精妙的「左右互搏」系統,就像在AI的大腦裡住了三個人:1.「做題家」(Generator,證明生成器):負責解題和寫證明。但與以往不同,它被訓練成不僅要寫答案,還要寫一段「自我評價」。它必須誠實地說:「這步我有點不確定,可能是錯的。」研究團隊巧妙設計了獎勵,帶來了下列激勵效果:誠實面對錯誤,比「硬說自己是對的」更有利。寫出真正正確的證明,並精準識別其嚴謹程度,可以獲得最高獎勵。對生成器來說,最優策略是:在最終回答前,發現並修正儘可能多的問題。2.「鐵面判官」(Verifier,證明驗證器):這是DeepSeek專門訓練的一個評分模型。它不看答案對不對,而是專門盯著證明過程挑刺。它會像閱卷老師一樣,給證明打分(0分、0.5分、1分),並指出具體的邏輯漏洞。1分:證明完整且嚴謹,所有關鍵推理步驟都有清晰、充分的論證;0.5分:整體思路正確,但在細節上存在輕微錯誤或略去部分論證;0分:存在致命邏輯錯誤或關鍵缺口,導致證明在本質上不成立。3.「判官的審計員」(Meta-Verifier,元驗證器):這是最絕的一步。因為「判官」也可能犯錯,或者為了省事偷懶瞎判。於是DeepSeek又引入了一個「元驗證」機制,專門檢查「判官」是不是在胡亂挑刺。如果「判官」指出了一個不存在的錯誤,它會被「審計員」打手板。「元驗證器」來檢查驗證器給出的分析,包括:1. 驗證器指出的問題是否真實存在於原證明中;2. 這些問題是否足以合理支撐它給出的得分,且符合原有的評分細則。用元驗證器來評估驗證器輸出分析的平均質量分數,從0.85提升到了0.96,同時保持了原有的打分精準率。在這三者的配合下,DeepSeekMath-V2甚至能做到在沒有標準答案的情況下,自己給自己出題、自己做、自己批改、自己重做。首先,證明驗證器與證明生成器之間形成了良性的「閉環」:驗證器為生成器提供獎勵訊號,從而不斷提高生成器的證明能力;隨著生成器水平提升,它會產生越來越「刁鑽」的新證明,這些證明反過來又會暴露出驗證器尚未覆蓋的薄弱點。尤其是那些「驗證器第一次嘗試沒能抓出問題」的證明樣本,對進一步訓練驗證器來說價值極高。為了高效獲取新證明的正確性標籤,研究團隊設計了自動化標籤生成流程:在最後兩輪訓練迭代中,這條全自動標註流水線已經完全替代了人工標註。後續的質量檢查表明,自動生成的標籤與人類專家的判斷高度一致。巔峰對決:DeepSeek vs Gemini在這個領域,DeepSeek並不孤單。GoogleDeepMind的Gemini Deep Think也是剛達到IMO金牌水平的頂尖選手。兩者的對比非常有意思:DeepMind像是擁有無盡資源的貴族,其實力毋庸置疑,在某些高級基準測試(如IMO-ProofBench Advanced)上依然保持領先。DeepSeek則像是半路殺出的天才少年。根據DeepSeek的論文,他們的V2模型在基礎測試集(ProofBench Basic)上已經反超了Gemini Deep Think,並且在公開的競賽題目上展現出了驚人的統治力。更重要的是,DeepSeek將這一技術路徑開源並詳細披露了訓練方法。這為全世界的AI研究者提了個醒:通往AGI的路上,自驗證可能比單純堆算力更重要。直追GoogleOpenAI,開源IMO模型贏了這一令人驚嘆的成績背後,是DeepSeekMath-V2在實驗中展現出的某種「反直覺」的進化特徵。「一次做對」的能力:全方位碾壓GPT-5和Gemini如果剝離掉所有複雜的反覆思考和驗證過程,只看模型的「第一直覺」——也就是所謂的One-Shot能力,DeepSeekMath-V2依然表現出了統治級的實力。研究團隊建構了一個包含代數、幾何、數論、組合和不等式五大類難題的內部測試集CNML(難度對標中國高中數學聯賽)。在這個競技場上,DeepSeekMath-V2與目前市面上最強的兩大推理模型——OpenAI的GPT-5-Thinking-High和GoogleDeepMind的Gemini 2.5-Pro進行了正面硬剛。結果如圖所示:DeepSeekMath-V2並不是險勝,而是完全勝利:代數:遠超GPT-5和Gemini;幾何:得分幾乎是Gemini 2.5-Pro的三倍;數論與組合:同樣穩穩佔據第一梯隊。這說明,即使不給模型「多想一會兒」的機會,它的底座能力已經極其強悍。進化的關鍵:讓模型「多想幾次」真正讓DeepSeekMath-V2與眾不同的,是它在連續修正實驗中的表現。在面對IMO候選題(Shortlist)這種等級的難題時,模型往往無法一次性寫出完美的證明。實驗顯示,如果允許模型進行「自我驗證」——即生成答案後,自己挑毛病,然後帶著問題重新生成,奇蹟就發生了:初始狀態(迭代1次):模型的平均得分為0.15。反覆思考(迭代8次):當允許模型最多進行8次「自我修正」後,證明的質量分數飆升到了0.27。更有趣的是,如果讓模型從自己生成的32個解法中挑一個最好的(Best@32),它的評分精準度極高,得分直接躍升至0.42。這證實了一個關鍵點:模型不僅能改錯,而且非常有自知之明,它清楚地知道自己那個答案是最好的。暴力美學與智慧的結晶:高算力搜尋前文提到的普特南數學競賽118分(接近滿分)的「神蹟」,並非僅靠運氣,而是得益於一種「高算力搜尋」(High-Compute Search)策略。DeepSeek團隊在實驗中採用了一種極端嚴苛的測試方式:1.海量候選:對每道題初始生成64個候選證明。2.地獄級驗證:為每一個證明生成64個獨立的驗證分析。3.優勝劣汰:只有那些能通過所有64次驗證的證明,才會被認為是「完全可信」的。正是這種「千錘百煉」的策略,讓模型解決了IMO 2025中6道題裡的5道,以及在CMO 2024中拿下金牌水平。實驗資料還揭示了一個有趣的現象:對於那些它沒做出來的題,模型通常能精準地找出自己證明中的漏洞;而對於做出來的題,則是真真切切地通過了所有考驗。這是「LLM可以被訓練成可靠的數學驗證者」這一假設的有力實證。DeepSeekMath-V2意味著什麼DeepSeekMath-V2的成功告訴我們,AI正在從「模仿人類說話」進化到「模仿人類思考」。真正的思考,往往伴隨著自我懷疑。當我們看到AI開始在輸出最終結果前,懂得停下來,對自己說一句「這看起來不太對,我再算一遍」時,那才是它真正超越工具屬性的時刻。真正的智慧,不僅在於瞬間給出答案,更在於擁有推翻自己的勇氣與能力。 (新智元)
【GTC】黃仁勳最新萬字演講精華:給普通人的10個未來趨勢……
當身著標誌性皮夾克的黃仁勳,站在美國政治心臟華盛頓特區的GTC舞台上時,空氣中瀰漫著強烈的時代感,這註定是一場與眾不同的技術發佈會。黃仁勳的演講資訊量依舊爆炸,他用極具說服力的邏輯,將晶片、軟體、機器人、工廠乃至國家戰略,串聯成一個即將徹底顛覆我們生活、工作和整個社會的未來。我們看了近2個小時的視訊,為你提煉出了其中與我們每個普通人最息息相關的10個核心趨勢,希望你我都能更好地理解我們正在進入一個怎樣的新時代。01 摩爾定律終結 新計算範式誕生“加速計算”是唯一答案。幾十年來,我們享受著科技進步的紅利,其背後都遵循著“摩爾定律”。但黃仁勳再次以不容置疑的口吻宣告:“那個時刻現在已經到來……德納德縮放(Dennard Scaling)在近十年前就已經停止了。”也就是說,單純依靠縮小電晶體來提升計算性能的老路已經走到物理極限。然而,我們對計算能力的需求卻在以指數級增長,怎麼辦?輝達過去三十年給出的答案,如今已成為行業唯一的答案:“加速計算” (Accelerated Computing)。簡單來說,就是將CPU的“智慧”與GPU的“力量”完美結合,讓它們各司其職。而將這一切粘合在一起的,是輝達耗費數十年心血打造的CUDA軟體平台——這才是輝達真正的、深不可測的護城河(deep moat)。這對普通人意味著什麼?這是一個計算平台的根本性轉變。你未來所感受到的AI能力每一次質的飛躍,其背後可能都是“加速計算”在提供源源不斷的動力。02 新範式的引擎 巨型AI機架那麼,輝達如何將“加速計算”這個宏大構想變為現實?答案是:不再只賣晶片,而是直接交付一台完整的“AI超級電腦”。黃仁勳在舞台上展示的那個巨大機架(以Grace Blackwell NVL72系統為例),就是這一思想的終極體現。它不像以往一樣,買的是一個簡單的伺服器櫃,而是一台被極致協同設計、作為一個單一巨型GPU運行的“AI工廠”基本單元。其核心是72個Blackwell GPU引擎群,由專門為其高速“投喂”資料的Grace CPU進行調度,並通過獨家NVLink技術實現近乎零延遲的資料交換,整個系統採用100%液冷。這個“即插即用”的龐然大物,能將生成Token的成本和能耗降低到原來的十分之一。黃仁勳更是在現場直接展示了下一代平台“Rubin”的實體機架,並承諾保持“一年一代”的驚人迭代速度。這對普通人意味著什麼?AI的能力正在以遠超想像的速度持續指數級增長,而成本則持續指數級下降。這正是AI革命得以持續、並最終普及到每個角落的經濟學基礎。03 AI從工具 走向工人這是一場深刻的生產力革命,也是整場演講中最具顛覆性的觀點之一。過去,我們認為軟體是工具,比如Word、Excel,它們需要人來操作才能產生價值。但黃仁勳說:“AI不是工具,AI就是工作(AI is work)。這就是深刻的區別。”他舉例說,一輛自動駕駛計程車,它的“工具”是汽車,但車裡的“AI司機”本身就是在“工作”。一個AI程式碼助手,它的“工具”是程式設計軟體,但它扮演的是一個“程式設計師夥伴”的角色,它在“工作”。這對普通人意味著什麼?這是一個深刻的思維轉變。我們第一次創造出一種能夠自主“使用工具”來完成任務的技術。這將極大地增強人類的勞動力,解決全球勞動力短缺的問題。AI將成為我們的研究助理、設計師夥伴、私人醫生顧問……它們將與全球價值100兆美元的經濟實體直接互動,使其更高效。你的工作不會被AI“取代”,而是會被與AI協作的新模式所“升級”。04 AI工廠的誕生 像生產電力一樣生產智能如果AI是工人,那麼這些工人從那裡來?答案是 “AI工廠” (AI Factory)。這是一種全新的資料中心概念。過去的資料中心像一個倉庫,儲存檔案、運行各種程序。而AI工廠的目標只有一個:生產“智能”。它的輸入是資料和能源,輸出則是被稱為“Token”(令牌)的智能單位。無論是語言、圖像、化學分子還是機器人動作,都可以被“Token化”,成為AI學習和生成的內容。這個工廠需要以驚人的速度、儘可能低的成本,生產出儘可能有價值(聰明)的Token。這對普通人意味著什麼?“智能”正在成為一種像電力和水一樣的基礎資源,可以被大規模生產和輸送。這意味著未來獲取高級智能服務的成本將越來越低,速度越來越快。你向AI提問,它能秒回;你需要設計方案,它能瞬間生成。一個前所未有的新產業正在形成,它將重塑全球的能源結構和基礎設施佈局。05 數字孿生 在虛擬世界中建構及預演未來黃仁勳用大量篇幅展示了Omniverse 和 “數字孿生”(Digital Twin)的概念。簡單來說,就是為現實世界中的一切——一座工廠、一個機器人——在虛擬世界中建立一個一模一樣的、遵循物理規律的數字複製。為此,輝達推出了Omniverse DSX,一個用於設計、規劃和營運吉瓦級AI工廠的藍圖。在實體工廠動工前,工程師們就能在虛擬世界裡完成所有設計、佈局、最佳化,甚至連裡面的機器人都在這個虛擬工廠裡接受了千百萬次的訓練。這對普通人意味著什麼?這是一個訓練AI的“元宇宙”。現實世界中訓練機器人的成本高、風險大、速度慢,但在數字孿生世界裡,AI可以在安全的虛擬環境中,以千萬倍的速度學習和迭代,直到“畢業”後再部署到現實世界。我們看到的那些聰明的機器人、自動駕駛汽車,其背後都有一個強大的數字孿生“模擬器”。06 物理AI浪潮 機器人的世界語言AI(如ChatGPT)之後,下一個浪潮是 “物理AI”(Physical AI)——能夠理解物理定律、與現實世界互動的AI。簡而言之,就是機器人。黃仁勳展示了與迪士尼研究院合作的、能夠學習與人進行溫暖互動的可愛機器人 “Disney Blue”,並強調“這很可能成為最大的消費電子市場之一”。同時,他也提到了與Figure等頂尖人形機器人公司的深度合作。這對普通人意味著什麼?科幻電影中的場景正在加速成為現實。機器人將走出工廠,進入倉庫、醫院、家庭,從事物流、護理、陪伴等工作。它們不再是預設程序的機器,而是具備學習和適應能力的“智能體”,這將是繼個人電腦、智慧型手機之後,又一個巨大的消費市場。07 自動駕駛拐點已至 AI司機上線有輪子的機器人——自動駕駛汽車,正迎來真正的商業化拐點。輝達推出了名為 Drive Hyperion 的標準化汽車平台,它整合了完整的感測器套件和強大的計算單元。最重磅的是,黃仁勳正式宣佈了與Uber建立合作關係,共同將這些搭載輝達技術的自動駕駛汽車連接成一個全球網路。“在未來,你將能夠呼叫其中一輛汽車。”這對普通人意味著什麼?自動駕駛計程車(Robotaxi)的規模化將大大提速。未來幾年,你在城市裡用手機叫車,派單來的可能就是一輛沒有司機的汽車,這將徹底改變我們的出行方式和城市交通格局。08 進軍6G 重塑下一代通訊我們每天都在使用5G網路,而下一代6G已經在地平線上。黃仁勳投下了一顆重磅炸彈:宣佈與全球第二大電信裝置製造商諾基亞(Nokia)建立大型合作夥伴關係,並行布了全新的 NVIDIA ARC 平台。未來的基站會是一個由軟體定義的、可程式設計的邊緣AI電腦。它不僅能利用AI大幅提升頻譜效率(用更少的能源傳輸更多資料),還能在網路的邊緣直接運行各種AI應用,比如工業機器人云服務。這對普通人意味著什麼?你的手機上網速度將再次飛躍,網路延遲更低。更重要的是,網路本身將變得“智能”,能夠即時感知環境並自我最佳化。AI計算將無處不在,離我們更近,為更多需要即時響應的應用(如自動駕駛、遠端手術)提供了可能。09 美國製造回歸 AI時代的再工業化這場在華盛頓特區的演講,充滿了強烈的“美國製造”色彩。黃仁勳在視訊和演講中多次強調,Blackwell晶片及其複雜的系統正在亞利桑那州、德克薩斯州、加州等地全面生產。“AI時代重新點燃了美國重返製造和再工業化的浪潮。”這對普通人意味著什麼?這可能會重塑全球產業格局。AI作為新一代的關鍵基礎設施,其供應鏈的佈局深刻影響著國家經濟安全和就業。這預示著未來全球高科技產業的競爭,將不僅僅是技術之爭,更是涵蓋了製造、能源和人才的全方位競賽。10 開源AI 讓人人都用上AI除了與巨頭合作,黃仁勳特別強調了“開源AI模型”的重要性。輝達正在大力投入,貢獻了大量領先的開源模型。他直言:“我們致力於技術開源,原因是科學需要它,研究人員需要它,創業公司需要它,企業也需要它。”這對普通人意味著什麼?開源意味著AI技術的民主化。它能激發海量的創新,讓更多中小企業和個人開發者參與到這場AI浪潮中,而不是被少數幾個科技巨頭壟斷。我們將看到更多垂直、細分、有趣的AI應用誕生,最終惠及每一個普通人。黃仁勳的這場華盛頓演講,描繪了一個正在被AI重塑的世界,以及兩個根本性的平台轉型——“從通用計算到加速計算”和“從手寫軟體到人工智慧”——正同時發生,其產生的能量是空前的。對於我們每個普通人來說,這既是挑戰,更是機遇。理解這些趨勢,擁抱這些變化,我們普通人以及我們的國家才能在這場由AI引領的新工業革命浪潮中,更好地航行。 (TOP創新區研究院)
輝達與中國正實現雙贏
“中國的開源AI是推動全球進步的催化劑”,輝達CEO黃仁勳在中國鏈博會的開幕式上發表演講,稱讚了中國AI的發展。能重獲中國市場需求對輝達而言是業績提升的推動因素。一方面,中國也考慮在充分利用其產品的同時加快自主AI半導體的開發……首次參展“中國國際供應鏈促進博覽會”的輝達的展位(7月16日,北京市)美國半導體大企業輝達明確展現出重視中國市場的姿態。該公司首次參展了7月16日在北京舉行的中國國際供應鏈促進博覽會(鏈博會),最近還決定重啟專門面向中國設計開發的人工智慧(AI)用半導體晶片的供貨。中國力爭成為“AI強國”,但先進半導體的開發進展仍顯遲緩,在吸引輝達的同時也在加緊促進相關產業的振興。“中國的開源AI是推動全球進步的催化劑, 讓各國和各行業都有機會參與這一AI革命。”在7月16日於北京開幕的鏈博會的開幕式上,輝達首席執行官(CEO)黃仁勳以DeepSeek(深度求索)、阿里巴巴集團、騰訊控股等中國企業為例,稱讚了中國AI的發展。輝達CEO黃仁勳在中國鏈博會上發表演講(7月16日,北京市,Reuters)黃仁勳當天並未穿著標誌性的皮夾克,而是換上了中國傳統服裝登台發言,營造出友好的氛圍。關於此次博覽會,他在演講中特意用中文說道:“這充分體現了中國對創新的支援,並致力於共建繁榮未來”。輝達在會場內的展位展出了該公司銷售的個人用小型AI電腦等產品。還公開了中國企業使用該公司的晶片製造的機器人以及駕駛輔助系統的控制裝置等,並宣傳稱對中國的尖端技術提供了支撐。該博覽會在中國領導層的推動下於2023年首次舉辦。此次為第三屆,吸引了來自中國國內外的650多家企業和團體參展,比2024年舉辦的上屆博覽會增加了約30家。海外企業的參展比例達到了迄今最高的35%。尤其是來自美國的企業,參展數量比上屆鏈博會增加了15%,在各國中數量最多。除了在中國設有生產基地的蘋果和特斯拉之外,從事半導體業務的高通和美光科技等美國大企業往屆也一直參展。在美國企業中,此次首次參展的輝達在中國受到了非常高的關注和期待。中央電視台(CCTV)連日報導了黃仁勳訪華的消息。據報導,黃仁勳7月15日表示,中美應當彼此分享推動技術進步的想法,同時探討如何讓人工智慧更加安全。輝達受到關注的背景在於該公司對中國而言越來越重要。中國領導層2015年發佈的《中國製造2025》推動了半導體產業的發展。美國調研公司國際商業戰略(IBS)的資料顯示,根據中國市場上中國企業的供應額計算出的半導體自給率從2015年的10%擴大到了2024年的33%,預計2028年將超過50%。IBS的首席執行官漢德爾·瓊斯(Handel Jones)指出:“美國加強監管增強了中國半導體產業的韌性”。不過,中國為了實現AI強國所需的尖端半導體的自給仍然滯後。瓊斯提到,由於美國的監管“電路線寬在5奈米以下的尖端領域的(中國)活動減弱”。在AI用半導體方面,中國事實上仍依賴於全球市場份額領先的輝達的產品。對輝達而言,抓住中國市場的巨大需求也是一個挑戰。美國川普政府為了抑制中國的尖端技術開發,4月將該公司為中國設計的AI晶片“H20”納入出口管制。黃仁勳對美國政府進行了遊說,提醒稱如果該公司產品無法在中國市場使用,中國企業將加速AI半導體的自主開發。中國政府也通過對全球份額領先的稀土實施出口管制來對抗美國。最後,在中美6月舉行的關於貿易問題的部長級磋商中,兩國政府達成了互相放寬出口限制的共識。美方重新允許H20對中國出口,這是黃仁勳在北京接連發言稱讚中國AI的背景。輝達CEO黃仁勳接受媒體採訪(7月16日,北京市)7月16日在北京市內,黃仁勳還對媒體表示,希望把更先進的晶片引入中國。他透露,在此次訪問期間還與中國副總理何立峰進行了會面。如果輝達重啟對中國的供貨,將成為業績提升的推動因素。另一方面,中國將在充分利用該公司的產品的同時加快自主AI半導體的開發和供應鏈的建構。輝達與中國的雙贏關係將持續到何時仍存在不確定性。 (日經中文網)
阿里雲賭對了!Qwen3成全球最強開源AI
4月29日凌晨,備受全球 AI 圈關注的:阿里千問3大模型發佈了,毫無疑問也開源了。新一代開源AI模型"千問3",這個模型有三個特點:(1) 性能強:在數學、程式設計、對話等各項測試中都超過了其他頂級AI模型。(2) 成本低:計算資源只有同類頂級模型的1/3,大大降低了使用門檻。(3) 很智能:創新地結合了"快思考"和"慢思考"兩種模式 - 簡單問題快速回答節省資源,複雜問題則深入思考給出更優解。這次大模型的發佈我覺得最重要一點是:它完全免費開源,誰都能可以下載使用和商用。中小企業、個人都能玩了,500M的模型在手機上都能裝著玩。(1) 用中文名了:千問3以前阿里雲總是用Qwen-2.5之類的命名大模式,這次好像他們對國內都是用中文了:千問3。改成中文名的好處是:全世界看一眼就知道這是國產AI大模型,也降低普通人的認知門檻。在國外還是以Qwen3命名,國內的媒體大多數用的也是Qwen3。所以我也迷茫了,到底是用千問3還是Qwen3?(2) 強化MCP支援:阿里雲All in MCP我之前的文章就說過《全球AI巨頭正在賭:誰搞定MCP,誰就是未來老大》誰就擁有AI生態控制權。果不其然,千問3支援了原生MCP協議,注意是原生的MCP。這意味著千問3從“獨行俠”變成“團隊指揮官”,能更聰明地協調其他AI幫你幹活,離真正的AI智能體(Agent)又近了一步。阿里雲這兩月已經 All in MCP了,他在賭MCP是下一代AI基礎設施,支付寶、高德、#阿里雲、達摩院、無影雲電腦,阿里旗下的很多產品都支援MCP協議了,搞不好,千問3可能真正率先成為AI行業介面標準的制定者。(3) 部署成本更低:中小企業、個人都能玩得起了這次發佈的Qwen3我認為有個最大的改進就是:部署成本更低了,之前跑一個頂級開源模型(如 DeepSeek-R1),可能需要 8張A100 顯示卡,電費和硬體投入讓中小企業根本部署不了,只能官網。而這次Qwen3 隻要4張H20(甚至消費級顯示卡)就能用,成本直接砍到 1/3 甚至更低,中小企業、個人開發者都能玩得起!我覺得這個才是王炸啊,以前我們要用300億參數完成的任務,現在Qwen3用30億就能搞定,一下降低了中小企業部署AI的成本,我估計這是借鑑了DeepSeek的思路。(4) 搞了好幾個大模型套餐這次Qwen3大模型搞了好幾個套餐,我估計是為了以後商業化做準備的。小模型(0.6B-4B參數):他是能直接在手機上裝大模型,只有500M,比微信/QQ體積還小,這玩意我估計為了和蘋果iPhone手機合作做準備的,因為蘋果與阿里合作AI已成定局,iPhone17鐵定要用Qwen大模型了。Qwen大機率會成為iPhone 17國行版的AI核心之一。中型模型(8B-32B參數):我估計 #阿里雲 是為了和汽車合作做準備,這話模型放到筆記本、桌上型電腦電腦、汽車裡、遊戲,最合適了,能即時處理導航或複雜任務。大模型(235B參數):專為企業級應用設計,比如分析巨量資料、生成長篇報告,這玩意我們在通義官網就能體驗到。寫在最後:看來,AI開源大模型之路,阿里賭對了,目前阿里雲的Qwen系列大模型是最受歡迎的開源AI,它和國內的其他AI還是有很大區別的,Qwen全球下載量已超3億次了,已經全球數一數二的開源大模型了。不信你下載試試看? (盧鬆鬆)
麥肯錫 & Mozilla:2025 人工智慧時代下的開源技術研究報告
在當今科技飛速發展的宏大背景下,人工智慧(AI)無疑是最引人矚目的驅動力之一,它正以前所未有的速度和深度滲透到各行各業,重塑著商業模式、社會結構乃至人類生活的方方面面。從自動化流程到複雜決策支援,從個性化服務到前沿科學探索,AI的應用場景日益廣泛,其戰略重要性已成為全球共識。然而,支撐這場智能化革命的基石,並不僅僅是少數科技巨頭所掌握的尖端技術或龐大算力,一股同樣強大且日益重要的力量正在其中扮演著關鍵角色——那就是開源技術。開放原始碼軟體,以其協作開發、公開透明、自由使用、修改和分發的特性,長久以來一直是軟體技術生態系統的重要組成部分。它打破了傳統商業軟體的封閉模式,降低了創新門檻,促進了技術的普及與迭代。如今,隨著AI技術的蓬勃發展,特別是生成式AI的突破性進展,開源模式再次展現出其獨特的價值和強大的生命力。眾多企業和開發者不再僅僅依賴於需要高昂許可費用且核心技術不透明的專有AI解決方案,而是將目光投向了日益豐富和成熟的開源AI技術堆疊。這份由麥肯錫諮詢公司、Mozilla基金會以及帕特里克·J·麥戈文基金會(Patrick J. McGovern Foundation)聯合進行的研究報告——《人工智慧時代下的開源技術》,正是基於這一時代背景,進行了一次前所未有的大規模、深度調研。該研究旨在全面、細緻地剖析全球範圍內企業和開發者在AI領域對開源技術的應用現狀、核心驅動因素、感知價值、面臨的風險挑戰以及未來發展趨勢。通過對來自41個國家、超過700位技術領導者和資深開發者的問卷調查(調研時間為2024年12月9日至2025年1月24日),報告首次為我們描繪了一幅關於開源AI在全球企業級應用中的詳盡圖景。研究結果清晰地表明,開源AI不再是邊緣或補充性的選擇,而是正在迅速成為企業建構其AI能力、驅動創新、尋求競爭優勢的核心組成部分。從資料處理、模型訓練到工具應用,開源技術的身影無處不在,其影響力已深深嵌入現代AI技術堆疊的各個層面。報告強調,無論是商業領袖還是技術專家,都應充分認識並擁抱開源技術的巨大潛力,否則可能在未來的AI競爭格局中失去一個重要的戰略支點。正如帕特里克·J·麥戈文基金會主席Vilas S. Dhar所言,開源通過將創造工具交到每個人手中,而非僅僅是資金雄厚者,從而將使用者轉變為建設者,將消費者轉變為創造者,它所代表的協作智能和自由流動的專業知識,將是解決人類最緊迫挑戰的關鍵。因此,理解並戰略性地運用開源AI,已成為企業在智能化時代生存和發展的必修課。開源AI的應用現狀:廣泛滲透與結構性差異報告深入探討了開源AI技術在企業實際應用中的普及程度和具體採用模式。研究首先界定了AI技術堆疊的七個關鍵領域:資料(用於訓練和評估模型)、模型(核心演算法及權重)、託管/推理計算(運行模型的伺服器或雲基礎設施)、修改(如微調、介面卡等,用於特定場景最佳化)、API與提示處理(使AI模型可用的介面)、工具(支援開發部署流程,如編排、安全、評估工具)以及使用者體驗/應用(最終面向使用者的AI產品)。調研結果顯示,開源技術在AI技術堆疊的多個層面都實現了顯著的滲透。超過半數的受訪者表示,他們在資料、模型和工具這三個核心領域都不同程度地利用了開源技術。這反映出企業在建構其AI能力時,已經廣泛接受並採納了來自社區的開源資源。特別是在模型層面,諸如Meta的Llama系列、Google的Gemma系列、艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)的OLMo系列,乃至Nvidia的NeMo系列、DeepSeek-R1和阿里巴巴的Qwen 2.5-Max等開源或部分開源模型,憑藉其快速提升的性能,正在積極追趕甚至在某些基準測試中超越了部分專有模型,成為了企業的重要選擇。然而,開源技術的應用並非在所有層面都均衡分佈。在模型修改(如微調、介面卡應用)以及託管/推理計算方面,開源技術的採用率相對較低。報告分析認為,這可能與相關領域的開放原始碼專案相對較新有關,例如,備受關注的推理引擎vLLM是在2024年4月才由伯克利大學Sky計算實驗室開發出來。同時,這也可能意味著企業更傾向於使用內部開發的工具包和專有資料來對模型進行定製化修改,以滿足其特定的業務需求和安全合規考量。在探討“開放”程度時,報告特別關注了AI模型的複雜性所引發的關於“開源”定義的討論。Mozilla基金會支援開源促進會(OSI)提出的開源AI定義,該定義要求在資料資訊、程式碼和參數等多個維度都達到開放標準。調研中,符合OSI標準的被視為“開源”,而那些擁有開放元件(如開放權重)但不完全滿足OSI標準的(例如存在商業使用限制或未使用OSI批准的開源許可證)則被歸類為“部分開放”。有趣的是,調研發現,受訪者最常選擇使用的是“部分開放”的模型。這在很大程度上反映了當前的市場格局——許多知名且資源雄厚的模型,如Llama 3和4系列,以及Stable Diffusion等,屬於此類。它們雖然在權重上開放,但在資料透明度或使用許可上可能存在限制,但這並未阻礙它們成為企業實踐中的熱門選項。報告還揭示了開源AI應用在不同行業和地區之間的顯著差異。科技、媒體和電信(TMT)行業是開源AI應用的領頭羊,其使用率高達70%。這可能得益於該行業天然的技術基因、對新技術的敏感度以及相對成熟的技術基礎設施。相比之下,其他行業的應用程度雖也普遍,但存在梯度差異。從地域上看,印度(77%)和英國(75%)的受訪者報告的開源AI模型使用率最高,美國(62%)、法國(60%)、巴西(63%)等也表現出較高的採用水平。此外,報告發現,技術成熟度和開發者經驗對開源AI的使用有著重要影響。擁有豐富AI開發經驗的開發者使用開源技術的可能性要高出40%。這表明,有效地利用開源AI資源,往往需要一定的技術門檻和實踐積累。價值感知與權衡:成本、性能、效率與開發者體驗企業和開發者之所以積極擁抱開源AI,其背後有著多重價值驅動因素。報告對此進行了深入分析,並將其與專有AI解決方案進行了對比。最突出的優勢之一是成本效益。高達60%的受訪者認為,開源AI的實施成本低於專有方案;46%的受訪者認為其維護成本更低;51%的受訪者認為相關的軟體工具成本也更低。這對於預算有限或希望最佳化IT支出的企業而言,無疑具有巨大的吸引力。開源模式通常免除了高昂的許可費用,並允許企業根據自身需求靈活調整和部署,從而有效控制總體擁有成本。除了成本優勢,性能和易用性也是使用者選擇開源AI的重要原因。報告指出,絕大多數受訪者對他們使用的開源AI模型表示滿意,滿意者數量是表示不滿意者的近十倍。其中,高性能和易於使用是驅動滿意度的首要因素。這表明,許多開源AI項目在技術上已經達到了相當高的水準,能夠滿足企業在實際應用中的性能要求,並且其介面和文件也越來越友好,降低了開發者的使用門檻。社區驅動的快速迭代和創新,也使得開源模型能夠緊跟技術前沿,不斷提升能力。然而,開源AI並非完美無缺。在“價值實現時間”(time to value)方面,專有工具似乎更具優勢。有48%的受訪者認為專有工具能夠更快地帶來價值,而僅有33%的受訪者認為開源工具在這方面表現更好。這可能與專有解決方案通常提供更完善的整合服務、技術支援以及開箱即用的特性有關,使得企業能夠更快地將AI能力部署到業務流程中並產生回報。相比之下,使用開源工具可能需要企業投入更多的內部資源進行整合、偵錯和最佳化。此外,雖然開源工具在使用者友好性方面獲得了30%受訪者的認可,但仍有41%的受訪者認為專有工具更易用,這表明開源社區在提升使用者體驗方面仍有改進空間。對於開發者而言,開源AI的價值則體現在更深層次的職業發展和工作滿意度上。高達81%的開發者表示,擁有開源工具的經驗在他們的領域受到高度重視。這意味著掌握和運用開源AI技術已成為提升開發者市場競爭力的重要砝碼。同時,66%的開發者認為,使用開源工具對他們的工作滿意度至關重要或非常重要。這反映了開源文化所倡導的開放、協作、共享精神,以及能夠直接接觸、修改和貢獻底層技術的自由度,對技術人員具有強烈的吸引力。他們不僅是技術的使用者,更是社區的參與者和貢獻者,這種歸屬感和成就感是專有技術生態系統難以比擬的。因此,企業在選擇AI技術路徑時,需要在開源與專有之間進行審慎的權衡。開源提供了顯著的成本優勢、有競爭力的性能以及對開發者的強大吸引力,但在價值實現速度和某些情況下的易用性方面可能稍遜一籌。理解這些差異,並結合自身的業務需求、技術能力和風險偏好,做出明智的決策至關重要。未來展望與風險管理:增長預期、混合策略與安全挑戰展望未來,報告揭示了開源AI持續增長的強勁勢頭。高達75%的受訪者預計,他們的組織將在未來幾年內增加對開源AI技術的使用。這一普遍預期反映了市場對開源價值的廣泛認可,以及對其未來發展的充足信心。隨著開源模型性能的不斷提升、工具生態的日益完善以及社區的持續活躍,開源AI有望在更廣泛的領域和更深層次的應用中扮演更加核心的角色。2024年見證了開源AI領域的諸多里程碑事件,例如Meta的Llama 3在基準測試中表現優異,DeepSeek-V3在推理速度上媲美頂級專有系統,蘋果(OpenELM)、微軟(Phi-3-mini)等巨頭也紛紛加大開源力度,這些都為開源AI的未來發展注入了強大動力。然而,報告同時指出,未來的AI技術格局並非非黑即白的選擇,而更可能是一種混合模式的共存。近四分之三(超過70%)的受訪者表示,他們在AI技術堆疊的各個層面都對採用開源或專有技術持開放態度。極少有受訪者是純粹的開源或專有擁護者。這意味著企業將根據不同場景的具體需求,靈活地組合使用開源和專有元件,建構混合式的AI解決方案。例如,可能會在成本敏感或需要高度定製化的場景中使用開源模型和工具,而在需要快速部署、強力支援或特定高性能要求的場景中選擇專有方案。這種“混合雲”式的策略,將有助於企業在利用開源優勢的同時,彌補其短板,實現整體效益的最大化。正如Mozilla基金會主席Mark Surman所強調的,開源AI的目標是建構像“AI樂高盒子”一樣易於使用的工具和技術堆疊,使其成為更具競爭力、創造力和創新性未來的基礎,而非僅僅是封閉系統的替代品。儘管前景光明,開源AI的發展並非沒有隱憂。風險管理是企業在採用開源技術時必須面對的關鍵課題。報告顯示,受訪者普遍認為開源AI工具在某些方面比專有AI風險更高。最受關注的風險領域包括:網路安全(62%的受訪者表示擔憂)、法規遵從性(54%)和智慧財產權問題(50%)。這些擔憂不無道理。開放原始碼軟體的開放性可能使其更容易受到惡意攻擊或被發現漏洞;複雜的許可證和貢獻者協議可能帶來合規和IP方面的挑戰;模型訓練資料的來源和質量問題也可能引發偏見、隱私洩露或版權爭議。值得注意的是,不同國家和地區的受訪者對風險的感知程度存在差異。例如,巴西受訪者更關注網路安全,而印度受訪者則對法規遵從性和智慧財產權侵權的擔憂程度顯著高於全球平均水平,這可能與其特定的監管環境、風險容忍度和AI成熟度有關。為了應對這些潛在挑戰,企業正在積極採取一系列風險緩解措施。報告中提到了幾種關鍵策略:一是建立強健的“護欄”(Guardrails),例如使用自動化內容過濾、輸入/輸出驗證、人工監督等機制,確保AI模型的使用符合倫理和法規要求,並控制輸出的安全性。諸如Nvidia的NeMo Guardrails、Llama Guard等開源工具本身也提供了這方面的支援。二是進行第三方評估,通過標準化的基準測試和認證,特別是採用隱私保護的評估方法(如私有基準測試),來確保模型的可靠性和安全性,防止資料污染。三是加強文件管理和監控,例如使用軟體物料清單(SBOM)來跟蹤開源元件的版本和已知漏洞,利用通用漏洞評分系統(CVSS)等工具評估風險嚴重性。四是強化網路安全實踐,包括在可信執行環境(TEE)中運行模型以保護敏感資料,在訓練中採用差分隱私和聯邦學習技術防止資料記憶,實施嚴格的存取控制、網路隔離、持續安全監控以及加密雜湊驗證等。正如安全與技術研究所(Institute for Security and Technology)CEO Philip Reiner所建議的,組織需要回歸基本的網路安全原則,重視開源工具可能存在的維護不足和軟體過時問題,並設立專門團隊負責風險跟蹤和更新。此外,報告還指出了一個值得關注的現象:儘管開源AI的使用日益廣泛,但企業對開放原始碼專案的貢獻率卻相對較低。只有13%的受訪者表示他們曾為開放原始碼專案做出過貢獻,而50%的人不確定未來是否會參與。貢獻意願低可能源於多種因素,包括資源投入、智慧財產權顧慮以及貢獻行為往往更多基於利他主義而非直接商業回報。然而,一個健康繁榮的開源生態系統離不開包括企業、學術機構和基金會在內的多方參與和貢獻。缺乏廣泛的貢獻可能會限制開源技術在某些前沿領域的突破速度,並影響其長期可持續發展。因此,如何激勵和促進更廣泛的社區參與和企業貢獻,將是開源AI未來發展需要思考的重要議題。結語:將開源AI融入企業核心戰略麥肯錫與Mozilla基金會、帕特里克·J·麥戈文基金會聯合發佈的這份《人工智慧時代下的開源技術》報告,以其詳實的資料和深入的分析,為我們揭示了開源AI在全球企業應用中的真實圖景及其深遠影響。報告的核心結論是明確而有力的:開源技術已經不再是AI領域的邊緣選擇或備用方案,而是正在成為驅動創新、降低成本、吸引人才、建構差異化競爭優勢的關鍵要素。企業對開源AI的採納已相當普遍,覆蓋了從資料處理、模型訓練到應用工具的整個技術堆疊,並且未來幾年內有望持續增長。開源AI在成本效益、性能表現以及開發者社區吸引力方面展現出顯著優勢,儘管在價值實現速度和某些風險感知上可能面臨挑戰。面對開源AI帶來的機遇與挑戰,報告為企業決策者和技術領導者提供了清晰的指引。首先,企業應將開源AI視為其整體AI戰略不可或缺的一部分,積極評估和擁抱開源技術帶來的可能性。其次,應採取務實和靈活的混合策略,根據具體業務需求和場景特點,在開源與專有解決方案之間做出明智的組合與權衡。再次,必須高度重視並有效管理開源AI相關的風險,特別是網路安全、合規性和智慧財產權方面,建立完善的風險評估、緩解機制和治理框架。最後,企業也應考慮如何更積極地參與和貢獻於開源社區,這不僅有助於提升自身技術能力和品牌形象,更能促進整個生態系統的健康發展,最終惠及自身。總之,人工智慧時代已經到來,而開源正以前所未有的力量塑造著這個時代的科技格局。那些能夠深刻理解、戰略性運用並有效管理開源AI的企業,無疑將在未來的智能化競爭中佔據更有利的位置。這份報告不僅是對現狀的一次全面掃描,更是對未來趨勢的一次深刻洞察,為所有希望在AI浪潮中乘風破浪的組織提供了寶貴的參考和啟示。 (歐米伽未來研究所2025)