#GLM-5
10倍速的一夜:智譜GLM-5官宣,MiniMax與DeepSeek的暗戰
2 月 11 日深夜到 12 日清晨,短短幾個小時內,中國三家最知名的大模型公司幾乎同時完成了一輪關鍵更新:智譜正式發佈 GLM-5,MiniMax M2.5 在產品中悄然上線體驗,DeepSeek 也啟動新一輪能力升級。智譜 GLM-5:從“寫程式碼”到“搞工程”2 月 12 日,智譜正式官宣上線並開源新模型 GLM-5。同時確認:此前在 OpenRouter 上爆火的匿名模型 Pony Alpha,正是 GLM-5。在匿名測試階段,這個模型已經被全球開發者當作真實生產工具使用。有人用它做橫版解謎遊戲,有人搭建 Agent 互動世界,也有人直接基於它開發出論文版“抖音”等完整應用形態。模型在沒有品牌背書的情況下完成真實市場驗證,本身已經說明了能力層級的變化。智譜對 GLM-5 的定位非常明確:它不是一個聊天模型,而是一個 Agentic Engineering 基座模型。過去兩年,大模型的主流敘事是“寫程式碼”“寫前端”;而現在,行業共識正在轉向:模型需要完成完整工程與複雜任務,即從「Vibe Coding」走向「Agentic Engineering」。GLM-5 正是這一階段的代表產物。與上一代相比,GLM-5 不再滿足於生成一個漂亮 demo 或一段 Python 指令碼,而是為穩定交付生產級結果而生。在真實程式設計場景的使用體感上,GLM-5 已經被認為逼近當前行業天花板 Claude Opus 4.5。在底層能力上,GLM-5 進行了全面擴展:參數規模: 從上一代的 355B(啟動 32B)擴展至 744B(啟動 40B)。資料量級: 預訓練資料從 23T 提升至 28.5T。架構創新: 首次整合了 DeepSeek Sparse Attention 機制。這一技術在維持長文字效果無損的同時,大幅降低了模型部署成本,提升了 Token 的生成效率。非同步強化學習: 建構了全新的“Slime”框架,讓模型能夠在長程互動中持續學習,不再是“聊幾句就忘”。在全球權威的 Artificial Analysis 榜單中,GLM-5 位居全球第四、開源第一。GLM-5 在程式設計能力上實現了對 Claude Opus 4.5 的對齊,在工程師最看重的 SWE-bench-Verified(軟體工程基準測試)中,GLM-5 拿下了 77.8 的高分;在 Terminal Bench 2.0(終端操作能力)中達到了 56.2。這兩個分數不僅是開源模型的 SOTA(State Of The Art),更直接超越了 Google 的 Gemini 3 Pro。在智譜內部的 Claude Code 評估集合中,GLM-5 在後端重構和深度偵錯等“硬骨頭”任務上,比 GLM-4.7 平均提升了超過 20%。GLM-5 在 Agent 能力上實現開源 SOTA,在多個評測基準中取得開源第一。更有意思的是Vending Bench 2 的測試結果。這個測試要求模型在一年期內經營一個模擬的自動售貨機業務。GLM-5 最終的帳戶餘額達到了 4432 美元。這意味著它不僅會寫程式碼,還懂得資源管理和長期規劃,這種“經營能力”是邁向 AGI 的關鍵一步。同一夜:MiniMax 與 DeepSeek就在智譜官宣的同時,另外兩家巨頭的佈局也在進行。昨晚,細心的使用者發現,在 MiniMax Agent 產品中,底層模型選項裡悄然出現了一個新名字——MiniMax M2.5。雖然公司尚未正式官宣,但這顯然是一次在產品端的“實彈演習”。據早期測試使用者反饋,“M2.5 Agent能力炸裂”,“程式設計和工具呼叫又強又便宜”。此外,就在眾人還在猜測DeepSeek V4何時到來時,DeepSeek也在悄然更新。我們在昨晚嘗試詢問 DeepSeek 的最新狀態,在關閉“深度思考”和“聯網搜尋”後查詢模型資訊時發現,其上下文長度已提升至1M Token(此前為128K),知識庫截止日期更新至2025年5月。2026 年,註定不會平靜。智譜用 GLM-5 證明了中國模型在複雜工程能力上已能與世界最強掰手腕;MiniMax 在產品端極速狂奔,搶佔使用者心智;而所有人依舊在等待 DeepSeek 出招。對於此時此刻的身處浪潮中的我們來說,唯一的選擇就是——跟上速度。畢竟,在這個 10 倍速的夜晚過後,掉隊可能只是一瞬間的事。 (網易科技)
股價暴漲32%!GLM-5登頂全球開源第一,25分鐘一鏡到底搓出完整系統
Vibe Coding時代宣告終結!2026年伊始,智譜GLM-5震撼空降,以「智能體工程」重塑遊戲規則。用Claude七分之一的地板價,中國模型正面硬剛Opus 4.5!2月7日深夜,一個代號「Pony Alpha」的神秘模型悄悄上線。隨後,外網炸了。扔進去一段改了一天都沒搞定的「屎山程式碼」,它順手重構了架構;輸入一段簡單的提示,它吐出一個包含35個電台、UI絲滑的完整Web App。這種極致的工程能力,直接印證了 Andrej Karpathy 幾天前的斷言:Vibe Coding已經成為過去,新的遊戲規則只有一個名字——Agentic Engineering(智能體工程)。緊接著,Opus 4.6與GPT-5.3-Codex 次日深夜「撞車」上線,全篇只談「長程任務、系統工程」。就在所有人以為這又是閉源巨頭的獨角戲時,Pony Alpha的謎底揭曉——它是GLM-5。全球第一個站上這條賽道,和矽谷巨頭在系統級工程能力上正面硬剛的開源模型。謎底揭曉後,智譜股價直接暴漲32%!全球開源第一!國產模型的「Opus時刻」在真正上手之後,我們只有一個感受:真的太強了!如果說Claude Opus代表了閉源模型的巔峰,那麼GLM-5的發佈,無疑標誌著國產開源模型迎來了屬於自己的「Opus時刻」。在權威榜單Artificial Analysis中,GLM-5位居全球第四、開源第一就在發佈當日,10餘款由開發者基於GLM-5「手搓」的遊戲和工具已同步展出並提供體驗,後續這些應用也將陸續登陸各大應用程式商店。這意味著,GLM-5正將「AI程式設計」轉化為「AI交付」,真正實現了生產力工具向商業產品的無縫跨越。體驗地址:showcase.z.ai比如這個名為「Pookie World」的項目。就是由GLM-5驅動的數字平行世界,通過多層生物-心理框架賦予自主智能體真實的敘事完整性與生命動機。還有復刻版「我的世界」,這個效果和玩法簡直和Minecraft一模一樣。我們也使用Claude Code作為外殼,直接接入GLM-5的API進行了多維度的實測。無論是Next.js全端項目,還是MacOS/iOS原生應用,它都能實現從需求分析、架構設計到程式碼編寫、端到端偵錯的全流程閉環。做了N個項目,冥冥之中有一種感受:某種程度上,GLM-5或許是一個能改變行業格局的模型。複雜邏輯挑戰:「無限知識宇宙」如果你覺得寫個網頁很簡單,那試著讓AI搞定一個對JSON格式要求極嚴、且涉及動態渲染的「無限流」項目。就拿我們最先測試的「無限知識宇宙」來說。這是一個典型的複雜前後端分離項目,涉及React Flow動態渲染、Next.js API路由設計,以及極其嚴格的JSON格式輸出要求。對此,GLM-5的表現堪稱驚豔。它不僅一次性完成了整個項目檔案結構,更讓人驚喜的是它的debug邏輯。GLM-5立刻定位到是載入時機的問題,並迅速給出了修正方案。完整的提示詞如下:無限流·概念可視化核心概念:這是一個“永遠點不完”的思維導圖。使用者輸入任何一個關鍵詞(比如“量子物理”或“紅樓夢”),系統生成中心節點。點選任意節點,AI即時展開其子節點。驚豔時刻: 使用者會感覺自己在與一個全知的大腦互動。當他們隨意點選一個生僻概念,AI依然能精準展開下一層級時,這種“無限探索”的感覺非常震撼。視覺與傳播:- 使用React Flow或ECharts製作動態的、可拖曳的節點網路。- 配色使用Cyberpunk或極簡風格,非常適合截圖發朋友圈。可行性方案:- 前端:React + React Flow (負責畫圖)。- 後端:Next.js API Route。- Prompt策略:不需要複雜的上下文記憶,只需要讓AI針對“當前節點”生成5-6個關聯子節點並返回JSON格式即可。- 難點攻克:讓模型輸出穩定的JSON格式(這是測試模型指令遵循能力的絕佳場景)。更複雜的中台項目,11分鐘搭建完畢接下來加大難度,讓它開發一個名為「Soul Mirror」的心理分析應用。需求分為兩步:Step 1邏輯設計:扮演榮格心理學專家,輸出包含分析文字和視覺參數的JSON。Step 2前端實現:根據參數動態渲染SVG,生成塔羅牌風格的卡片。提示詞Step1: 邏輯設計我們要開發一個名為"Soul Mirror"的心理分析應用。互動流程:1.引導頁:使用者輸入當前的狀態或困惑。2.分析頁:AI提出2個深度追問,引導使用者探索內心。3.結果頁:基於對話,AI生成一張“心靈卡片”。請設計核心Prompt (System Instruction):要求模型扮演一位榮格心理學專家。在最後一步,模型需要輸出一個JSON,包含:- analysis: 心理分析文字。- visualParams: 一組用於生成抽象藝術圖的參數(如colorPalette(十六進制顏色陣列), shapes(圓形/三角形/波浪), chaosLevel(混亂度數值))。Step2: 前端實現與SVG渲染請編寫Next.js前端程式碼。重點是實現一個ResultCard元件。要求:1.接收Step1中的visualParams參數。2.使用SVG動態繪製圖形。例如:如果chaosLevel高,使用不規則的Path;如果colorPalette是暖色,背景使用漸變橙紅色。3.卡片佈局要精美,像一張塔羅牌:中間是動態SVG圖案,底部是使用者的名字和AI的一句“靈魂箴言”。4.增加一個“保存為圖片”的按鈕(使用html-to-image庫)。整個過程,它展現出的理解力,時常會讓人懷疑是不是在用Opus 4.5。但是看了一眼,確實就是GLM-5。25分鐘一鏡到底,真正的Agentic Coding為了更進一步測試GLM-5的能力,我們要求它不使用API,完全模擬真實使用者,來製作一個X平台的監控系統。結果:25分鐘,一鏡到底。完整錄屏如下:可以看到,GLM-5會在運行中自主呼叫各種工具Agent,規劃任務、拆解步驟、遇到報錯自己查文件修正。這種長時間維持邏輯連貫性的能力,是以前開源模型不敢想像的。完成後,一句話即可讓GLM-5自動運行項目看圖寫APP,這還原度真的服了最後,我們又把一張OpenClaw之父開放原始碼專案的截圖(一個AI額度統計工具),直接丟給GLM-5:照這個給我做一個MacOS App。沒一會,它真的「復刻」了一個同款產品出來。雖然資料是Mock的,但UI佈局、互動邏輯幾乎完美復刻。這不僅是視覺理解能力,更是將視覺轉化為SwiftUI程式碼的工程落地能力。大神手搓:1天復刻「丐版Cursor」為了驗證GLM-5的工程極限,一位資深開發者決定玩把大的:從零手搓一個帶桌面UI的AI程式設計助手——GLMLIFE。這相當於要做一個簡易版的Cursor。任務扔給GLM-5後,它沒有上來就狂寫程式碼,而是先甩出了一份專業的架構設計文件(PLAN.md),並做出了極其成熟的技術選型:直接採用了Monorepo架構,將項目精準拆解為三個核心包。Core:負責Agent核心引擎與LLM適配;CLI:處理命令列互動;Desktop:基於Electron + React 18的桌面主程序。從Zustand狀態管理到Tailwind樣式方案,再到複雜的IPC處理程序通訊,GLM-5像個帶了十年團隊的技術總監,把技術選型安排得明明白白。開發者原本以為要花三天配置環境,結果僅用一天就跑通了從環境搭建、核心邏輯實現到Electron打包的全流程。打開GLMLIFE的那一刻,你很難相信這是AI在一天內「架構」出來的產物。GLMLIFE製作迷你鋼琴實現過程為什麼它能成為「開源界的Opus」?放眼全球,Claude Opus 4.6和GPT-5.3-Codex之所以備受追捧,是因為它們具備極強的「架構」能力。Opus 4.6的暴力美學:16個AI分身自主分工,耗時兩周,從零建構了一個包含10萬行程式碼的Rust編譯器,通過了99%的GCC壓力測試。GPT-5.3的自我創造:它是OpenAI第一個「參與自身創造」的模型,在「出生」前就已介入訓練流程和叢集部署。然而,這一切都有一個致命的前提:它們不僅閉源,而且昂貴。此時此刻,GLM-5的發佈,便是中國開源大模型對Agentic時代的一次暴力破局。它直接盯著閉源巨頭最不想放手的領域——系統級工程能力,做了一次「平替式」的進攻。1. 新晉「後端架構師」智譜團隊非常清楚,開源界不缺能寫Python指令碼的模型,缺的是能處理髒活、累活、大活的模型。GLM-5在訓練中大幅強化了後端架構設計、複雜演算法實現和頑固Bug修復的權重,並且還實現了極強的自我反思機制。在編譯失敗時,它會像一個成熟的工程師一樣,自主分析日誌、定位根因、修改程式碼、重新編譯,直到系統跑通。2. 既然是幹活,就要算帳比肩Opus的性能,和開放原始碼的權重,讓GLM-5從某種程度上撼動了Anthropic和OpenAI建構起的圍牆花園。本地部署:它不僅可以在完全隔離的內部網路中運行,並且還能針對公司的私有框架進行微調,成為最懂自家程式碼的專員。成本可控:使用者可以用消費級顯示卡叢集跑起一個強力的Coding Agent,不必每運行一次測試都要心疼錢。屠榜SOTAGLM-5的這次進化,只能用兩個字形容:暴力。既然是面向複雜系統工程設計的基座模型,那規模肯定要拉滿。參數量從355B(啟動32B)一口氣幹到了744B(啟動40B),預訓練資料也從23T堆到了28.5T。除了「大」,還得「省」。眾所周知,Agent跑起來最燒錢的就是Token。為瞭解決這個痛點,GLM-5首次整合了DeepSeek Sparse Attention(稀疏注意力)機制。這讓它在處理超長上下文時,不僅能保持「無損」的記憶力,還能大幅降低部署成本。還有個更狠的「黑科技」——全新的非同步強化學習框架Slime。配合大規模強化學習,讓模型不再是「一次性工具」,而是能在長跑中越跑越聰明的「長程選手」。至於跑分,更是硬核:程式碼能力SWE-bench Verified直接衝到77.8分,Terminal Bench 2.0一舉拿下56.2分,都是開源第一。這個成績不僅超了Gemini 3.0 Pro,更是直接貼臉Claude Opus 4.5。Agent能力BrowseComp(聯網檢索)、MCP-Atlas(工具呼叫)和τ²-Bench(複雜規劃),全線霸榜開源第一。最有趣的是Vending Bench 2(自動售貨機經營測試)。在這個測試中,模型得完全靠自己經營一年售貨機。您猜怎麼著,GLM-5到年底居然賺了4432美元,這水平都快趕上Opus 4.5了。在開發者最關心的內部Claude Code評估集合中,GLM-5在前端、後端、長程任務等程式設計開發任務上顯著超越上一代的GLM-4.7(平均增幅超過20%)。真實使用體感已經逼近Opus 4.5。用AI造AI當然,GLM-5的野心不止於模型,更在於重構我們手裡的程式設計工具。全球爆火的OpenClaw讓大家看到了AI操作電腦的潛能。這次,智譜也推出了AutoGLM版本的OpenClaw。在用原版時,光環境配置就需要折騰半天,現在官網一鍵部署。想要個7x24小時幫你盯著推特、整理資訊、甚至寫指令碼的「數字實習生」?點一下就有了。同時發佈的還有Z Code——完全基於GLM-5能力誕生的新一代開發工具。在Z Code裡,你只管提需求,模型會自動拆解任務,甚至拉起一堆Agent並行幹活:寫程式碼、跑命令、Debug、預覽,最後連Git提交都幫你搞定。甚至,你還可以用手機遠端指揮桌面端的Agent幹活。值得一提的是,就像OpenAI用Codex寫出了Codex,Z Code本身,也是GLM模型全程參與開發出來的。國產算力的勝利在GLM引爆全球流量、Agent需求激增的背後,一群「無名英雄」正默默支撐著海量的計算負荷。為了確保每一行程式碼、每一次 Agent 規劃都能穩定輸出,GLM-5已經深入國產算力的「腹地」,完成了與華為昇騰、摩爾線程、寒武紀、崑崙芯、沐曦、燧原、海光等主流平台的深度適配。通過底層算子級的精細化最佳化,讓GLM-5在國產晶片叢集上也能跑出「高吞吐、低延遲」的滿血表現。這意味著,我們不僅有了頂級的模型,還不被卡脖子。結語2026年的春天,程式設計大模型終於脫去了稚氣。Karpathy所謂的「Agentic Engineering」,本質上是對AI提出了一種更嚴苛的「面試要求」:以前(Vibe Coding):只要你會寫漂亮的HTML,我就錄用你。現在(Agentic Coding):你需要懂Linux核心,懂500個微服務之間的呼叫關係,懂如何在不炸掉線上的前提下重構程式碼,還要能自己規劃任務、自己修Bug。GLM-5並不完美。但在「建構複雜系統」這一核心命題上,它是目前開源界唯一能接住這波「Agentic浪潮」的選手。Vibe Coding已經結束了。別再問AI「能不能幫我寫個網頁」了。那是2025年的事情。現在,試試問它:「能不能幫我重構這個高並行系統的核心模組?」GLM-5,Ready to Build!彩蛋GLM-5已經納入Max使用者套餐,Pro將盡快在5天內支援!並且剛剛智譜宣佈漲價,今年的Token註定是要漲價的!趕快去體驗吧!官方API接入BigModel開放平台:https://docs.bigmodel.cn/cn/guide/models/text/glm-5Z.ai:https://docs.z.ai/guides/llm/glm-5OpenClaw接入文件:https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw開源連結GitHub:https://github.com/zai-org/GLM-5Hugging Face:https://huggingface.co/zai-org/GLM-5ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5 (新智元)