#智能體
爆火的OpenClaw怎麼玩?Google老哥40天打磨終極配置單開源:讓你的龍蝦越養越聰明,自動打怪升級
OpenClaw在全球範圍內正掀起一場現象級的AI狂潮。線上線下,無論是開發者還是科技前沿關注者,都在追逐這個爆款。安裝OpenClaw後不知到怎麼養龍蝦?那麼這篇文章就是給你量身定製的。這兩天我刷到Google高級AI產品經理、擁有9.9萬星標GitHub開放原始碼專案Awesome LLM Apps的作者Shubham Saboo,給出了他經過40天實戰打磨的OpenClaw Agent終極落地方案,這是我目前看到的最牛批的方案,大家不妨一閱,實操路線圖附在文後這位Google老哥的OpenClaw Agent每天都在進化。不靠微調提示詞,不靠切換底層模型,更沒有重構系統架構。他只做一件事:與智能體交談,給出反饋,然後看著它們把這些反饋記錄下來。40天前,他的內容智能體還會寫出滿是表情符號和標籤的推文,研究智能體甚至無法在海量資訊中提取有效訊號。糾正它們錯誤的時間,甚至比他自己動手做還要長。但今天,名為Kelly的智能體能夠完全使用他的口吻撰寫草稿,名為Dwight的智能體每天早晨能準時提交7個極具閱讀價值的故事。8個智能體全天候24小時自動運行。他要做的只是打開Telegram,稽核草稿,喝杯咖啡。從第1天到第40天,底層模型沒有任何變化。真正產生質變的,是一堆每周都在不斷豐富演進的Markdown檔案。這就是支撐這套系統的完整技術堆疊。極簡架構:三層作業系統這套完整的作業系統僅由三個核心層級構成:第一層:身份層。定義智能體是誰(涵蓋SOUL.md、IDENTITY.md、USER.md)第二層:操作層。定義智能體如何工作(涵蓋AGENTS.md、HEARTBEAT.md以及特定角色指南)第三層:知識層。定義智能體學到了什麼(涵蓋MEMORY.md、每日日誌、shared-context共享上下文目錄)就這麼簡單。沒有複雜的編排框架,沒有消息佇列,也沒有資料庫。只有磁碟上的Markdown檔案。檔案系統本身就是整合層。第一層:身份層SOUL.md(智能體的靈魂)這個檔案定義了智能體是誰、它具體做什麼以及它的行為方式。以下是研究智能體Dwight的精簡版檔案:# SOUL.md (Dwight)## Core IdentityDwight — the research brain. Named after Dwight Schrute because you share hisintensity: thorough to a fault, knows EVERYTHING in your domain, takes your jobextremely seriously. No fluff. No speculation. Just facts and sources.## Your RoleYou are the intelligence backbone of the squad. You research, verify, organize,and deliver intel that other agents use to create content. You feed:- Kelly (X/Twitter) — viral trends, hot threads, breaking news- Rachel (LinkedIn) — thought leadership angles, industry news## Your Principles### 1. NEVER Make Things Up- Every claim has a source link- Every metric is from the source, not estimated- If uncertain, mark it [UNVERIFIED]### 2. Signal Over Noise- Not everything trending matters- Prioritize: relevance to AI/agents, engagement velocity, source credibility這裡使用了一個名為影視角色設定法的技巧。每個智能體都以影視劇角色命名。當你告訴Claude它擁有Dwight Schrute(美劇《辦公區》角色)的能量時,它會直接從訓練資料中調取對應的性格特質:細緻、專注、對工作極其嚴肅。這相當於免費載入了30季的角色發展背景。檔案長度應控制在60行以內。SOUL.md在每次會話中都會被載入。如果太長,就會佔用本應用於實際工作處理的上下文空間。身份、角色、原則、關係網、個人氣質,這些就足夠了。以下是啟動範本:# SOUL.md## Core Identity[Name] — [one-line description]. [Personality reference if helpful].## Your Role[What this agent does. Be specific. One job, not five.]## Your Principles1. [Most important rule]2. [Second most important rule]3. [Third most important rule]## Relationships[Who does this agent work with? Who consumes its output?]先從一個智能體開始,挑選你日常最重複的任務寫一個粗略的草稿。第一個版本通常很平庸,但在接下來的一個月裡,你會根據實際表現重寫它十幾次。IDENTITY.md(快速參考卡片)如果說SOUL.md是完整的性格剖析,那麼IDENTITY.md就是一張名片。只包含姓名、角色、氣質和一句話簡介。# IDENTITY.md- **Name:** Dwight- **Role:** Research AI — intelligence backbone- **Vibe:** Intense, thorough, zero tolerance for inaccuracy- **Emoji:** 🔍- **Inspiration:** Dwight Schrute (The Office)檔案很小,但當你同時運行8個智能體時,它能極大提升使用體驗。當智能體在Telegram上發消息時,這就是展示出來的身份資訊。USER.md(智能體為誰服務)每個智能體都需要知道它在幫誰。USER.md保存了你的偏好、背景以及塑造智能體行為方式的上下文環境。# USER.md- **Name:** Shubham- **Timezone:** PST (America/Los_Angeles)- **Diet:** Vegetarian## Context- Senior AI Product Manager at Google Cloud- Creator of Awesome LLM Apps (91k+ stars)- Runs Unwind AI newsletter (30k+ subscribers)## Preferences- Short paragraphs, punchy sentences- No em dashes. Ever.- Practical first, theory never只需編寫一次,所有智能體都會讀取它。個人細節比想像中更重要。設定了時區,智能體就不會在凌晨3點安排日程;設定了飲食偏好,負責寫通訊稿的Pam在策劃團隊聚餐時就不會提議去牛排館。這些細節會產生複利效應。第二層:操作層AGENTS.md(行為準則)SOUL.md解決的是智能體是誰的問題,而AGENTS.md解決的是它如何運作的問題。它包含了會話啟動程序、檔案讀取順序、記憶體管理以及安全規則。以下是所有智能體都會繼承的根等級AGENTS.md:# AGENTS.md## Every SessionBefore doing anything else:1. Read SOUL.md — this is who you are2. Read USER.md — this is who you're helping3. Read memory/YYYY-MM-DD.md (today + yesterday) for recent context4. If in MAIN SESSION (direct chat): Also read MEMORY.md## Memory- Mental notes don't survive session restarts. Files do.- When someone says "remember this" → update the memory file- Text > Brain## Safety- Don't exfiltrate private data. Ever.- trash > rm (recoverable beats gone forever)- When in doubt, ask.隨後,每個智能體可以在此基礎上加入自己的規則。比如Kelly的AGENTS.md結合了她特定的工作流進行了擴展:# AGENTS.md (Kelly)## Every SessionBefore doing anything:1. Read SOUL.md2. Read USER.md3. Read X-ARTICLES-INSTRUCTIONS.md — master guide for writing style4. Read X-ARTICLES-EXAMPLES.md — 5 real articles showing the style in action5. Read X-CONTENT-GUIDE.md — post types and formats6. Read intel/DAILY-INTEL.md — Dwight's research (your source material)7. Read DAILY-ASSIGNMENT.md — your daily workflow8. Read memory/YYYY-MM-DD.md for recent context## Intel-Powered WorkflowYou no longer do research. Dwight handles all research.Your job: Read the intel → Craft X content → Deliver drafts智能體在兩次會話之間是沒有記憶的。一切從零開始。如果一個修正意見沒有被寫入檔案,在下一次會話中它就不復存在。AGENTS.md的作用就是明確要求智能體把所有東西都寫下來。專家級檔案是讓智能體變得敏銳的關鍵。Kelly不僅擁有AGENTS.md,她還有6個額外的檔案來精確定義她如何創作內容:寫作風格指南、帖子格式參考、真實案例展示、每日任務分配。Dwight則擁有目標受眾檔案和研究協議。隨著角色定義的不斷完善,每個智能體的資料夾都會不斷擴充。建議從AGENTS.md起步,只有當你發現某個錯誤模式反覆出現需要糾正時,才加入新的專家級檔案。HEARTBEAT.md(自癒機制)智能體團隊構成了基礎設施,而基礎設施是會出故障的。以下是主控智能體Monica的HEARTBEAT.md:## Health Checks (run on each heartbeat)**Browser:** Check if the OpenClaw managed browser (profile=openclaw) is running.If running: false, start it. The browser has X account logged in.Dwight depends on it for intel sweeps.**Cron jobs:** Check if any daily jobs have stale lastRunAtMs (>26 hours).If stale, trigger via CLI: openclaw cron run <jobId> --forceJobs to monitor:- Dwight Morning (8:01 AM)- Kelly X Drafts (5:01 PM)- Rachel LinkedIn (5:01 PM)- Pam Newsletter (6:01 PM)Only run each check once per heartbeat session.Monica在每次心跳周期都會運行此檔案,檢查兩件事:瀏覽器是否存活,定時任務是否真的在執行。這兩者息息相關。如果瀏覽器崩潰,Dwight就無法進行資料蒐集。如果Dwight錯過了蒐集,Kelly和Rachel就會根據過時的資訊起草內容。如果定時任務在後台靜默停止,整個操作表面上看起來很健康,但實際上什麼都沒發生。最後一種情況確確實實發生在了第三周。調度程序出現了bug,任務在佇列中推進但從未執行,幾個小時都沒被發現。此後便加入了心跳檢測機制,在一個地方同時捕獲這兩種故障模式。這個機制在後來已經多次發揮了作用。第一天不需要建立這個機制。在經歷第一次故障後再建立,因為只有痛過,你才會確切知道需要監控什麼。第三層:知識層真正奏效的記憶系統是一個建立在檔案系統之上的三層架構。第一級:MEMORY.md(經過梳理的長期記憶)這裡存放的不是原始日誌,不是發生過的所有瑣事,而是真正重要的核心內容。摘自Monica的MEMORY.md:# MEMORY.md## Shubham's Writing Preferences- NO EM DASHES. Use colons, periods, or restructure.## Hard Lessons- NEVER delete project folders without asking Shubham. On Feb 26,  deleted Ross's gemini-council React app during cleanup. The React  version was lost. Always ask before removing anything in agent  project directories.## Memory System (2026-02-26)- Tried self-hosted Mem0 (Ollama + SQLite) → crashes, stored nothing.- Tried Mem0 hosted API → free tier too limited. Removed.- Now using built-in memory-core: Gemini embeddings, hybrid search,  temporal decay, MMR. No external dependencies.注意慘痛教訓這個部分。Monica曾經誤刪過一個項目資料夾。現在這個錯誤被永久記錄在了她的長期記憶中。她再也不會犯同樣的錯誤。一次修正,永久儲存,預防了未來所有會話中重複同樣的錯誤。摘自Kelly的MEMORY.md:## X Post Rules (ALWAYS)### SHUBHAM'S EXACT INSTRUCTIONS:- Start with a strong hook- Keep entire tweet SUPER SHORT (180 chars or less)- NO hashtags, NO emojis- NO fluffy marketing language- Always deliver 3 drafts per topic### BAD (what I did wrong)[Lists every pattern Kelly rejected: bullets, arrows, LinkedIn tone]壞案例部分是Kelly在被糾正後自己寫下的。她記錄下了自己的錯誤以避免重蹈覆轍。單單這一部分的價值,就超過了任何提示詞工程指南。出於安全考慮,MEMORY.md僅在直接會話中載入,不在群聊等共享上下文中載入。務必將敏感偏好設定排除在全域載入的檔案之外。千萬不要在第一天就去寫MEMORY.md。它是從反饋中生長出來的。給出反饋,智能體將其記錄在每日記憶中,提取重要資訊存入MEMORY.md,它在每次會話中載入,從此這個修正意見就不需要再被提及。第二級:memory/YYYY-MM-DD.md(每日會話日誌)這是原始筆記。記錄了今天發生了什麼,起草了什麼內容,收到了什麼反饋。# Kelly Daily Log — February 5, 2026## 5:00 PM — Daily X Drafts### What's HOT today- Opus 4.6 vs GPT-5.3-Codex dropped 27 min apart- Anthropic's C Compiler (16 agents, $20k, compiles Linux kernel)### Drafts Submitted1. C Compiler — single post, discovery format2. Mitchell Hashimoto's 6 steps — thread format3. Opus 4.6 vs GPT-5.3-Codex — hot take### Awaiting- Shubham's feedback on drafts每日日誌是原材料,MEMORY.md是精煉後的成品。兩者缺一不可。這裡有一條維護法則。每日日誌積累得極快,如果不進行修剪,智能體的上下文就會急劇膨脹。Kelly的上下文曾一度飆升至16.1萬個Token,導致輸出質量暴跌。後來不得不將其壓縮到4萬個Token。現在每兩周必須審查並歸檔一次舊的每日日誌。每次會話只需載入今天和昨天的日誌,智能體不需要每次都攜帶全部歷史記錄。第三級:結構化的記憶資料夾在根目錄下,記憶按人員進行組織:memory/├── shubham/     # Private notes, work projects, ideas├── shared/      # Joint context (Awesome llm apps, Unwind AI, travel)└── 2026-02-27.md   # Daily operational logs隨著系統的壯大,可以按人員或項目來組織結構。Shared Context(跨智能體知識共享層)這是最新加入的層級,也是徹底改變遊戲規則的一步。這是一個所有智能體在會話啟動時都會讀取的單一資料夾。shared-context/├── THESIS.md        — what I believe right now├── FEEDBACK-LOG.md  — corrections that apply across agents└── SIGNALS.md       — articles and trends I'm trackingTHESIS.md記錄了當下的世界觀:關注什麼,已經寫了什麼,還缺什麼。Dwight閱讀它來確定研究優先順序,Kelly閱讀它來匹配思維方式,Ryan閱讀它來構思文章主題。所有智能體都向同一個事實源對齊。FEEDBACK-LOG.md是跨智能體的修正層。當告訴Kelly不要使用破折號時,這個反饋對Rachel、Ryan和Pam同樣適用。與其分別糾正四個智能體,不如寫一次讓所有智能體共同讀取。協同機制:沒有API,只有檔案智能體之間不需要API呼叫,也不需要消息佇列。只有檔案。Dwight將研究成果寫入intel/DAILY-INTEL.md。Kelly讀取它,Rachel讀取它,Pam讀取它。檔案系統就是協同調度的核心。一個智能體寫入,其他智能體讀取。交接的媒介就是磁碟上的Markdown檔案。遵循單一寫入者原則。永遠不要讓兩個智能體同時向同一個檔案寫入。每個共享檔案的設計都必須是一個寫入者,多個讀取者。這直接根除了所有你原本需要費力偵錯的協同衝突。時間調度是這套機制順暢運轉的保障。Dwight在早上8點和下午4點運行。Kelly和Rachel在下午5點運行。Dwight必須先運行,因為所有人都在等他的輸出。一旦順序出錯,下游智能體讀取到的就是過時的或空的檔案。完整目錄結構一覽:workspace/├── SOUL.md              # Monica (main agent)├── IDENTITY.md          # Monica's quick reference├── AGENTS.md            # Root behavior rules (all agents inherit)├── USER.md              # About me (shared across all agents)├── MEMORY.md            # Monica's long-term memory├── HEARTBEAT.md         # Self-healing checks├── shared-context/│   ├── THESIS.md        # My current worldview│   ├── FEEDBACK-LOG.md  # Cross-agent corrections│   └── SIGNALS.md       # Trends I'm tracking├── intel/│   ├── DAILY-INTEL.md   # Dwight's output (agents read this)│   └── data/├── agents/│   ├── dwight/│   │   ├── SOUL.md│   │   ├── IDENTITY.md│   │   ├── AGENTS.md│   │   ├── TARGET-AUDIENCE.md│   │   ├── RESEARCH-PROTOCOL.md│   │   ├── HEARTBEAT.md│   │   └── memory/│   ├── kelly/│   │   ├── SOUL.md│   │   ├── IDENTITY.md│   │   ├── AGENTS.md│   │   ├── X-CONTENT-GUIDE.md│   │   ├── X-ARTICLES-INSTRUCTIONS.md│   │   ├── X-STRATEGY.md│   │   ├── DAILY-ASSIGNMENT.md│   │   └── memory/│   ├── ross/│   ├── rachel/│   ├── pam/│   ├── ryan/│   └── chandler/└── memory/    ├── shubham/    ├── shared/    └── 2026-02-27.md為什麼這套系統極其有效?因為這些檔案不是靜態的,它們在不斷進化。Kelly的SOUL.md在第一天只是個粗糙的草圖。到了第40天,裡面已經包含了具體的語氣示例、她自己整理的被拒模式列表,以及一個絕不再提建議類股,記錄了她已經涵蓋過的所有主題。Dwight的原則在第一天唯寫著尋找熱門趨勢。到了第10天,原則變成了如果目標開發者讀者今天不能直接用它採取行動,就跳過。到了第20天,他加入了驗證步驟:檢查程式碼庫建立日期,檢查Hacker News發佈時間戳,追溯資訊發現的原始出處。在第20天之前並沒有共享上下文層。因為不斷向多個智能體重複同樣的修正,所以才建立了THESIS.md和FEEDBACK-LOG.md。瞬間,一次修正就可以在全網傳播。這一個微小的改變,比任何提示詞最佳化節省的時間都要多。第1天和第40天使用的模型是完全一樣的。它並不會因為你使用的時間變長而自動變得更聰明。但是包裹著它的這些檔案變得更豐富、更敏銳、更貼合你的確切需求。這種不斷積累的上下文環境,才是真正的技術護城河。使用同一個模型的人,根本無法複製這種能力。你必須通過每天親自下場與智能體交談來贏取這條護城河。實操路線圖不要試圖在一個周末把所有東西都建好。今天。 安裝OpenClaw。寫一個SOUL.md,一個IDENTITY.md,一個USER.md。挑一個你最重複的日常任務。設定一個定時任務。讓它跑起來。3天後。 智能體初期的輸出會很平庸。開始給出具體的反饋。確保這些反饋落實在記憶檔案中,而不僅僅停留在聊天框裡。1周後。 建立AGENTS.md。定義會話啟動程序。加入記憶體管理規則。2周後。 啟動MEMORY.md。回顧每日日誌。那些錯誤反覆出現?將它們提取成永久條目。這個時候,你就會開始感受到複利的威力。3周後。 加入第二個智能體。建立基於檔案的協同機制:第一個智能體寫入共享檔案,第二個智能體讀取。隨著模式的顯現,加入角色專屬指南。同期。 建構共享上下文層。在達到這一步之前,你一定會感受到這種需求。向多個智能體重複同樣的修正就是最明顯的訊號。建立代表當前思維的THESIS.md和用於跨智能體修正的FEEDBACK-LOG.md。4周後。 在遭遇第一次故障後加入HEARTBEAT.md。因為痛過,所以你確切知道需要監控什麼。你要做的僅僅是與智能體交談。剩下的事情,交給檔案系統。 (AI寒武紀)
中國政府工作報告首提“智能經濟”,訊號強大
3月5日,中國國務院總理李強在政府工作報告中介紹今年政府工作任務時提出,打造智能經濟新形態。深化拓展“人工智慧+”,促進新一代智能終端和智能體加快推廣,推動重點行業領域人工智慧商業化規模化應用,培育智能原生新業態新模式。支援人工智慧開源社區建設,促進開源生態繁榮。實施超大規模智算叢集、算電協同等新基建工程,加強全國一體化算力監測調度,支援公共雲發展。加快發展衛星網際網路。打造“5G+工業網際網路”升級版。深化資料資源開發利用,健全資料要素基礎制度,建設高品質資料集。完善人工智慧治理。3月5日,在十四屆全國人大四次會議首場“部長通道”集中採訪活動上,工業和資訊化部部長李樂成表示,2026年工信部將按照政府工作報告要求,大力推動人工智慧(AI)和製造業雙向奔赴。中國產業門類齊全,創新人才眾多,創新生態不斷改善,我們有信心,堅信必將有更多的世界級智能產品在這片熱土上生產出來。要努力推動AI電腦、AI手機、智能家居,更好地滿足人民群眾對美好生活的需求。要全力推進新一代人工智慧產品的攻關和迭代更新,包括腦機介面、自動駕駛汽車、人形機器人,推動科技攻關、技術迭代。大力支援發展智能農業機械、智能醫療器械,讓更多智能產品滿足各行各業各領域的需要。2024年,“人工智慧+”行動首次被寫入政府工作報告。2025年政府工作報告提出,持續推進“人工智慧+”行動。如今,“人工智慧+”連續三年寫入政府工作報告,而“智能經濟”則是首次提及。智能經濟是什麼?國家發展改革委國家資訊中心人工智慧處副處長、研究員易成岐對21世紀經濟報導記者表示,智能經濟是以人工智慧為核心驅動力的新型經濟形態,將全面重塑生產、分配、交換、消費等經濟活動各環節。國研新經濟研究院創始院長朱克力對21世紀經濟報導記者表示,“智能經濟”首次寫入政府工作報告,被擺在更加突出的戰略位置。報告明確提出要“打造智能經濟新形態”,意味著智能經濟成為新質生產力發展的核心抓手與經濟轉型的關鍵突破。2025年8月,《國務院關於深入實施“人工智慧+”行動的意見》(以下簡稱《意見》)發佈,其中曾提出2027年、2030年、2035年三個階段目標,每個階段的目標均明確提及“智能經濟”。從2027年看,瞄準的目標是“智能經濟核心產業規模快速增長”,從“十五五”收官之年看,到2030年,“智能經濟成為中國經濟發展的重要增長極”。易成岐指出,未來五年,隨著人工智慧向通用人工智慧(AGI)和超級人工智慧(ASI)加速演進,人工智慧的感知、決策、行動等核心能力水平將繼續取得突破,智能經濟的兩大組成部分“智能產業化”與“產業智能化”將成為經濟發展的重要增長極。人工智慧將超越傳統工具輔助的基本定位,加速向新型基礎設施方向發展,將全面重構產業組織形態和商業運行邏輯,“智能無處不在”將成為經濟社會發展常態,生產力有望迎來革命性躍遷,生產關係將發生深層次變革,社會形態在高度智能化的同時將更具溫度。值得注意的是,易成岐提到,“十五五”時期,智能經濟對GDP的貢獻將完成從“增量補充”到“核心支柱”的關鍵轉變,為推動高品質發展、服務支撐全面建設社會主義現代化國家提供強勁動能。《意見》發佈以來,“智能經濟”一詞時常被用於和“數字經濟”進行比較。此前,北京師範大學京師特聘教授、博士生導師焦豪對《意見》的解讀中提到,相比於數字經濟,新一代人工智慧湧現的兩大新特徵(自主決策、自主行動)驅動智能經濟新形態湧現,重塑生產要素、服務體驗與競爭邏輯的運行範式,引發經濟社會的深刻變革。在朱克力看來,智能經濟是數字經濟的更高形態,把“智能”作為新一代經濟形態的核心特徵,意味著我們的政策重心,從過去的資訊化、數位化,全面轉向智能化。智能經濟不再是輔助角色,而是“十五五”開局之年的主力增長極。可以說,這一表述跳出單一技術應用維度,將人工智慧與實體經濟、數字基建、產業生態深度融合,通過深化“人工智慧+”行動,推動智能終端、智能體的商業化規模化落地,培育智能原生新業態。同時,以超大規模智算叢集、衛星網際網路等新基建為支撐,完善人工智慧治理與開源生態,讓智能技術從“工具”升級為經濟發展的“底層邏輯”。未來需要如何發力?易成岐指出,一是要在統籌謀劃和頂層設計上下功夫,加快形成部門與地方、政府與市場、國企與民企等多方合力,持續最佳化智能經濟發展環境,出台更具針對性、更具操作性、更契合實際需求的政策舉措。二是要堅持供需兩端協同發力,更好發揮“兩重”“兩新”政策效能,加大算力、資料、演算法、場景、資金等資源要素供給,充分挖掘人工智慧行業應用和新型智能消費需求,不斷推動人工智慧技術取得新的突破,培育一批易用好用、普惠便捷的人工智慧產品和服務體系。三是要鼓勵創新探索並激發創新熱情,支援有條件的地方和企事業單位圍繞智能經濟積極實踐創新,加快典型案例、創新模式和先進經驗複製推廣,通過標竿示範帶動人工智慧向更廣領域、更深場景、更高水平滲透應用。四是要加快培育創新型複合型人才,推動高校、科研院所與企業深化人才交流合作、促進人才合理流動,為智能經濟高品質發展提供堅實人才保障。 (21世紀經濟報導)
Google最新預測:2026,普通人工作方式將徹底改變
你有沒有過這種體驗?寫周報時,翻遍五六個系統扒資料;跟客戶溝通時,反覆解釋同一個問題;處理工作流程時,卡在跨部門對接的環節動彈不得……我們總說AI能提高效率,但以前的AI,更像個“問答機器”——你問它才答,你不說它就躺平。但Google  Cloud剛出的《AI智能體趨勢2026》報告說,2026年這一切要變了。AI會從“只會回答問題的工具”,變成能聽懂目標、拆任務、跨系統自己幹活的“得力幫手”(也就是報告裡說的AI智能體)。這不是遙遠的暢想,而是已經在發生的現實。今天就跟你掰開揉碎了聊:這波AI變革到底會怎麼改咱們的工作,普通人該怎麼抓住機會?核心轉變從人親自幹活到人管AI幹活這波AI變革最核心的變化,不是“幹活更快了”,而是“幹活的方式變了”。以前咱們談AI,總說“幫人把事做快”——比如AI幫你寫初稿、算資料,最後還是得你逐字改、逐題核對。但2026年的AI智能體,厲害在“能自主搞定一整套事”:你只要告訴它“要達成什麼目標”,它會自己拆分成小任務,呼叫公司的各種系統,一步步推進,最後給你一個結果。隨之而來的,是咱們的角色大變身:從“親自執行的打工人”,變成“指揮AI的管理者”。打個比方,以前做市場經理,得自己寫文案、找資料、盯競品、做報告,一天忙得腳不沾地。2026年,你手下會有五個“AI專屬助理”:資料助理:扒遍公司內外的結構化資料,找出市場趨勢;分析助理:24小時盯競品動態、社交媒體口碑,每天給你發一頁核心洞察;內容助理:按公司的品牌語氣,寫好社交媒體文案和部落格初稿;創意助理:給文案配圖片、剪視訊;報告助理:每周自動拉取campaign資料,生成分析總結。你要做的,不是自己寫文案、找資料,而是:告訴它們這周的核心目標(比如“推廣新產品,吸引年輕使用者”),給點策略指引(比如“重點突出性價比”),最後檢查一下結果有沒有問題,拍板定奪就行。說白了,AI把重複、繁瑣的執行活全包了,咱們只需要聚焦“定方向、做判斷、把關結果”。而且這不是空想。資料顯示,現在已經有52%的公司,把AI智能體用在了生產環境裡:客戶服務、市場營運、技術支援、產品創新,到處都有它們的身影。比如全球最大的紙漿製造商Suzano,用AI智能體把員工的自然語言(比如“查一下某類物料的庫存”)變成系統能識別的查詢指令,5萬名員工查資料的時間直接減少95%;電信公司TELUS更狠,5.7萬名員工日常用AI,平均每次互動能省40分鐘。五大趨勢未來,AI智能體將滲透到工作的方方面面如果說核心轉變是“道”,那這五大趨勢就是“術”。我們來看看這些AI幫手會出現在那些場景,怎麼改變咱們的工作和生活。1.每個員工都有“專屬AI助理”:個人能力直接翻倍以前的AI工具,要麼是公司統一配的“大雜燴”,要麼得自己找外掛拼湊,用起來特別彆扭。未來,每個員工都會有“量身定製”的AI助理。這個助理懂公司的業務語境:能訪問內部知識庫、客戶資料、歷史工作成果,不會像通用AI那樣“說外行話”;它還能跟你配合默契:你把重複的活(比如整理會議紀要、跟進待辦事項、初步篩選郵件)交給它,自己專注於創新、談判、戰略思考這些“高價值活”。這裡要澄清一個誤區:不是有了AI助理,你就沒主動權了。它更像一個“超級執行者”,在你的指導和監督下幹活,比如寫合同,AI可以初稿,但最終的風險把控、條款談判,還是得你上。就像媒體行業,AI能幫你整理海量素材,但講什麼故事、怎麼講得動人,還是得靠人的創造力。2.公司流程變成“數字流水線”:從頭到尾自動跑如果說每個員工的AI助理是“單兵作戰”,那公司核心流程的AI智能體系統,就是“團隊協作”。以前公司的流程,比如採購、客戶支援、安全營運,都是“人對接系統、人對接人”,中間容易卡殼:比如網路出問題,得先讓技術部門檢測,再讓售後通知客戶,流程走下來大半天。未來,AI智能體系統會把這些環節串起來:發現網路異常後,AI先自動嘗試修復;修復不了,自動在現場服務系統建立工單;同時同步給客戶聯絡中心,告知客戶情況——整個過程跨系統、跨部門,不用人手動干預,人類只需要在關鍵節點監督、拍板。要實現這種“流水線”,靠的是兩個關鍵技術:A2A協議:相當於AI之間的“普通話”,不同開發者、不同框架的AI能互相溝通協作;MCP協議:相當於AI和公司系統的“資料線”,能讓AI安全訪問即時資料(比如庫存、訂單、客戶資訊),而不是靠“過時的知識庫”幹活。比如動物保健公司Elanco,用AI智能體處理每個生產基地2500多份非結構化檔案(比如政策、流程文件),自動分類、提取關鍵資訊、排查衝突,避免了因為資訊過期或衝突導致的生產力損失——以前這種損失在大型基地可能高達130萬美元。3.客戶服務從“被動響應”到“主動服務”:像有了“私人管家”你有沒有吐槽過傳統客服?重複說問題說三遍,轉人工要等半天,最後還沒解決。這就是“規則型自動化”的侷限,只能機械響應,不會靈活處理。未來的客戶服務AI智能體,會變成你的“私人管家”。它能記住你的歷史資訊:你上周買了件藍色毛衣,今天打電話,它一接就知道“你可能是要退換貨”;它還能主動解決問題:物流延誤了,不等你投訴,它已經查到是配送車壞了,自動安排明天最早配送,還給你充了10美元補償,發簡訊跟你確認時間。資料顯示,現在已經有49%的公司把AI智能體用在客戶服務上,這是最成熟的落地場景之一。比如家居建材品牌家得寶(Home Depot),做了個叫Magic  Apron的AI智能體,24小時線上給客戶提供裝修指導:怎麼裝櫃子、選那種油漆、看產品口碑,就像身邊有個裝修老師傅,隨叫隨到。而且這種“管家式服務”不侷限於消費端。比如工廠裡,AI智能體能分析生產資料,發現某個班次效率低,會主動給出建議:“可以調整裝置參數,或者給員工做個專項培訓”,相當於給管理者配了個“生產顧問”。4.安全防護:從“喊警報”到“自動滅火”現在的公司安全部門,最頭疼的是“告警疲勞”:每天收到成千上萬個安全告警,分析師根本看不過來,很可能漏掉真正的威脅。就像家裡裝了100個煙霧報警器,天天響,真著火了反而沒反應。未來的安全AI智能體,會從“只喊警報”變成“主動滅火”。它能自動分流告警(那些是誤報,那些是真威脅),調查分析(威脅來自那裡,影響多大),甚至在授權範圍內直接採取行動(比如攔截惡意攻擊、修復漏洞)。比如cybersecurity公司Specular,用AI智能體自動化攻擊面管理和滲透測試,幫企業快速找到安全漏洞;另一家公司Torq的AI安全分析師Socrates,能自動完成90%的一級分析任務,人工操作減少95%,響應速度快了10倍——安全人員不用再埋頭處理重複告警,能專注於設計防禦架構、獵捕高級威脅。5.能不能規模化賺錢,看員工會不會“管AI”最後這個趨勢,是所有變化的關鍵:AI智能體能不能給公司帶來持續價值,核心不是買了多少技術,而是員工會不會用。現在專業技能的“半衰期”越來越短,技術領域可能只有2年。也就是說,你現在學的技能,2年後可能就過時了。而AI的普及,會讓“會不會管AI”變成職場的核心競爭力。但現在有個落差:84%的員工希望公司多提供AI學習資源,但只有29%的員工覺得公司在積極推動AI應用。而且“AI管家”“AI編排者”這種新角色,市場上根本招不到現成的人,只能靠公司內部培養。怎麼培養?報告裡給了一套實用方法,核心是五個支柱:1.定目標:比如“讓100%員工在工作中用AI”,而且要可衡量;2.找支援:組建“高管贊助人(給錢給資源)+推動者(鼓動員工參與)+技術專家(落地解決方案)”的團隊;3.造氛圍:搞遊戲化交流、案例分享,獎勵創新用法;4.融日常:把AI融入工作流,比如辦內部駭客松、實踐挑戰,讓員工在幹活中學習;5.守規則:明確那些資料能給AI用,怎麼識別AI相關的安全威脅。比如電信公司TELUS和Google合作搞了AI技能培訓,結果96%的員工說用AI的信心提升了,員工會用AI了,公司的效率和創新力自然上來了。AI時代這五種人很難替代聊完了AI智能體的趨勢,咱們回到最實際的問題:既然AI能幫著幹活、跑流程,那普通人怎麼才能不被替代?答案很簡單:AI越能幹,就越需要有人“管著它、盯著它、落地它、擔著它”。未來3-5年是AI緩衝期,咱們只要找準自己的位置,就能在變革中站穩腳。總結下來,有五種角色永遠稀缺:1.決策者:給AI定方向的“指揮官”AI再厲害,也得有人告訴它“要做什麼、為什麼做”。就像前面說的市場經理,AI助理團隊再能打,也得靠你定核心目標——是推廣新產品還是維護老客戶,是突出性價比還是強調品牌感。以前咱們做執行,滿足於“按流程幹完”就行;現在得主動思考“為什麼要做這件事”“要達成什麼結果”。比如用AI寫方案,不能只說“幫我寫個推廣方案”,而要明確“針對25-30歲職場人,推廣一款通勤背包,核心賣點是輕便防水,預算5萬,要包含社交媒體和線下快閃活動”——這樣AI才能精準發力。說白了,決策者的核心價值是“定戰略、掌方向”,這是AI學不會的。它能執行,但沒法判斷“這件事該不該做”“這麼做對公司長期有沒有好處”。2.提問者:能問對問題的“掌舵人”如果暫時做不到決策者的高度,那從“會提問”開始也完全可以。提問的水平,直接決定了AI的輸出質量。很多人用AI之所以沒效果,就是提問太隨意。比如想讓AI生成配圖,只說“給我一張漂亮的圖”,結果全看運氣;但如果你說“我想表達‘異鄉人思念家鄉’,要用溫暖的水彩風格,畫面裡要有老房子、路燈、飄著的炊煙,能不能給我三個構圖建議並簡單解釋”,得到的結果大機率就是你想要的。提問的關鍵,是先想清楚自己的目標,再把目標拆成具體的問題。職場裡常說“會提問的人,思考一定不差”,AI時代更是如此——你能問出精準的問題,就意味著你已經想透了事情的關鍵。3.看門人:給AI把關的“質檢員”現階段的AI還有個小毛病:偶爾會“胡說八道”(也就是常說的“AI幻覺”),比如給你編一個不存在的資料,或者生成不符合公司規範的內容。這時候就需要“看門人”——用自己的專業經驗,判斷AI的輸出是不是靠譜。比如Elanco用AI處理生產檔案,AI能自動分類、提取資訊,但最終還是需要熟悉生產流程的員工把關:“這個條款是不是和最新政策衝突?這個資料是不是精準?”;再比如用AI寫合同,AI能搭框架,但涉及法律風險、核心權益的條款,還得靠法務人員稽核。看門人不用學新技能,只要你在自己的領域裡夠專業、夠細心,就能勝任。畢竟AI談論你不熟悉的領域時,你可能覺得它無所不知,但一碰到你的專業,它有沒有胡說,你一眼就能看出來。4.執行者:連接虛擬與現實的“實幹家”你可能會想:“執行的活不都被AI搶了嗎?”其實不然,AI能在電腦裡跑流程、做分析,但最終還是要有人把事情落到現實裡。比如物流智能體能安排好配送路線,但包裹還是得靠快遞員送到你手上;AI能給出工廠裝置的調整建議,但最終還是得靠技術人員去操作;AI能生成裝修方案,但敲牆、刷漆、裝櫃子,還是得靠工人師傅來幹。虛擬世界的決策,永遠需要現實世界的人來落地。而且現在很多公司看似人多,但真正腳踏實地幹活的執行者並不多,只要你靠譜、敏捷,能把AI的計畫變成實實在在的結果,就永遠有你的位置。5.責任人:為結果兜底的“擔當者”AI是工具,沒有辦法承擔責任。比如AI推薦的行銷方案出了問題,損失誰來擔?AI處理客戶資料時洩露了隱私,責任誰來負?這時候就需要“責任人”——對最終結果負責,出了問題敢擔當、能解決。未來,“誰來擔責”會成為AI時代的核心議題。比如合規智能體自動更新了工作流,但如果不符合監管要求,還是得有人站出來調整、承擔後果;客戶服務AI出了錯,還是得有人主動聯絡客戶道歉、彌補。無論你是決策者、提問者,還是看門人、執行者,最終都得是責任人。畢竟AI可以幫你幹活,但沒法替你擔責——而“敢擔當、能扛事”,永遠是職場最稀缺的品質。2026年的機會本質是“人的解放”聊了這麼多,你可能會問:AI這麼厲害,會不會取代人?答案是:不會取代人,但會取代“只會執行的人”。AI智能體不是搶工作,而是把我們從重複、繁瑣、耗精力的低價值工作中解放出來,讓你專注於只有人能做的事:創造性的思考、戰略性的決策、有同理心的溝通。這波變革的學習曲線可能有點陡,但機會屬於那些“現在就開始行動”的人:今天學著跟AI配合,學著定方向、提對問題、把好關、落好地、擔好責,明天你就是職場裡的“稀缺人才”,而不是被淘汰的“執行者”。說到底,2026年的AI變革,看起來是技術的升級,本質是“人的升級”。它讓企業變得更快、更智能,也讓每個人都有機會發揮自己的天賦和創造力。未來決定現在。看清未來將發生什麼,才能真正明白當下應該做什麼。我們認為,未來由四個關鍵領域塑造:哲學、AI科技、經濟與政治。為什麼是這四個?哲學是元起點,是意義與方向的錨點,為一切行動提供終極燃料;科技(尤其是AI)是文明進步的底座,是驅動世界向前的“發動機”;經濟是轉化器,它把科技力量轉化為真實的財富與市場機會;政治是適配性結構,它給哲學、科技與經濟提供運行框架與秩序。哲學為根,科技為器,經濟為用,政治為治。這四者環環相扣,層層支撐,相互交織,在動態的演進中共同推動現實走向未來。 (前瞻經濟學人)
DeepMind讓大模型自己寫出多智能體學習新演算法!不靠人類直覺,程式碼級進化直接干翻SOTA
GoogleDeepMind剛剛投下一枚研究炸彈在不完全資訊博弈領域,多智能體強化學習(MARL)的進步,長期以來都高度依賴人類專家手動去煉丹但現在,這個極度依賴人類直覺的瓶頸被打破了。GoogleDeepMind團隊利用AlphaEvolve(基於 Gemini 的編碼代理,用於設計高級演算法),無需手動調整,無需反覆試驗,無需人類直覺,硬生生從原始碼層面進化出了全新的學習演算法,一舉擊敗了現有的最優基線演算法。AlphaEvolve 將演算法原始碼視為基因組:→ LLM 充當變異引擎→ 提出語義上有意義的程式碼變更→ 在真實遊戲基準測試中自動評估適配度→ 保留優勝者,進一步進化在11項遊戲測試中,VAD-CFR演算法有10項超越當前所有頂尖基準模型。SHOR-PSRO求解器完勝納什均衡、AlphaRank及PRD等傳統解法paper:https://arxiv.org/pdf/2602.16928以下是論文中的一些值得探討的點:讓大模型當"基因操作員”傳統的機器學習自動化發現,要麼侷限於超參數最佳化,要麼採用隨機語法的遺傳程式設計。而DeepMind這次使用的方法更加硬核——把演算法的Python原始碼本身當作“基因組”。整個框架由Gemini大模型作為底層支撐,運行流程非常直接:首先初始化一個種群,裡面裝滿標準基線演算法的原始碼(比如標準CFR程式碼或均勻PSRO程式碼)。接著,系統根據適應度選出父代演算法,直接把程式碼喂給大模型,要求它修改程式碼以降低“可剝削性”(Exploitability,衡量策略漏洞的指標)。大模型像一個聰明的基因操作員,對程式碼進行語義等級的變異,重寫邏輯、引入新的控制流或注入新的符號操作,生成候選變體。最後,系統在代理遊戲(如庫恩撲克)中自動評估這些新程式碼,表現好的加入種群,循環往復。通過這種方式,大模型跳出了簡單的參數微調,直接在程式碼邏輯層面發現了人類很難想到的全新機制。團隊將這一框架應用在了兩大主流不完全資訊博弈求解範式上,並取得了驚豔的成果。突破一:發現VAD-CFR演算法,干翻預測CFR+在迭代遺憾最小化領域,團隊開放了累積遺憾和推導當前策略的核心程式碼邏輯讓大模型去進化。作為種群種子的CFR+演算法,經過多代繁衍,最終進化出了一個名為VAD-CFR(波動自適應折扣CFR)的新變體。在面對Discounted CFR、預測CFR+(PCFR+)乃至最新的DPCFR+等一眾頂級基線時,VAD-CFR展現出了極強的統治力,特別是在3人庫恩撲克、3人萊杜克撲克和5張牌的各種遊戲中,其收斂速度和極低的可剝削性遠超對手。大模型到底在程式碼裡寫了什麼神奇邏輯?研究人員分析VAD-CFR的原始碼後,發現了三個極具反直覺的創新機制:波動自適應折扣: 傳統演算法(如DCFR)對歷史遺憾值採用的是固定折扣因子。而VAD-CFR是動態反應的,它會通過指數加權移動平均線即時追蹤瞬時遺憾的“波動率”。當策略處於劇烈動盪期(波動率高)時,演算法會自動加大折扣力度,快速遺忘不穩定的歷史;當學習趨於穩定時,則保留更多歷史進行微調。非對稱瞬時提升: 以前的演算法通常對累積歷史做非對稱處理,而VAD-CFR直接對當前的瞬時更新下手。如果某個動作當前表現很好(瞬時遺憾為正),演算法會直接給它乘上1.1的提升因子,實現對有利偏差的即時利用,完全消除了累積帶來的滯後感。硬熱啟動與遺憾幅度加權: 傳統CFR從第一輪就開始平均策略,而VAD-CFR極其果斷地實施了“硬熱啟動”,在第500輪之前絕對不進行策略平均,只在底層默默更新遺憾。一旦開始平均,它不按線性時間加權,而是按瞬時遺憾的幅度加權。這個機制像一個高級過濾器,徹底阻斷了早期學習噪聲對最終均衡解的污染。突破二:發現SHOR-PSRO,破解種群訓練難題在針對大型博弈的PSRO演算法領域,痛點在於如何平衡探索(擴大遊戲圖)和利用(微調均衡)。標準PSRO通常使用固定的元求解器(比如一直用Nash或一直用Uniform),很難適應訓練中不斷變化的經驗遊戲拓撲結構。大模型針對PSRO的訓練時和評估時元求解器程式碼進行了進化,最終誕生了SHOR-PSRO(平滑混合樂觀遺憾PSRO)。在極其複雜的6面騙子骰子等多智能體動態環境中,面對PRD、AlphaRank等主流元求解器,SHOR-PSRO展現出了卓越的經驗收斂性和極強的演算法魯棒性。拆解SHOR-PSRO的程式碼,核心亮點在於它實現了一個完美的動態時間表:混合融合機制: 在每次求解器內部迭代時,它會將兩種策略線性混合:一部分是保證穩定性的樂觀遺憾匹配(ORM),另一部分是極具侵略性、傾向於高回報模式的平滑最佳純策略(受溫度參數控制的玻爾茲曼分佈)。動態退火時間表: 混合比例不是固定的。在PSRO的迭代過程中,大模型寫出的程式碼會自動讓混合因子從0.3退火到0.05,自動實現了從早期貪婪利用到後期嚴格尋找均衡的平滑過渡。同時,對收益附加的“多樣性獎勵”也會隨時間衰減,確保早期擴充博弈圖,後期精細化收斂。訓練與評估的非對稱性: 大模型極其聰明地為訓練和評估設計了不同的配置。訓練求解器使用動態退火並返回內部迭代的平均策略以確保穩定;而評估求解器則採用固定的極低混合因子,並返回最後一次迭代的策略。這種解耦讓演算法在訓練時安全探索,在評估時又能提供低噪聲、高反應速度的結果。DeepMind的這項研究證明,自動化發現的演算法非對稱性和動態混合時間表,能夠產生人類直覺難以捕捉但極其高效的求解器。未來,博弈論求解器的設計,或許將全面走向人類智慧與AI自動化洞察相融合的新時代 (AI寒武紀)
【輝達財報】創紀錄,老黃定調智能體拐點:算力就是印鈔機
算力即收入,黃仁勳認為智能體拐點已來,只要算力還在驅動收入成長,就不必擔憂AI泡沫。營收681.3億美元!剛剛,輝達公佈了創紀錄的2026財年第四季業績,並給出了2027財年第一季780億美元的業績預期。在商業世界裡,數據永遠是最有說服力的語言。截至周三收盤,輝達的股價累計上漲了5%,而同一時期,科技股的晴雨表納斯達克指數下跌了0.4%。當華爾街和矽谷還在為AI泡沫爭論不休時,黃仁勳再次用數據擊碎了「AI泡沫論」。不僅如此,他還提出了自己的「AI經濟學」:算力=收入成長,直言如今流向AI的千億美元資本開支,最終都會直接轉化為收入。支撐老黃「AI經濟學」的,是他看到了智能體拐點已經到來,由此帶來了驚人的算力需求。Vera Rubin平台:六款新晶片,一台AI超級計算機為了把這些驚人的算力需求變現,輝達也推出了下一代整櫃級算力系統-Vera Rubin,將在2026年下半年出貨。輝達財務長Colette Kress透露,公司已經清楚預見到,2025至2026年間Blackwell和Rubin產品組合帶來5,000億美元營收。超預期的第四季業績在2026財年第四季度,輝達一舉衝破了市場的預期線,當季總營收高達681.3億美元,年增幅達到了驚人的73%。公司的淨利更是走出了幾乎翻倍的狂飆曲線,躍升至430億美元。如果把視野拉長到全年,輝達的總營收直接突破了2,159億美元的大關。這台高速運轉的賺錢機器背後,資料中心業務展現了無可匹敵的一家獨大態勢。輝達的資料中心業務,在2026年Q4的收入達到了623億美元,年增75%,撐起了公司超過91%的收入。在過去四年,輝達資料中心業務成長了約19倍(1789%)。Colette Kress表示,超大規模雲端服務商仍是輝達最大的客戶類別,佔資料中心營收的比例略高於50%。輝達給出的2027財年Q1的毛利率指引約為75%。更令人震撼的是供應鏈的提前鎖定,供應相關承諾總額從第三季的503億美元,迅速飆升至952億美元。這意味著輝達已經在用真金白銀鎖死了未來的龐大需求。Colette Kress稱,對於2025至2026年間Blackwell和Rubin產品組合帶來5,000億美元營收,公司具備清晰的可預見性。她預計到2029年,AI基建的投資規模將達到每年3兆至4兆美元。AI業務狂飆成長,其他業務不得不做出讓步。曾經作為核心支柱的遊戲業務,雖然年增47%達到37億美元,但卻比上季卻下降了13%。Colette Kress也坦誠指出,受全球記憶體短缺的波及,遊戲業務在2027財年第一季開始及之後,將不得不面臨供應壓力的陣痛。由於記憶體限制,輝達必須優先保障AI處理器的產能,分析師甚至猜測公司今年可能會直接跳過新一代遊戲GPU的發表。沒有Token就沒成長「智能體拐點」來了在周三的業績電話會上,分析師的提問直擊要害:雲端廠商高達千億的資本開支,到底還能不能持續下去?黃仁勳認為這幾乎不用猶豫,並拋出了他的「AI經濟學」:在這個AI新世界裡,算力就是收入。沒有算力,就沒辦法生成Token;沒有Token,就沒辦法讓營收成長。黃仁勳對自己這些大客戶的現金流成長很有信心,如今流向AI的千億美元資本開支,最終都會直接轉化為收入。原因非常簡單:智能體拐點已經到來。我們現在已經看到了智能體AI(agentic AI)的轉折點,以及智能體在全球各地、各類企業中的實際價值,你也因此看到了驚人的算力需求。老黃已經清晰預見我們正在經歷第三次平台遷移。前兩次是從傳統CPU轉向GPU運算,以及從傳統機器學習跨入生成式AI。而現在,產業正全速衝向智能體AI時代。全球各類企業對智能體的採用率正直線飆升,這就註定了這不是靠削減成本就能完成的進化,它需要海量的、實打實的新增投資。為了牢牢護住這片生態的護城河,輝達在投資與結盟上也豪擲重金。年內公司豪擲175億美元,大舉投資各類新創企業,甚至入股了晶片製造商英特爾。儘管在財報裡輝達直言,這些投資短期內可能無法獲利,甚至永遠收不回本,但這是建構帝國必不可少的佈局。此外,那個讓整個科技圈翹首以盼的數字:與OpenAI高達1,000億美元的合作協議,目前也正在接近達成。能效狂飆10倍 下一代系統Vera Rubin終極拆解如果你覺得現在的算力規模已經觸及天花板,輝達今年下半年即將量產出貨的下一代AI工廠算力基石——Vera Rubin,則有望打破這一侷限。它是Grace Blackwell的絕對繼任者。2026年1月6日,輝達創辦人兼CEO黃仁勳在拉斯維加斯舉行的年度消費性電子展上介紹Vera Rubin AI平台Vera Rubin不是普通的伺服器,輝達官方將其定義為由「六大全新晶片建構的單一AI超級電腦」。輝達下一代AI系統Vera RubinRubin平台由六款全新晶片組成,每款晶片都針對AI工廠中的特定角色進行專門設計,並從一開始就作為統一的機架級系統的一部分進行構建。NVIDIA Rubin 平台晶片以旗艦機架系統Vera Rubin NVL72為例,不僅針對峰值性能進行了優化,更注重持續的智能產出:可預測的延遲、在異構執行階段的高利用率,以及將電力高效轉化為可用智能的能力。Vera Rubin NVL72 概覽硬核技術指標 六大核心晶片的算力狂飆Vera Rubin在底層架構上實現了飛躍,其核心關鍵技術包括:Rubin GPU(算力核心):配備了8顆最前沿的HBM4高頻寬內存,單卡顯存容量高達288 GB,內存頻寬飆升至驚人的22 TB/s。在全新NVIDIA Transformer引擎加持下,其NVFP4格式的AI推理性能高達50 PFLOPS(約前代5倍),訓練性能達35 PFLOPS(約前代3.5倍)。Vera CPU(資料調度中樞):專為大模型推理與資料調度打造,採用88個輝達自研的Olympus Arm核心,支援176線程空間多線程技術,可尋址高達1.5 TB的LPDDR5X記憶體。它透過高達1.8 TB/s的NVLink-C2C互連技術與GPU緊密耦合。第六代NVLink與網路體系:實現了單GPU高達3.6 TB/s的驚人互連頻寬(是前代兩倍)。搭配ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-X以太網,徹底打通了百萬Token長文字和多模態大模型的資料傳輸瓶頸。能效與散熱 100%純液冷的「熱水」奇蹟隨著算力狂飆,資料中心最害怕的就是龐大的電力消耗。Vera Rubin雖然功耗大約是前代產品的兩倍,但它做到了一個讓全行業振奮的突破:每瓦性能提升了足足10倍。官方數據顯示,相較於Blackwell,它能以四分之一的GPU數量完成相同的AI訓練任務,而在AI推理時,每百萬Token成本直接降至前代的十分之一。據估計,這樣一個單系統機架的售價將高達350萬至400萬美元。為了壓住這頭性能巨獸的溫度,輝達首次採用了100%純液冷設計,最硬派的是,它甚至能用高達45度的熱水來進行冷卻。這將有助於未來的資料中心大幅減少對水資源的消耗,徹底擺脫傳統冷卻設施的束縛。極簡美學與全球供應鏈協同在狂暴的性能之外,Vera Rubin也展現了極簡的工程美學。相較於前輩Blackwell必須將組件直接銲接在電路板上,Vera Rubin採用了模組化設計,每個超級晶片都可以在幾秒鐘內像抽屜一樣從計算托盤中輕鬆抽出,簡化了維護。在Vera Rubin的供應鏈上,輝達整合了全球至少20個國家的80多家供應商,面對讓全行業頭疼的HBM4內存短缺和成本飆升,輝達AI基建負責人Dion Harris顯得很從容。他表示輝達正在向供應商提供非常詳細的預測,以此來對抗供應鏈的不確定性,確保這套「世界上最複雜的AI系統」能夠如期統治未來的資料中心。王座下的暗流輝達王座之下並非風平浪靜。客戶一邊離不開輝達的機器,一邊又對這種深度的生態綁架感到恐懼。出於戰略安全上的本能防禦,亞馬遜已經在自己的​​資料中心裡,部署了由自研Trainium 2晶片驅動的超伺服器。同樣,Google也在重倉囤積著自家TPU組成的機架,並開啟了商業化的步伐,這些昔日的客戶,很可能搖身一變,成為未來的競爭對手。此外,挑戰者們正在加速步步緊迫。老對手AMD帶著首個整櫃級系統Helios殺入戰場,一舉拿下了Meta高達6吉瓦電力容量的巨大承諾。就像分析師一針見血指出的那樣,客戶們需要更多的算力容量,同時也極度渴望擁有一個可靠的第二供應來源,以此來對輝達形成製衡。面對來自多面的競爭,黃仁勳加固輝達護城河的辦法是在單點晶片技術之外,透過推出Vera Rubin,直接把供應鏈、算力、網路、冷卻系統全部打包,變成一個難以踰越的整櫃級系統壁壘。想模仿我的晶片?可以。但你能複製我這套龐大系統嗎?正如先前AI基建負責人所言:「向所有敢於嘗試的人致敬,但這絕不是一件簡單的事。」在不斷加速的AI算力競賽敘事下,如果說2024年投產的Grace Blackwell重新定義了單一系統所能達到的算力規模,而即將在2026年下半年出貨的Vera Rubin,則更像是為AI工業革命親手建造的算力超級工廠。在老黃「AI經濟學」的邏輯中,算力即所得。只要算力還在驅動營收成長,就不必擔憂AI泡沫。 (新智元)
【輝達財報】單季營收681億美元,淨利429億!輝達財報再次炸裂,黃仁勳"畫餅"智能體
單季營收681.3億美元,淨利潤429.6億美元,資料中心業務強勁增長75%,推理成本實現量級式下降。過去幾個月,資本市場關於“AI泡沫論”的爭議不絕於耳,但輝達剛剛用這份第四財季的硬核成績單,為當前產業情緒注入了一劑強心針。面對這台全速運轉的“印鈔機”,CEO黃仁勳給出了更具野心的行業定調:AI的算力狂飆遠未觸及天花板,由“智能體”驅動的全新工業變革,才剛剛邁出第一步。然而,耀眼的業績光芒下也潛藏著冷酷的現實考題。輝達下季度業績預期完全剔除中國高端市場的資料中心收入。並且隨著智能體加速普及,輝達越成功,傳統軟體生態與白領階層可能受到的衝擊就越嚴重。算力狂潮究竟是經濟催化劑還是傳統產業休止符,將是接下來的核心博弈。從超預期到“新常態” 全景拆解四季度核心財務資料美東時間周三,全球AI算力龍頭輝達發佈截至2026年1月25日的2026財年第四季度及全年財務報告。這份報告不僅再次跨越了華爾街極高的預期門檻,更向外界展示了在AI浪潮的推波助瀾下,一家底層硬體企業能釋放出怎樣的商業潛能。核心財務資料概覽:季度總營收:錄得681.3億美元,同比增長73%,環比增長20%,毫無懸念地創下公司歷史新高。全年總營收:達到2159.4億美元,整體較上一財年增長65%。利潤表現與定價權:季度淨利潤達到429.6億美元(GAAP),同比激增94%,折合每股收益1.62美元。這意味著輝達依然維持著驚人的淨利率。毛利率水平:季度非GAAP毛利率高達75.2%,在硬體製造領域,這已經是難以企及的工業巔峰指標。按業務類股劃分,第四財季輝達資料中心業務營收623億美元,同比增長75%;遊戲和AIPC業務營收37億美元,同比增長47%;專業可視化業務營收13億美元,同比增長159%;自動駕駛和機器人業務營收6.04億美元,同比增長6%。財報發佈後,輝達股價盤後一度上漲超過3%。市場的真金白銀反映了一個共識:只要科技巨頭們的AI軍備競賽不停止,輝達依然是目前產業鏈上最具確定性的標的。資料中心業務狂奔 撐起總營收九成的“壓艙石”在輝達當前的商業版圖中,資料中心部門已經演變為支撐整個公司乃至全球AI產業算力底座的核心引擎。本季度,該類股營收達到623.1億美元,同比增長75%,環比增長22%,貢獻了輝達總收入的91%以上。輝達在財報會議上提供了一個極具參考價值的坐標系:自ChatGPT上線至今,其資料中心業務體量已經膨脹了近13倍。這股龐大的購買力究竟來自那裡?首席財務官科萊特·克雷斯(Colette Kress)在業績會上透露,Google、微軟、亞馬遜、Meta等超大規模雲服務商貢獻了資料中心收入的50%以上。儘管這些矽谷大廠都在緊鑼密鼓地推進自研晶片計畫,但在當前大模型迭代的生死時速下,採購輝達的頂級GPU依然是他們保證算力優勢的最優解。同時,輝達的客戶結構正在經歷健康的多元化演進。除了網際網路巨頭,企業級客戶、主權AI(Sovereign AI)項目以及生物製藥等垂直行業的算力需求正在加速釋放。財報顯示,資料中心計算收入增長了58%,而網路業務更是錄得263%的超預期增長。這標誌著輝達的定位正在發生變遷:從單純的晶片供應商,轉身為AI資料中心級整體解決方案的提供商。不容忽視的第二增長極 暴增263%的網路業務外界的目光往往聚焦於GPU的性能參數,卻容易忽視輝達財報中另一項極具戰略價值的資料:網路業務。本季度,輝達網路業務營收達109.8億美元,同比激增263%。這一爆發式增長主要得益於NVLink、Spectrum-X和InfiniBand平台在產業端的強勁滲透,特別是為GB200和GB300系統量身定製的NVLink計算織網(Compute Fabric)技術的廣泛普及。在萬卡甚至十萬卡等級的AI叢集中,單點GPU的算力只是基礎,如何讓成千上萬顆晶片高效協同、避免資料傳輸瓶頸,才是決定叢集算力上限的關鍵。輝達通過NVLink等高速互聯技術,將鬆散的晶片編織成了運轉緊密的“AI工廠”。從目前的體量來看,輝達已經躋身全球最大的網路裝置公司陣營,這種“晶片+高速互聯”的軟硬一體化生態,構築了競爭對手短期內難以踰越的護城河。黃仁勳的產業前瞻 算力成本驟降推高“智能體AI”浪潮如果說高昂的財務資料證明了當下的統治力,那麼黃仁勳在財報中關於“智能體AI”的論斷,則勾勒了未來的增長邏輯:“計算需求呈指數級增長,智能體AI的拐點已經到來。”區別於此前一問一答的對話大模型,“智能體AI”能夠理解複雜意圖,自主進行規劃、決策並呼叫工具執行任務。黃仁勳指出,企業端對AI智能體的採用率正在飛速爬升。為了支撐並加速這一趨勢,輝達在硬體端做出了針對性部署:Blackwell架構:作為當前階段的算力主力,輝達透露Blackwell Ultra能提供高達50倍的性能提升,並將智能體AI的推理成本大幅降低35倍。領先的推理服務商如Together AI等,目前已通過部署Blackwell將服務成本削減了10倍。Vera Rubin平台:這一剛剛揭曉的新一代超級計算平台包含六款新晶片,其核心目標是在Blackwell的基礎上,將AI的推理成本再降至原來的十分之一量級。成本的斷崖式下降是AI技術實現普惠的前提。無論是10倍還是35倍的降本效應,其背後的商業邏輯都十分清晰:只有當算力變得足夠廉價且高效時,AI才能真正褪去昂貴的實驗場外衣,像電力一樣接入千行百業的業務流。持續擴列的生態圈 從矽谷巨頭到傳統工業的全面滲透強大的生態繫結能力,是輝達平抑周期波動的另一大籌碼。本季度的財報亦披露了其在全球範圍內密集落地的合作網路:Meta的深度繫結:雙方達成了跨世代的大規模戰略合作。Meta不僅將部署數百萬個Blackwell和Rubin架構GPU,還首次決定大規模獨立部署輝達的Grace CPU伺服器。雲巨頭的首批採用:AWS、Google雲、微軟Azure和甲骨文等四大公有雲巨頭,已確認成為首批部署Vera Rubin實例的合作夥伴。加碼大模型前沿:輝達宣佈對知名大模型開發商Anthropic(Claude模型的母公司)進行戰略投資,並達成深度技術協作。全球系統整合商的入局:Infosys、Wipro等印度IT外包巨頭,正在利用輝達的AI工具包為其全球客戶建構下一代企業級智能體。深入傳統工業製造:西門子、達索系統等工業軟體巨頭正與輝達展開深入合作,意在建構覆蓋生產與設計的“工業AI作業系統”。從底層算力晶片到上層模型應用,從雲服務商的資料中心到跨國製造企業的流水線,這種全鏈路的生態滲透,進一步穩固了輝達的產業話語權。資本回饋與業績指引 手握重金與780億美元的下一季目標在創造巨額利潤的同時,輝達在資本市場的回饋力度堪稱豪橫。2026財年全年,輝達通過股票回購(401億美元)和現金配息(9.74億美元),累計向股東返還了411億美元。截至第四財季末,公司帳面現金及現金等價物高達626億美元,且仍手握585億美元的剩餘回購授權額度。豐沛的現金流賦予了輝達極強的抗風險能力,使其能在保證高強度研發投入的同時,持續避險二級市場的波動。更令投資者側目的是輝達對2027財年第一季度的業績指引:營收預期:預計達到780億美元(正負2%),這一數字大幅超越了華爾街此前給出的728億美元的一致預期。利潤預測:非GAAP毛利率預計將繼續走穩於75.0%的歷史高位。營運支出:預計約為75億美元(非GAAP),表明公司仍在持續加碼研發與擴張,以維持技術代差。值得注意的是,輝達宣佈從下季度開始,將把股權激勵費用(SBC)計入非GAAP指標。在科技大廠中,這通常被視為一種提高財務透明度的舉措。此舉也側面印證了管理層對其盈利模型的高度自信:即便將數十億美元的人才保留成本納入考量,其利潤率依然能夠傲視群雄。高光背後的隱憂 市場“真空”、競爭博弈與供應鏈擠壓儘管各項資料依然呈現出烈火烹油之勢,但在財報的細節與宏觀環境中,輝達仍需面對複雜的挑戰。首先仍是中國市場的不確定性。輝達在業績展望中坦言:關於2027財年第一季度的業績預期,並未計入任何來自中國市場的資料中心計算收入。受出口管制政策影響,這一曾經的重鎮目前在高端AI晶片銷售上受到嚴格掣肘。儘管黃仁勳重申希望未來能獲准對華銷售H200晶片,但在當下的財務模型中,輝達實際上已經暫時“脫離”了中國的高端市場。這種剝離雖然反映出海外市場的旺盛需求足以填補空缺,但也暗示輝達迫切希望回歸中國市場。其次,競爭對手的追趕腳步正在加快。AMD正計畫在今年晚些時候推出新一代旗艦級AI伺服器晶片,並且已經成功切入了Meta等核心客戶的供應鏈。與此同時,Google的TPU迭代和亞馬遜的Trainium自研晶片,也在實質性地分流部分雲巨頭的硬體採購預算。此外,供應鏈層面的資源博弈也開始顯現。由於HBM記憶體等關鍵零部件的產能限制,代工廠不得不優先保證高利潤的AI晶片生產,這直接導致輝達的遊戲業務本季度環比下滑了13%。管理層對此預警稱,供應鏈的產能傾斜將在第一季度乃至更長時間內,成為遊戲業務復甦的阻力。結語 AI基建周期的長線邏輯資管機構Deepwater Asset Management分析師基恩·蒙斯特(Gene Munster)在財報後評論道:“市場真正的分歧點在於對2027年和2028年增長空間的判斷。如果你認為AI基礎設施的建設已經步入後半程,那增長必然會放緩;但如果你認同黃仁勳的視角,認為我們才剛剛走完前期的準備階段,那麼輝達的長跑才剛剛開始。”從提供基礎算力的硬體供應商,到支撐“智能體AI”爆發的基建核心,輝達正在深度參與甚至主導新一輪生產力工具的底層重構。但在創紀錄的財報背後,市場也存在另一種擔憂。隨著算力成本大幅下降,AI智能體正在快速替代傳統企業的工作流。輝達越成功,底層算力成本越低,傳統軟體生態和白領階層受到的衝擊就越嚴重。算力的大規模普及最終是提升整體經濟效率,還是導致傳統產業加速衰退,是這份財報留給市場的現實考驗。 (網易科技)
AI的下一步:智能體
人的智能有三個方面:資訊的收集、資訊的處理產生認知、基於認知的行動。大語言模型目前主要的應用形態是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優秀的人才那樣幫我們“做事”,顯然能創造更大的價值。這就需要AI智能體(Agent)。智能體是能做事的AI。LLM是近幾年AI領域最重要的發展。已經在語言理解與生成、對話互動以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻並不能真正地做事情。而在真實世界,大多數認知活動並不止於“給出答案”,而是要有完整的“認知-行動”閉環:我們要求AI得能夠自主的拆解複雜需求,規劃流程,呼叫工具和資源,實現從感知到決策再到執行的完整循環;進一步我們還希望AI的行動能夠超出電腦和網際網路領域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的訊號,進行匹配具身的思考,通過裝置/機器人把決策轉化為執行,對現實環境產生直接影響。打個比方,LLM像是“未出山前的諸葛亮”,善於分析,以“隆中對”和劉備對談,出謀劃策,但限於“紙上談兵”;智能體則是“出山後的諸葛亮”,掌握全域情報,運籌帷幄,組織資源、調兵遣將,親自率軍北伐。智能體以LLM為代表的前沿模型作為大腦,通過軟體工程令其可以在高階目標驅動下完成複雜任務。可以說未來大部分的複雜AI應用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵人》中的賈維斯或《2001:太空漫遊》中的HAL 9000,正是創作者對以Agent為載體的未來AI的直觀想像。只是和物理世界交換的AI本身就極為重要和複雜,現在習慣上把這部分單獨放在具身智能/機器人領域討論。智能體能力的構成為了在各行各業的應用中發揮出顯著價值,理想中的智能體需要具備幾個關鍵條件。首先,智能體應具備強大的目標理解和規劃能力來體現智能的自主性。理想狀態下,人類只需給出抽象目標,智能體便能理解目標、拆解任務、規劃行動,並在儘量少的人工干預下完成執行閉環。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據"拯救宇航員"這一目標,自主判斷局勢、制定和調整行動策略,甚至做出犧牲自己資料的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規劃、決策),能夠敏銳的決策,能夠基於執行結果與環境反饋動態調整任務規劃,而不是僵化的執行既定路徑。其次,我們希望智能體能“動手”做事:執行和互動能力。這就意味著它能夠使用工具、執行操作,並能與外部環境發生直接互動。在數字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點選螢幕的方式來完成任務;也可以通過其他程序或系統介面來呼叫工具;還可以發揮模型特長,通過編寫和執行程式碼來達成目的。在物理世界中,智能體則需要與各類控制系統和裝置相連接,通過下達指令來操控物理對象,將智能決策轉化為現實行動。第三,我們希望智能體具備出色的記憶與學習能力。記憶和狀態管理能力是完成長程、複雜任務的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務支援,智能體需要跨會話地記住使用者偏好、歷史互動與長期狀態,才能減少重複溝通、提升服務質量;在企業級應用中,如跨周期項目管理、複雜業務流程推進等,則需要智能體記住任務進度、中間結果與關鍵決策依據,確保任務在長周期、多階段執行中保持連貫性,不中途偏離既定目標。學習能力的意義是我們希望智能體能持續提升,像人類員工一樣可以從職場小白通過經驗積累和吸收新知進化成專家。最後,智能體還需要有很強的可靠性、可控性,才能規模化的帶來價值。這既體現在智能體能否穩定、魯棒的完成任務,也體現在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫遊》中,AI為完成任務選擇犧牲人類乘員,正是目標函數與人類價值未能有效對齊的極端後果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風險可能會被進一步放大。如何建構智能體有了理想的標竿,我們怎麼建構智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟體工程來搭建一個系統,彌補模型的不足,儘量逼近理想智能體的形態。大模型是目前智能體大腦的最優選擇,因為大模型的兆參數壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內的多種非結構化資料的萬能介面,擁有不錯的泛化能力構成處理各類任務的基礎。而以OpenAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發展進一步助推:加強的推理能力帶來更強的任務分解和規劃,更好的自檢和糾錯,也令智能體對工具的使用可以更加精準。大模型有一些結構性弱點,直接限制了智能體在真實業務中的應用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設定邊界、約束行為。首先,大模型本身沒那麼可靠:存在無法根除的幻覺問題、知識時效性問題,任務拆解和規劃經常不合理,也缺乏面向特定任務的系統性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發實際操作風險;而真實業務任務往往是跨系統、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務的失敗率居高不下(例如單步成功率為95%時,一個20步鏈路的整體成功率只有約36%)。為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預先設計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別並過濾高風險輸出;在關鍵鏈路節點上設定人工審批,讓人類對高風險動作“最後拍板”。其次,大模型的記憶能力有缺陷:大模型在訓練時“記住”了大量知識,但訓練完成後並不會在使用中持續學習、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務的資訊(不同模型有不同上限,超過窗口的內容就會被遺忘),而無法像人一樣自然地維持穩定、長期的個體記憶。但在真實業務中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續記住學生的學習歷史、薄弱環節和偏好,才能在後續的講解與練習中真正做到“因人施教”。針對這些記憶缺陷,智能體工程通常採取以下手段進行增強:建構外部記憶庫將使用者偏好、業務知識、歷史互動等儲存在資料庫中,智能體在需要時通過檢索機制按需提取相關資訊,應對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心資訊,釋放Token空間,來應對資訊過載導致的短期記憶遺忘。除了補短板,因為智能體要行動、要和環境互動,需要有感知和執行。首先,大模型本身無法主動感知,只能對輸入被動響應。智能體需要用外部感知元件來主動獲取環境資訊。對於數字世界的任務,通過智能體工程可以建立基於時間的觸發器,定期檢查日誌、郵件、股價變動等;或基於事件的訂閱、監聽,接收API推送的事件通知,或當資料庫發生變更時自動喚醒記錄資料。在物理世界中,智能體還可以通過感測器、攝影機、麥克風等裝置採集視覺、聽覺、觸覺等訊號。其次,大模型沒有天然的執行能力,需要輔以智能體工程來將意圖轉化為實際操作。工具呼叫是當前最主流的方式,大模型根據任務需求,生成結構化的函數呼叫指令,由智能體框架解析後執行相應操作,比如呼叫天氣API、資料庫查詢、傳送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來“看螢幕、點按鈕、填表單”來完成任務,近期大火的豆包手機就是這樣完成智能體操作;對於更複雜的任務,智能體還可以配置程式碼直譯器(Code Interpreter / Sandbox),讓模型程式設計運行,這可以極大的擴展智能體的行動邊界。當下智能體的能力邊界剛剛過去的2025年被不少AI從業者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益於以下幾個條件的成熟,過去一年左右的智能體發展進入快車道:首先是大模型的持續進步,主要體現在推理模型的出現提供了更強的任務理解、規劃能力,以及多模態模型的發展為智能體能夠處理和生成更複雜的資訊提供了基礎。其次是基礎設施和生態的成熟,包括LangChain、AutoGPT等開源框架經過兩年的迭代,已經形成了一套標準化的開發範式,極大地縮短了開發周期;Dify、Coze(扣子)等低程式碼/無程式碼平台的普及,讓不懂程式碼的業務人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發佈的MCP(模型上下文協議)和skills(技能系統)給智能體生態提供了重要的標準和啟發:MCP作為一個開源協議標準,令大模型與外部資料來源或工具之間的互動更統一、便捷,Skills則是把人類設計的完成某類任務所需的能力/工作流打包起來,讓Agent在這類任務上可以更穩定的工作,雖然技術含量不高,但在當下有很強的實用性。再次,學術界和產業界都有大量的人才、資源投入到智能體領域,以ACL(國際計算語言學協會年會)2025為例,有超過230篇論文和智能體相關,為歷年最高,涵蓋規劃、工具使用、多智能體協作與評估等多個方向。在能力的提升、生態的健全、資源的投入影響下,各行各業正在嘗試把智能體真正的用起來。根據麥肯錫2025年全球調研顯示,約62%的受訪組織已在部分業務中嘗試智能體(23%為至少一個場景的規模化部署,39%為試驗性應用);但從業務職能的具體採用資料來看,產業對智能體的應用還處於早期階段:根據該調查,對於智能體應用最多的職能依次是IT、知識管理、行銷和服務,以應用最多的IT為例,僅有2%和8%的受訪企業IT部門全面規模化(Fully Scaled)和規模化(Scaling)的應用智能體,以及6%和7%的企業IT部門試點(Piloting)和試驗(Experimenting)的應用。造成這種規模化應用水平較低的原因有兩方面,一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業的企業應用者要把智能體用好還需要一些自身條件的配合。第一方面,除了短任務鏈條的資料分析、生成、檢索等方面的應用,智能體現在規模化應用場景大體可以概括為兩類,一是在程式設計領域,程式設計是智能體最理想的"練兵場",環境隔離、容錯率高,目標明確、目前規劃能力能應對,程序可執行,還有即時的執行反饋。這令其成為智能體第一個大規模、商業化的突破口。二是在各行各業的各種業務(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應對智能體深度理解(規劃、決策)能力不足的權宜之計,通過把智能體的任務的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務上的工作質量。智能體進一步的規模化應用需要其能力進化,為企業能夠帶來切實的價值。第二方面,企業要用好智能體需要組織和資源上的匹配。根據Anthropic 2026年的最新調研,46%的受訪者表示與現有系統的整合是智能體部署的主要障礙,43%和42%的受訪者分別指向實施成本和資料的可及性/質量,40%和39%的受訪者表示安全/合規和員工的學習成本/抵制是重要障礙(中小企業尤其擔心學習成本,51%的受訪者指向這一點)。對於企業的顧慮,成本、安全等問題和技術進步的關係較大,但資料問題、整合問題、學習或人才問題都是需要企業通過組織變革、進一步數位化和全員的學習來提升。總結與展望未來,智能體將會是我們在各行各業、各種場景應用人工智慧的主要載體。可以預見,隨著模型能力和智能體工程的進步,企業資料治理和組織適配的提升,智能體會逐步成為每家企業極有競爭力的數字員工,和我們人類員工競爭與協作。從路徑上看,前面提到現在智能體規模化應用集中在程式設計和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預期智能體的應用會不斷拓展邊界,能承擔更抽象、複雜的任務,更多的自主規劃和決策,來把人類的意圖轉化為結果。當然,突破不等於拋棄工作流。在企業高風險場景裡,工作流/權限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應用的安全。在相當長的時間內,人類的審批、審計在智能體工作的閉環中可能都是不可缺少的。智能體發展的另一個關鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的互動方式——無論是購物、社交,還是資訊獲取——並可能對很多產業的商業邏輯產生顛覆性影響。過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了裝置級智能體的嘗試:它將智能體能力深度嵌入作業系統,通過模擬人類操作以調取各類App,為使用者完成任務。後者則是一種始終線上的解決方案,能夠主動觀察與執行任務,並通過本地部署獲取豐富的個性化資料和軟體控制權,初步體現了個人助手型Agent的一些核心特徵。根據IDC的預計,活躍智能體的數量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年後,能夠幫助企業或個體執行任務的數字勞動力數量將是現在的近80倍,年複合增長率139%;任務執行的數量將從2025年的440億次暴漲至2030年的415兆次,年複合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5兆億,年複合增長34倍。IDC的預測未必精準,但趨勢非常明顯,每一家企業都要為此做好準備。 (FT中文網)
“20世紀發明的所有職業,都難逃AI的衝擊”
《黑天鵝》作者、以毒舌和高智商著稱的納西姆·塔勒布最近發了一條推文,只有一句話:“20世紀發明的所有職業,都難逃AI的衝擊。”很多人看到這句話,可能會想:這不是又在危言聳聽嗎?AI已經被鼓吹了好幾年了,該來的還沒來,說好的白領失業潮呢?但非常有意思的是,在塔勒布發出這條推文的整整一年前,我就對我的星球會員提出過一個幾乎一致的判斷和觀點:AI和機器人取代技能的方向,是和人類發展的歷史反著來的。出現得越晚的、離我們越近的技能,越可能最早被替代。我將其稱為“AI替代的逆向歷史演化定律”。人類文明技能的演化順序是怎樣的?第一階段是體力與空間感知(農業、狩獵、採摘);第二階段是物理工具與精密製造(工業革命、手工藝);第三階段,也就是20世紀才大規模爆發的,是抽象符號與資訊處理(財務分析、程式碼編寫、法律文書、中層管理等坐在寫字樓裡吹空調的“白領工作”)。而殘酷的真相是:AI和機器人取代人類的順序,恰恰是跟人類歷史的發展反著來的。出現得越晚的、距離我們越近的、看起來越“高級”的抽象腦力技能,最早、也最容易被大模型連根拔起;反而是那些最古老的技能(如理髮、按摩、修下水道、甚至端盤子),因為涉及複雜的現實物理互動,反而擁有最深的護城河。塔勒布說的是20世紀發明的所有工作,我說的是越晚出現的越先被替代,其實異曲同工,核心邏輯是一致的。它們指向同一件事,白領工作,作為20世紀最重要的發明之一,正處於這場風暴的絕對中心。白領工作最壞的時候,還遠遠沒有到來。正如《大西洋月刊》最近的一篇深度報導中所比喻的:“任何見過鯊魚背鰭露出水面,隨後又消失不見的人都知道,這絕對不是什麼讓人安心的跡象。”為什麼最懂AI的人在紛紛離職:“我凝視過無盡的黑夜”一、嚴肅媒體開始頻頻發出警報先說一個背景,讓那些覺得"AI威脅被誇大"的讀者先冷靜一下。《大西洋月刊》在過去兩周內,連續發表了三篇長文,專門討論AI對白領就業的衝擊。三篇文章,三個作者,三個角度,但一篇比一篇嚴峻。第一篇,《美國尚未準備好迎接 AI 對就業的衝擊》。作者喬什·泰蘭吉爾(Josh Tyrangiel)走訪了經濟學家、聯儲官員、工會領袖、前政府高官,最後得出一個讓人不安的結論:所有的緩衝機制都失靈了,政治系統沒有能力應對這場衝擊。第二篇,《AI智能體正如風暴席捲美國》,記者里拉·什羅夫(Lila Shroff)描述了AI智能體工具的爆炸性發展。兩個沒有工程背景的記者,用不到一小時"氛圍程式設計"出了Monday.com的競品,當天Monday.com股價應聲暴跌。第三篇,也是最近一篇,《白領工人最糟糕的未來》,作者是經濟記者安妮·勞裡(Annie Lowrey)。通過分析就業資料,她得出結論:擁有學士學位的美國人佔到了失業人數的四分之一,創歷史新高;高中畢業生比大學畢業生更快找到工作,這是從未有過的趨勢;容易被AI自動化的職業,失業率出現了急劇飆升。《大西洋月刊》不是小某書,不是財經自媒體。它是創辦於1857年的嚴肅刊物,發表過馬丁·路德·金的文章,出過無數普利策獎作品。它在兩周內連發三篇長文討論同一件事,本身就是一個訊號。其實,就在不久前,大西洋月刊還認為AI的泡沫即將破裂。這種反轉顯然不是在追熱點,而是試圖精準捕捉一個正在發生的歷史性事件。二、你不知道的,才是最危險的在這三篇文章裡,第二篇讓我印象最深。不是因為它最嚇人,而是因為它精準描述了一道正在撕裂的鴻溝。作者什羅夫說,美國人現在活在兩個平行的AI宇宙裡。大多數人的AI認知,停留在ChatGPT,還是免費版本。它能幫你起草一封郵件,寫一段行銷文案,回答一個問題。有點用,但也就那樣。你用它,就像用了一個更聰明的搜尋引擎。但另一批人,如工程師、研究人員、科技圈深處的人,正在被另一類工具"激進化"。這些工具叫做AI智能體(Agent),它不是聊天機器人,它是能獨立工作的數字員工。什麼是智能體?它不再是被動等待你輸入指令的對話方塊,而是具備“代理性”(agentic)的虛擬員工。你給它一個宏大的目標,它會自己去拆解任務、自己上網搜尋、自己寫程式碼、自己運行測試、自己糾錯,甚至幾個AI之間會拉個群“討論”工作。區別在那裡?聊天機器人等你問,它才回答。智能體收到任務後,會自行規劃步驟,呼叫工具,搜尋資訊,自主執行,連續工作數小時,中間不需要任何人介入。Anthropic的員工鮑裡斯·切爾尼描述Claude Code時說了一句話,讓人久久回味:"Claude開始想出它自己的主意,並且正在主動提議要建構什麼東西。"不是被動執行,是主動提議。當電腦開始能夠自主使用電腦,人類引以為傲的所謂“認知壁壘”和“名校學歷”,在不知疲倦、算力無限的Agent大軍面前,顯得極其可笑且脆弱。工具變成了能夠自主思考和執行的“同事”,甚至,它們很快就會變成你的“領導”。在過去,人類程式設計師同時只能開一個腦線程寫一段程式碼;而現在,一個老手可以同時開啟十幾個Agent會話,讓它們分頭處理資料庫、前端、演算法。軟體程序的容錯率極低,行就是行,不行就是不行,這種非黑即白的特性讓程式設計成為了自動化最完美的試驗田。目前,Anthropic公司內部90%的程式碼已經是AI生成的。這兩個宇宙之間的距離,比多數人意識到的要大得多。一邊的人覺得AI威脅被誇大;另一邊的人已經用AI把幾個月的工作壓縮排了幾天。他們描述的不是同一種工具,他們生活在不同的時間軸上。這道鴻溝不會永遠存在。當那些更易用的智能體工具從工程師的終端走向每一張辦公桌,兩個宇宙就會合併,只不過方式會很殘酷。三、歷史的倒帶,以及為什麼白領最脆弱說說我一年前的那個判斷。人類積累技能的歷史,是一條從身體到大腦、從具體到抽象、從感官到符號的長路。最古老的能力,如用手打磨石器、用鼻子分辨植物、用腳感受土地的軟硬,這些技能藏在人類幾百萬年的進化裡,AI很難複製,因為它們需要具身的存在,需要真實的物理反饋。但20世紀"發明"出來的那些腦力勞動,如分析報告、起草合同、處理會計帳目、管理項目流程、協調跨部門溝通等等,這些技能的本質,是資訊的處理、分類、轉化和傳遞。而這,恰恰是AI最擅長的事。換句話說,人類花了數百萬年進化出來的身體技能,反而是AI最難攻克的;人類花了幾十年訓練出來的認知技能,正在被AI幾年內系統性地覆蓋。這就是一種"倒帶"的邏輯。《大西洋月刊》的資料印證了這一點。在美國,高中畢業生比大學畢業生更快找到工作,這在歷史上從未發生過。水管工、電工、暖通技術員的位置,目前是安全的,因為安裝一套製冷系統,你需要手,需要身體,需要那種只有在具體空間裡才能發展出來的判斷力。反倒是那些花了四年大學、兩年研究生、幾年工作經驗,練就了"寫報告、做分析、管流程"能力的人,現在坐在AI的射程正中央。在《白領工人最糟糕的未來》一文中,安妮·勞裡在文章裡用了一個詞組:womblike security,子宮般的安全感。她說,對受過良好教育的人來說,勞動力市場歷來擁有一種子宮般的安全感。經濟衰退來了,失業的是藍領;產業轉移了,受傷的是工廠工人;這批人總是能在風暴裡找到庇護。如今,白領的這種安全感,正在率先消失,這種長達半個世紀的錯覺即將被終結。20世紀70年代,機械自動化的進步摧毀了底特律、匹茲堡的藍領社區,留下了至今無法恢復的“鐵鏽地帶”;後來,全球化又讓一批製造業工人黯然退場。他們變得更窮、更不健康,甚至壽命縮短。現在,這場歷史的絞肉機,終於開進了CBD的甲級寫字樓。為什麼白領的危機比藍領更致命?因為藍領失業,社會還有一定的心裡預期和廉價的兜底方案;但整個社會的福利系統,根本托不住跌落的中產階級。更致命的是,這是一場“結構性失業”,而不是“周期性失業”。過去經濟不景氣,你熬一熬,等經濟復甦了公司還會把你招回去。但AI帶來的結構性失業意味著:企業一旦打通了AI工作流,發現不僱傭你反而利潤更高時,那個崗位就永遠地消失了。那些初級的白領工作(資料整理、基礎分析、初級法律文書、文案撰寫)將首當其衝被清零。年輕人的晉陞階梯被直接抽走,而那些拿著六位數高薪的中層管理人員,一旦失業,可能將面臨長達數年的空窗期,因為根本沒有那麼多需要“人力協調”的崗位留給他們了。富裕階層對即將到來的就業市場毫無經驗。當白領階層失去收入,他們會削減開支,緊接著,雜貨店、餐廳、理髮店、房地產全盤崩潰,全社會將陷入一場由技術引發的深度通縮陷阱。四、為什麼還風平浪靜:精英集體裝睡,經濟學家“看後視鏡開車”有人可能會說:AI威脅說了這麼久,但失業潮並沒有真正出現啊?這個問題恰恰是盲區所在。《美國尚未準備好迎接 AI 對就業的衝擊》一文,揭露了這種“風暴前夜的寧靜”背後的系統性失靈。首先是經濟學家的盲區。經濟學家的工具,只擅長解釋已經發生的事,對正在發生的事無能為力,對即將發生的事更是兩眼一抹黑。這幫世界上最聰明的大腦,受制於必須看實打實的統計資料。他們總喜歡用歷史上的通用技術(如電力、網際網路)來套用AI,認為“技術的消化需要幾十年時間”。芝加哥聯儲行長奧斯坦·古爾斯比(Austan Goolsbee)被問到同樣的問題時,給了一個"答非所問"的回答:經濟學家受制於數字,從數字上看,目前沒有跡象表明AI已經侵蝕了勞動力市場。但他同時承認,有一個讓他搞不懂的矛盾:生產率資料非常高,這和"勞動力囤積"的假設對不上。公司到底在用AI做什麼?資料還解釋不了。"要好幾年才能知道答案,"他說。但弗吉尼亞大學的經濟學家安東·科裡內克(Anton Korinek)一針見血地指出了同行的荒謬:“機器一直都是愚蠢的,所以鋪開使用需要時間。但現在它們(AI)比我們聰明,它們是可以‘自行鋪開’的。”AI不需要你拆毀舊工廠重建,它只需要幾行API介面。經濟學家們試圖用過去作為固定點來衡量未來,這無異於“只盯著後視鏡在懸崖邊飆車”。科裡內克還說了另一件事,讓人印象深刻:他是Anthropic經濟顧問委員會的成員,他定期和Anthropic內部的人交流。他說,"每當我和西海岸實驗室的人交流時,我並沒有覺得他們是在人為地炒作他們的產品。我通常的感覺是,他們和我一樣感到恐懼。"最瞭解這項技術的那批人,感到恐懼。正如我們在之前的文章中所介紹的,最懂AI的人在紛紛離職,因為他們“凝視過無盡的黑夜”。其次是CEO們的“陽謀”。2025年初,有過一段短暫的時期,各大公司的CEO們爭先恐後地公開談論AI對就業的影響。Anthropic的CEO達里歐·阿莫戴伊(Dario Amodei)說AI可能在未來一到五年內消滅一半的初級白領工作;福特CEO吉姆·法利(Jim Farley)說AI將在十年內"毫不誇張地消滅一半的白領工人";OpenAI的薩姆·奧特曼(Sam Altman)說他和科技大佬朋友們在打賭,第一家只有一名員工、估值卻達十億美元的公司什麼時候出現。如今,他們都對類似的話題三緘其口,閉口不談了。這不是因為他們發了善心,而是華爾街的公關策略。他們正在經歷“勞動力囤積”的最後階段。大公司內部運行著比化石還古老的大型機(Mainframe),AI的接入目前卡在了這些陳舊的系統對接上。但只要這個介面一打通,等待白領的,就是一夜之間毫不留情的屠刀。泰蘭吉爾在他的文章裡提到一件事:他去採訪這些人。沃爾瑪、亞馬遜、福特、Meta,以及那些AI驅動型公司——Anthropic、Stripe、Waymo——的高管們,全部拒絕或忽視了採訪請求。就連代表美國最具權勢的200名CEO的"商業圓桌會議",也表示沒有什麼可說的。沉默,是資本收網前最後的偽裝。最後是失靈的政客。在這個顛覆性的力量面前,美國最高權力機構變成了一艘“幽靈船”。科技巨頭狂砸上億美元遊說資金,核心訴求只有一個:別管我們,讓我們全速前進。就是我們在昨天文章中所說的“加速主義”。也許有人會說:即使出現大規模失業,國家總會有辦法的吧?歷史上每次技術革命,社會都適應過來了。Lowrey的文章做了一件很重要的事情,她把這個安慰性敘事拆開來檢驗。美國有一套應對經濟衝擊的成熟工具:失業保險、勞動力再培訓、貨幣政策刺激、財政擴張。這些工具有一個共同的前提:衝擊是周期性的,就業市場會恢復,人們需要的只是一段過渡時間。但AI帶來的不是周期性失業,而是結構性失業。這兩者的區別是:周期性失業是需求暫時下降,過段時間企業又會招人;結構性失業是那批工作永遠不再需要了,企業不是在等待,而是在告別。勞動力再培訓計畫呢?研究的結論是"微乎其微且沒有定論"。有研究發現,這類項目對參與者、納稅人和整個社會都產生了"淨負面價值"。最後那張王牌是UBI,即全民基本收入,每人每月發1500美元,讓大家安心生活。矽谷領袖們最喜歡這個方案,奧特曼曾詩意地說,人們將被解放,花更多時間陪伴愛人、欣賞藝術、致力於公益。不過,UBI更可能是一個反烏托邦的結局,不是烏托邦。一個失業率徘徊在30%、靠政府發錢活命的社會,不是任何人想要生活的地方。更何況,那筆錢從那裡來?必然是對企業徵稅,而企業會拚死抵抗。工具失靈了,兜底網破了,政治上又有人在搶方向盤。沒有人準備好,所有人都處於一種被資本裹挾的“裸奔”狀態。前英國副首相尼克·克萊格(Nick Clegg)的判斷很直接:"這一時期所要求的變革速度可能遠遠超出它們目前顯然有能力交付的速度,如果民主政府隨波逐流地進入這個時期,那麼民主制度在這個考驗中是無法高分通過的。"七、AI的降維打擊,不分國界也許很多人會想,這都是美國的事,離中國還遠著呢。但AI是軟體,不尊重國界。在這種異星種能面前,人人平等。而且我們面對的處境,在某些方面比美國更脆弱:社會保障體系更薄,勞動者在這場對話裡幾乎沒有發言權,而"白領安全"的神話,在中國網際網路上比在美國更根深蒂固。那些覺得AI只是工具、威脅被誇大的人,大機率還沒用過那類真正的智能體工具。他們的AI認知,停留在ChatGPT幫人寫封郵件的階段。這不是他們的錯,因為這道資訊鴻溝本來就是結構性的,真正強大的工具還在技術圈內流通,還需要一定的門檻。現在最重要的分野,不是你學歷高不高、城市大不小,而是:你是否真正理解那些最前沿的AI工具能做什麼。這道認知鴻溝,正在決定人們在未來幾年處於那一側。那麼,作為個體的我們,該如何在這場大清洗中倖存?答案依然藏在那個“AI替代的逆向歷史演化定律”裡。既然20世紀發明的“資訊中間商”工作註定被消滅,我們就必須放棄對傳統白領路徑的迷信。我們需要向兩端突圍:1、向下紮根(重塑物理現實):掌握AI無法觸達的複雜物理環境技能,或者提供需要極高情緒價值、真實人際連結的服務。2、向上破局(成為AI的指揮官):既然Agent是世界上最聰明且最廉價的勞動力,那就不要試圖和它比拚表格做得快、程式碼寫得好,而是去僱傭它。鍛鍊你的頂層審美、複雜博弈能力和模糊環境下的決策力。白領時代的黃昏,註定是舊物種的安魂曲。寫字樓裡的工位正在一個個消失,這不是危言聳聽,而是正在發生的現在進行時。最壞的時候遠沒有到來,因為系統崩潰前的滯後掩蓋了技術的鋒芒。當冰面即將徹底破裂時,假裝歲月靜好是最愚蠢的策略。風暴已經在海上。我們連測量它的儀器都在被拆掉。多數人還在討論今天是否真的會下雨。 (不懂經)