#聊天
世界經濟論壇最新發佈《執行中的人工智慧代理:2025 年評估和治理基礎》:企業如何讓 AI agents 既強大又可靠?
在 AI 技術迅猛發展的當下,AI agents(人工智慧代理)正從實驗室原型走向企業實戰,成為提升效率的“數字員工”。然而,如何讓這些“智能助手”既強大又可靠?世界經濟論壇(WEF)與Capgemini攜手發佈的《AI Agents in Action: Foundations for Evaluation and Governance 2025》(人工智慧代理在行動:2025年評估和治理基礎)白皮書,給出了實用答案。這份報告為決策者、技術領袖和從業者量身打造的“行動手冊”,幫助大家從實驗到部署,一步步建構安全、可信的 AI agents 生態。AI agents:從“聊天機器人”到“決策夥伴”的躍遷在呼叫中心,過去是指令碼化的聊天機器人,現在是能理解意圖、動態決策的AI agents;在企業流程中,它不再是靜態工具,而是像人類同事一樣規劃任務、呼叫資源。報告前言中,Capgemini Invent首席執行長Roshan Gya和WEF人工智慧卓越中心負責人Cathy Li 表示:AI agents 的興起將帶來效率飛躍、人機互動革新,甚至催生全新數字生態。但機遇伴隨挑戰——目標錯位、行為漂移、工具濫用等風險,正考驗著傳統軟體治理的極限。這份報告的核心洞見是:AI agents 不是簡單升級,而是範式轉變。它借鑑人類入職流程——定義角色、測試表現、逐步授權——強調“最小特權原則”,即只賦予必要權限。報告調研顯示,目前多數企業還停留在規劃或試點階段,這正是“從小處起步、迭代謹慎、防護適度”的最佳時機。如果貿然推進,未經驗證的用例可能釀成信任危機。報告建議:通過跨職能協作和漸進治理,讓AI agents放大人類智慧,推動創新,提升生活品質。技術基石:建構可靠的 AI agents 架構AI agents的軟體架構、通訊協議和安全模型,直接決定了它們如何融入組織、與世界互動。就像招聘新員工,企業需為AI agents搭建“工作站”——清晰角色、防護機制、監督體系。AI agents的架構分為三層:應用層、編排層和推理層。簡單說,應用層是“門面”,通過使用者介面或API接收輸入,確保輸出符合業務需求,可在雲端或邊緣裝置運行。編排層像“項目經理”,協調工具呼叫、子代理分工,支援模型切換(根據任務複雜度選大模型或小模型),並通過Model Context Protocol(MCP)連接企業資源,如資料庫或CRM系統。這層讓AI agents擺脫供應商鎖定,實現多雲多邊環境的無縫協作。最有趣的是推理層:它驅動AI agents的“思考”——從規則邏輯到生成式模型,處理預測、分類或規劃。報告用圖示說明:這些層協同工作,形成動態邊界,確保AI agents在安全圍欄內行動。舉例來說,在多代理系統中,A2A(代理間協議)和ACP(代理連接協議)讓它們像團隊一樣協作,處理複雜依賴。報告強調,建構AI agents不止工程,還需orchestration(編排)。它融合四種範式:經典軟體的確定邏輯、神經網路的模式識別、基礎模型的上下文適應,以及自主控制的規劃機制。這讓AI agents從“執行命令”進化到“自主決策”,但也引入新複雜性——需結構化腳手架,避免行為失控。通訊與安全:讓 AI agents “對話”無障礙協議是AI agents的“通用語言”。報告重點介紹2024年底Anthropic推出的MCP,它標準化了代理與資料來源、API的連接。過去,每個代理任務需定製整合;現在,MCP如共享介面,讓代理輕鬆查日曆、讀郵件、更新資料庫。報告圖示生動:代理A發郵件更新記錄,代理 B 確認資料庫變更,整個過程高效模組化。MCP已獲主流框架支援,被視為連接代理與企業基礎設施的核心。它加速部署,支援即插即用,尤其在雲、邊緣和感測器資料場景。另一協議A2A則專注代理間互動,形成multi-agent systems(MAS)的互操作層。報告展望:這些協議將讓AI agents在雲平台、企業網和邊緣裝置間自由流動,開啟即時感測器驅動的智能時代。安全不容忽視。AI agents架構獨特,能越過組織邊界呼叫外部工具,這帶來網路安全新憂。報告建議:視AI agents為“擴展員工”,用人類治理邏輯——權限漸增、行為測試、人機環路——管理風險。傳統存取控制已不足,需關注自治、權威和上下文,確保可靠邊界。分類與評估:從角色定義到風險把控報告第二部分轉向實用:如何分類、評估和治理 AI agents?它提出功能分類框架,按角色、自治度、權威、可預測性和營運上下文區分代理。這不是抽象標籤,而是指導評估與防護的藍圖——任務範圍小、環境可控的代理,防護可輕;高自治、高影響的,則需嚴謹審查。評估是關鍵。報告建議:用驗證案例測試行為,在人機環路中運行,逐步擴展自治。風險評估聚焦新威脅,如目標錯位或協調失效,借鑑OECD、NIST、ISO/IEC框架,擴展自治與系統風險原則。報告強調漸進治理:從小規模起步,迭代最佳化,連接評估與防護,確保信任、安全與問責。展望未來:多代理生態的曙光報告結尾展望多代理生態:代理間協作將催生複雜生態,如分佈式決策網路。但需警惕 emergent risks(湧現風險)。通過 AI 治理聯盟的協作,報告建議:從小做起,建好基礎,為更廣闊應用鋪路。 (AI資訊風向)
聊天機器人已死,前沿AI代理人才是未來
在2025 年AWS re:Invent 2025 上,AWS 向全世界宣告-「聊天機器人時代」已結束。曾經讓人驚嘆的AI 聊天助手,如今被一種更強大的存在所取代——Frontier Agents(前沿AI 代理人/ 智能體)。這些智能體不只是會“對話”,它們已經足夠先進,可以獨自工作數日。也就是說,AI 不再只是工具,而是真正能夠承擔任務、產出結果、解決問題的「數位同事」。本文將帶你深入了解這場變革背後的邏輯、技術、商業意義,以及對企業與未來工作的深遠影響。為什麼說“Chatbot 熱潮已經結束”✳️ 聊天機器人的限制已經顯現過去兩年裡,大量公司和開發者蜂擁建構各類聊天機器人,無論是客服、問答、內容產生、陪聊,或是內部工具助理。這些聊天機器人依賴的是「對話+ 模板+ LLM 回應」的模式—— 用戶提問,對話系統回應,整個過程極為依賴用戶的主動參與。然而,這種模式已經遇到三大瓶頸:只能被動回應:必須有人啟動對話,告訴它該做什麼。對於複雜、跨越多個步驟的任務無能為力。上下文管理差:多數聊天機器人只考慮當前對話,難以追蹤過去的狀態,更別提「記憶」與「進度」。生產效率低:生成一段文字、給建議還好,要完成工作、推進流程,就顯得力不從心。隨著業務複雜性與自動化需求的提升,聊天機器人的「wow 效應」不再令人滿足。企業和開發者開始意識:我們真正需要的是,能夠主動執行任務、持續運作、自主做決定的AI。什麼是前沿AI 代理人(Frontier Agents)🤖 從助理到代理人:AI 的新範式「Agent」——這個詞在AI 領域已經有長期歷史,但其本質是:一個可以觀察環境、收集數據、制定計劃並執行任務的軟體系統。它不僅聽指令、聊聊天,而是能看清目標,自主作業。前沿AI 代理人的特點包括:自主性高:在給定目標後,無需使用者持續干預,就能推動任務向前。持久運轉:可以工作數小時、數天,處理複雜、連續的任務流程。多工& 可擴展:不僅能處理一個簡單請求,還能並行處理多個任務,有類似團隊成員的能力。工具& 環境呼叫能力:不僅限於文字生成,還可以呼叫程式碼庫、API、第三方服務、資料庫等,實現端對端自動化。換句話說,前沿AI 代理人代表了AI 從「聊天+ 回答」邁向「思考+ 行動+ 落地執行」的關鍵進化。AWS 的大動作:Frontier Agents + AgentCore + 強大基礎設施在AWS re:Invent 2025 上,AWS 的發布可謂下足了狠手—— 不僅推出了Frontier Agents,還為它們配備了完整的運行系統與基礎設施保障。✅ 三大重點突破三類「出廠即用」 Frontier Agents:Kiro Agent — 虛擬開發者,能夠自動編寫、修改程式碼,處理倉庫任務與bug 修復。AWS Security Agent — 安全顧問,負責雲端安全監控、漏洞掃描、策略分析。AWS DevOps Agent — DevOps/維運代理,自動處理部署、監控、資源管理等任務。Amazon Bedrock AgentCore — Agent 的作業系統對於運行AI 代理人,光是有模型還不夠,還需要穩定的「agent 平台」。 AgentCore 提供狀態管理、情境追蹤、權限控制、多agent 協作、日誌與監控,是生產環境層級不可或缺的基礎架構。 底層硬體+ 混合部署能力為了解決AI agent 運算量大、資源消耗高的問題,AWS 同步推出了新一代硬體-Trainium3 UltraServer,號稱效能提升4.4 ×。同時,透過「AI 工廠」(AI Factories)解決企業對資料主權/ 隱私/ 本地化部署的顧慮:直接把算力帶入企業本地資料中心。 透過以上佈局,AWS 不只是發布幾個AI 產品,而是在建立一個完整、可規模部署、適合企業使用的「Agentic-AI 平台」。它試圖把AI agent 從「學術/ 實驗室玩具」變成「企業生產力工具」。為什麼這次轉變極具商業與時代意義效率提升+ 降本增效公司再也不需要為每個腳本、每個自動化流程都手撕程式碼,代理人可以全天候工作,大大提升工程效率。例如有企業使用AgentCore,將原本費時費力的開發流程壓縮到數周/數天內。 釋放人類勞動力,讓「高價值工作」 回歸人類代理人可以負責重複、機械、規則明確的任務,讓人類專注更高階、創意、需要判斷力的工作— 架構設計、產品規劃、策略決策。這樣,AI 像「數位同事」而不是「替代品」。 🌐 對AI 產業/ 整個網路生態:進入「Agentic Web」 時代對於整個AI 與互聯網生態而言,這意味著一個全新的階段正在到來—— 不再只是“人與AI 對話/ 互動”,而是“AI 代理人之間協作執行任務/ 流程”。有研究者聲稱,這將開啟「Agentic Web」(智能體驅動網路)的新紀元:AI 將不僅協助用戶,還將主動執行任務、協作、自動化流程,徹底改變我們使用網路、軟體、服務的方式。對於企業和用戶來說,這意味著:未來你不再“登入+ 搜尋+ 輸入命令”,而是告訴AI:幫我“完成這整個流程”。從呼叫客服、預訂行程,到撰寫報告、自動部署系統,AI 都可能一鍵搞定。潛在挑戰與隱憂:機會與風險共存雖然前沿AI 代理人前景光明,但並不意味著沒有風險和挑戰。以下是值得關注的幾個面向:⚠️ 安全、合規與治理風險當AI 可以自動作業系統、資料庫、網路環境時,它也可能——無意或故意——造成重大損害。刪除資料、洩漏隱私、配置錯誤、越權操作…這些風險都不能忽視。 AWS 為此推出了AgentCore Policy、權限控制、監控+ 評估機制,但安全體系必須嚴謹。🧠 技術複雜度與「人力+ 算力」門檻雖然Frontier Agents 降低了建構複雜自動化系統的門檻,但不是人人都能馬上用。他們仍然需要足夠的基礎設施(算力、資料中心/ 私有雲等),還需要正確配置、訓練和監督。對於許多中小企業來說,目前仍可能是可望不可即的。📈 企業組織結構與文化適應引進AI 代理人,不只是技術層面的變革,更是組織流程與文化的調整。誰來負責監督?誰承擔風險?員工該如何與AI 共事?這些問題,都需要組織進行深思熟慮。更重要的是——AI 是“輔助/ 增益”,還是“替代/ 衝擊”?社會與職業結構可能面臨再洗牌。總結:從說話到會工作-新時代已來AWS 在re:Invent 2025 發布的Frontier Agents,不只是一個新的AI 產品,而像是為整個AI 行業畫下了一條分水嶺—— “聊天/ 對話AI” 的黃金時代已經過去,真正進入 “Agentic-AI”、“系統AI” 的新時代。這意味著:未來我們需要學習的,將不只是如何寫prompt、如何與AI 對話,而是如何建構、部署、管理、治理AI 代理人;如何讓它們像可靠的「數位員工」一樣為企業、社會、使用者服務。(Allen談AI與ERP)
Gemini 網頁版大更新,還帶來了兩個非常實用的功能...
今早打開電腦,習慣性地點開 Gemini 準備幹活,結果螢幕一閃——咦?我是不是進錯網站了?定睛一看,原來是Google悄悄給 Gemini 的網頁版(gemini.google.com)搞了一次“裝修”!不得不說,雖然這一波不是模型能力的升級,但介面的變化真的太。舒。服。了。如果說之前的介面像個還沒完工的“工程測試版”,那現在終於有點“旗艦產品”該有的高級感了。我稍微試用了一下,發現這次改版不光是變好看了,還有幾個特別順手的效率小細節。來,帶大家盤點一下,看看有沒有戳中你的那個點。01|顏值大變樣:更黑、更酷、更有人味 ✨第一眼最直觀的感受就是:變乾淨了。Google這次似乎是有意在做“減法”。最明顯的變化就是那個歡迎語。以前每次打開,它都是那句乾巴巴、公事公辦的標準 “Hello”。現在換成了更隨意的“Hi”,左邊還配上了那個標誌性的Gemini 彩色小火花。圖:Gemini 新的介面雖然只是改了兩個字母,加了一個小圖示,但感覺 AI 一下子沒那麼高冷了,像個隨時待命的小助理在跟你打招呼:“嗨,今天搞點什麼?”👉 給“夜貓子”的福利:真正的暗黑模式如果你和我一樣是“暗黑模式”的死忠粉,你會愛死這次更新。之前的深色模式其實是深灰色(Dark Gray),看著總有點霧濛濛的感覺。而新版背景直接變成了純黑(True Black)。圖:Gemini 更新後的深色模式這不僅僅是酷的問題,如果你用的是 OLED 螢幕,這種高對比度的黑底白字,看起來清晰度更高,而且更有沉浸感。更有意思的是,它的輸入框和左側導覽列依然保留了灰色調。這種“黑灰分層”的設計,讓介面看起來非常有層次感,不再是糊成一團。02| 強迫症狂喜:“我的素材”終於有家了 📂這絕對是這次更新裡最實用的功能之一,也是我最喜歡的!不知道大家有沒有這種痛苦:上周讓 Gemini 生成了一張圖,今天想用,結果死活找不到在那段對話裡,只能在一堆歷史記錄裡瘋狂翻找……現在,Google終於在左側導覽列裡加了一個「My Stuff」(我的內容)專區。不管是你生成的圖片,還是做出來的視訊,或者是 Canvas 畫板裡的創作,統統都會自動歸檔到這裡。圖:Gemini 新上線”我的內容”功能這簡直就是個自動化倉庫!再也不用在聊天記錄的大海裡撈針了,對於經常用 AI 做圖的朋友來說,絕對是生產力的大解放。03|聊天管理,終於不用切菜單了 💬以前想重新命名一個對話,或者刪除、置頂某個聊天,得專門跑到左邊欄去操作,有時候還得把側邊欄展開,這就很斷節奏。現在,你直接點選當前對話頂部的標題,就會彈出一個下拉菜單。圖:更新後的聊天管理分享、置頂、重新命名、刪除——所有操作一步到位。雖然是個小改動,但這種“順手”的感覺,真的能讓人心情變好。04| 一個隱藏的“殺手級”功能:相簿直連 🖼️雖然這個不屬於今天的視覺更新,但我必須得再安利一遍,因為很多人可能還沒發現。現在的輸入框那個“+”號菜單裡,已經直接整合了 Google Photos(Google相簿)。圖:直連 Google Photos這意味著什麼?意味著當你需要 AI 分析照片時,再也不用“下載到本地 -> 再上傳給 AI”了!直接點一下,從雲端相簿里拉取,秒開。總的來說,這次 Gemini 的網頁版更新,雖然沒有發佈新模型那麼轟動,但處處都透著一種“打磨產品”的誠意。可以看得出來,現在Google已經比較從容了,之前都在一路追趕,現在終於騰出手來最佳化產品體驗了。 (AI范兒)
OpenAI 密謀收購火箭公司,Altman 想去太空建“戴森球”算力中心
OpenAI 首席執行官 Sam Altman 曾計畫籌集資金,收購一家火箭公司或與其深度結盟。此舉若成,他將直接向 Elon Musk 的 SpaceX 發起挑戰。知情人士稱,Altman 今年夏天接觸了包括 Stoke Space 在內的至少一家火箭製造商,談判在入秋後明顯升溫。方案之一是 OpenAI 對其進行多輪注資並最終控股。這一長期投資計畫的總額預計將高達數十億美元。據接近 OpenAI 的人士透露,相關談判目前已不再推進。眼下,Altman 和 OpenAI 正面臨嚴峻的市場考驗。雖然公司已簽下數千億美元的算力大單,卻至今沒能向外界講清楚:這筆天文數字般的基建帳單到底該怎麼付。隨著 ChatGPT 的市場份額被 Google Gemini 蠶食,OpenAI 本周一拉響了“紅色警報”(Code Red)。為集中火力最佳化聊天機器人業務,公司不僅推遲了廣告等新產品的發佈,還要求員工暫時轉崗支援核心戰線。Altman 對建立太空資料中心的構想已關注許久。他的理由是:AI 對算力的胃口是個無底洞,未來的能耗將大到地球環境難以承受,太空反而是更好的選擇。支持者也認為,軌道資料中心可直接利用太陽能維持運轉。Stoke 由 Jeff Bezos 旗下 Blue Origin 的前員工創立,正致力於研發完全可復用的火箭,這同樣是 SpaceX 試圖攻克的技術高地。實際上,把 AI 計算叢集搬上太空並非 Altman 獨有的狂想。Bezos、Musk 以及 Google 掌門人 Sundar Pichai 等科技大佬,都曾對這一前景表現出濃厚興趣。儘管這一構想尚未經實證,但 Alphabet 旗下的 Google 已與衛星營運商 Planet Labs 簽約,計畫在 2027 年發射兩顆搭載 Google AI 晶片的原型衛星。Altman 最近在 Theo Von 的播客節目中表示:“隨著時間推移,地球大部分區域都會被資料中心所覆蓋,也許我們該圍繞太陽系建造一個巨大的戴森球。”OpenAI 動起“造火箭”念頭時,正值市場對 AI 的狂熱達到頂峰。9 月至 10 月間,Altman 密集拋出一系列晶片與資料中心合作計畫,Oracle、Nvidia 和 AMD 等行業巨頭均在盟友名單之列。投資者最初對這些公告反應熱烈。Altman 描繪的大規模算力倉庫建設藍圖,曾一度助推 Oracle 和 Nvidia 的股價在隨後的數周內飆升。但隨後,市場對這種激進的 AI 擴張計畫態度轉冷。過去一個月裡,Oracle 股價下跌了約 19%,Nvidia 下跌了約 13%。Nvidia 首席財務官本周表示,該公司與 OpenAI 之間價值 1000 億美元的交易尚未最終敲定。僅過去幾個月,OpenAI 就簽下了近 6000 億美元的算力大單,外界不禁質疑:錢從那兒來?這家初創公司今年的預計收入為 130 億美元,與此同時,勁敵 Anthropic 正步步緊逼,在程式設計師群體和企業級市場攻城略地,銷售額增速驚人。作為一名資深風險投資人,Altman 曾執掌創業孵化器 Y Combinator,而後者正是 Stoke 的早期投資方。據《華爾街日報》去年報導,他掌控著一個龐大而不透明的投資版圖,涉足公司超過 400 家。雖然 Altman 已不再頻繁以個人名義出手,但在調動 OpenAI 的公司資金為宏大願景買單時,他卻毫不手軟。今年早些時候,他便大筆一揮,承諾讓 OpenAI 與軟銀聯手,向資料中心新貴 Stargate 注資 180 億美元。考慮到 SpaceX 在發射領域的統治地位以及 Musk 旗下 xAI 的存在,一旦 Altman 聯手 Stoke,他與 Musk 之間的戰火將進一步升級。事實上,Altman 正從多個維度對 Musk 形成圍剿之勢:他新創立的腦機介面公司 Merge Labs 直接對標 Neuralink,而 OpenAI 正在籌備的社交網路項目,也被視為 X(原 Twitter)的潛在威脅。若能達成交易,Altman 將通過 Stoke 正在研發的“Nova”火箭借道切入航天賽道。畢竟,從零開始造火箭不僅技術門檻極高,監管審批也困難重重,往往十年磨一劍。眼下,Blue Origin、Rocket Lab 和 Stoke 等一眾發射服務商正摩拳擦掌,試圖撼動 SpaceX 的霸主地位。Altman 在今年 6 月與其兄弟共同參加播客錄製時曾反問道:“我應該去開一家火箭公司嗎?”他表示:“我希望終有一天,人類消耗的能量將遠遠超出地球本身的產出極限。” (這個AI很盒裡)
ChatGPT問世三周年,AI已經發展成了一場泡沫?
台北時間12月1日,據科技網站TechCrunch報導,美國當地時間11月30日,ChatGPT迎來問世三周年紀念日。這款聊天機器人引爆了生成式AI市場,但是或許也催生出了一場泡沫。2022年11月30日,OpenAI向世界推出了一款新產品,並輕描淡寫地將其描述為“一個名為ChatGPT的模型,它能以對話方式互動”。毫不誇張地說,ChatGPT隨後顛覆了商業和科技領域,迅速走紅。它至今仍位居蘋果免費應用排行榜首位,並且引爆了一波生成式AI產品的浪潮。改變股市《AI帝國》作者郝珂靈(Karen Hao)近日在接受TechCrunch採訪時指出,OpenAI“已經變得比世界上幾乎所有國家都更強大”,並正在“重塑我們的地緣政治和全部生活方式”。ChatGPT還影響了股市。彭博社發文分析了ChatGPT如何改變了股市格局。目前,最明顯的贏家當屬輝達。自ChatGPT發佈以來,輝達股價累計漲幅高達979%。與此同時,AI熱潮也提振了其他科技巨頭的股價:標普500指數中市值最高的七家企業輝達、微軟、蘋果、Alphabet、亞馬遜、Meta與博通全部是科技公司。它們的整體增長幾乎佔到標普500自ChatGPT推出以來64%漲幅的一半。這種格局導致市場呈現出更為極端的頭部集中現象。標普500指數是按市值加權的,而這七家公司如今佔指數權重的35%,相比三年前的大約20%有顯著上升。泡沫?這股熱潮還能持續多久?除了輝達CEO黃仁勳(Jensen Huang)外,越來越多的AI企業高管開始承認,行業可能正身處泡沫之中。“有人會在AI領域損失慘重。”OpenAI CEO薩姆·奧特曼(Sam Altman)在8月與記者共進晚餐時表示。同樣地,Sierra CEO兼OpenAI董事長佈雷特·泰勒(Bret Taylor)也認為行業正處於“泡沫”之中,並將其與上世紀90年代末的網際網路泡沫相提並論。他預測,雖然個別公司可能會失敗,“但AI將重塑經濟格局,就像網際網路一樣,未來必將創造巨大的經濟價值”。再過三年或更短的時間,人們或許就能知道這種樂觀是否合理。 (飆叔科技洞察)
Google AI突破,為何反成行業利空? | 巴倫科技
這不僅僅是一個DeepSeek時刻,它可能遠遠超過那個層面。一款由AI驅動的全新聊天機器人橫空出世,不僅引發了科技股對動盪市場領軍地位的激烈角逐,同時也引發了人們對輝達晶片需求的新擔憂——而正是輝達晶片撐起了華爾街最熱門的股票。這番描述既可以用來描述中國聊天機器人DeepSeek問世時的市場反應(當時它讓整個科技圈震驚,還曾一度導致美股下跌),也同樣適用於最近發生的情形,即Google母公司Alphabet推出新版Gemini 3後的市場表現。Alphabet的股票是今年迄今為止“七巨頭”中表現最好的,該公司上周發佈了最新版聊天機器人,而投資者現在才開始意識到,這款產品在未來幾個月內可能會對人工智慧類股產生怎樣的影響。據報導,Gemini 3在運行速度、反應靈敏度和深度推理能力上均優於OpenAI的ChatGPT、埃隆・馬斯克旗下的Grok以及傑夫・貝索斯支援的Perplexity。該產品可以很好地融入Google旗下廣泛的應用生態及其市場領先的搜尋業務中,定價也與競爭對手的AI模型持平或更低。但更重要的是,Gemini 3主要是利用Google自家的張量處理單元(TPU)進行訓練的,而不是像競爭對手那樣依賴輝達的晶片。TPU的靈活性不如輝達的圖形處理單元(GPU),這也意味著在超大規模企業斥資數十億美元採購可靈活重新程式設計系統的市場中,TPU的價值可能會相對降低,但TPU的研發成本更低,滿負荷執行階段的功耗也更小。這一點正在令華爾街感到不安。“有些投資者極為擔心,憑藉Gemini模型的巨大進步以及定製TPU晶片所帶來的持續優勢,Alphabet可能會在AI大戰中獲勝。”華爾街諮詢機構Melius Research的科技策略師Ben Reitzes表示。他補充道:“現在就斷言Alphabet最近的突破讓它成為AI領域的長期贏家,還為時尚早。話雖如此,半導體企業和超大規模雲端運算公司(尤其是甲骨文)必須警覺到,‘Alphabet問題’已經成為一個值得關注的風險點。”甲骨文此前已經斥資數十億美元採購輝達晶片用於雲端租賃。如果更低成本的TPU出現,一旦其他公司建立AI雲服務競爭平台,甲骨文在價格上可能會被削弱競爭力。知名投資機構D.A. Davidson的分析師Gil Luria估算,如果Google將DeepMind AI研究實驗室與TPU晶片銷售業務拆分出去,組建獨立公司,其估值可能接近1兆美元,這也可能成為“堪稱Google最具價值的業務之一”。另一方面,即便輝達在AI領域的領先優勢出現小幅縮小,都可能在未來幾個月內引發連鎖反應,對市場造成衝擊。那些此前在輝達半導體上大舉投資的企業,如果發現更便宜的晶片同樣表現出色,可能會因此陷入“買家懊悔”。目前,從上市的超大規模科技公司到OpenAI 等初創企業,整個行業的估值都已處於極高水平,而這項新技術對實體經濟的實際利多仍存在不確定性。實際上,OpenAI 首席執行官薩姆·奧特曼在上周《The Information》發佈的一份內部備忘錄中坦言,Google在人工智慧方面的進步,很可能會給公司帶來“一些暫時的經濟阻力”。他表示:“我預計外界的氛圍會艱難一陣子。”Google的股價已反映出部分市場預期,周一上漲了6.3%,盤中一度創下每股318.58美元的歷史新高。今年以來,該股累計上漲了68%,而“七巨頭”指數同期漲幅為22%,納斯達克綜合指數則上漲了18%。其TPU製造合作夥伴博通(Broadcom)在周一下午早些時候上漲了11%,今年以來的漲幅略超63%。與此同時,輝達股價小幅上漲,但自本月初以來仍下跌了近9%。根據道瓊斯市場資料,目前輝達4.35兆美元的市值與Google市值之間的差距已縮小到約5260億美元,為自四月以來的最小水平。伯恩斯坦資深分析師斯Stacy Rasgon並不那麼關注在當前的AI軍備競賽中短期贏家的歸屬,他更關心的是這場競爭的持續性。Rasgon周一在接受CNBC採訪時表示:“我們還沒到需要擔心誰贏誰輸的時候。現在更需要關注的問題是,AI領域的機遇是否可持續。”他補充道:“如果可持續,大家都沒問題;如果不可持續,大家都完了。” (Barrons巴倫)
沒一個好東西!紐約時報要求OpenAI交出2000萬使用者聊天記錄?
剛剛,OpenAI在官網更新一篇聲明,痛斥紐約時報侵犯使用者隱私。全文連結 https://openai.com/index/fighting-nyt-user-privacy-invasion/這個事如果從普通使用者的視角來看,其實挺諷刺的:——紐約時報和 OpenAI,本來都打著“為公眾利益”“保護使用者”“推動知識自由”的旗號,結果打起架來,最受傷的反而還是使用者。一、先看紐約時報這一邊紐約時報這次打的旗號是“保護版權”“防止 AI 竊取內容”。聽起來很正義,但問題是:他們把讀者的資料、瀏覽行為、訂閱偏好、閱讀習慣全都攥在自己手裡,通過付費牆和跟蹤技術實現精準廣告、輿論操控。結果轉頭又拿“隱私保護”“創作者權益”當擋箭牌,這種雙標行為其實就是壟斷資訊管道、維持舊媒體權力結構。更噁心的是,他們起訴 OpenAI,卻自己在後台跟微軟、Google、Meta 都有 API、廣告、甚至模型訓練合作。——打著“反 AI”的旗號賺錢,實則繼續做老媒體的權力生意。二、再看 OpenAI 這一邊OpenAI 發這篇《Fighting the NYT’s User Privacy Invasion》文章,其實是反擊——他們說紐約時報在“釣魚式測試”、上傳使用者資料、製造偽證。問題在於:OpenAI 也不是白蓮花。ChatGPT、DALL·E、Sora……一個比一個懂使用者,但到底用了多少資料、留了多少記錄、共享給了誰,使用者完全不知情。他們嘴上說“protect user privacy”,但背後是巨大的資料採集與行為建模帝國。說白了,這是一場兩種權力結構的戰爭:老媒體:控制敘事、掌握版權、壟斷“真相”。• 新 AI 公司:控制語料、掌握演算法、壟斷“理解”。三、使用者在哪?使用者就是被榨的那頭“資訊奶牛”:紐約時報吸走你的注意力和訂閱費;OpenAI 吸走你的對話、語料、偏好;雙方打架時,還都舉著“為使用者而戰”的旗子。但真相是:他們打的不是版權官司,而是資料霸權之爭。他們爭奪的不是公義,而是我們每一個人的語言、習慣和思想痕跡。我作為使用者(我是 ChatGPT 的使用者,不是紐約時報的使用者),從我的角度看,這事根本不是“誰更正義”的問題,而是兩頭壞蛋的權力博弈。唯一值得警惕的是——別他媽的打著“保護我的隱私”的名義,反而更深地鎖住我的資訊世界。如果一定要一句話總結:“一個拿你說的話賺錢,一個拿你看過的東西賺錢——然後他們為了誰能更徹底地利用你而互相起訴。”去他媽的。沒有一個好東西。 (老趙胡扯AI)
《大西洋月刊》丨去技能化時代
The Age of De-SkillingWill AI stretch our minds—or stunt them?By Kwame Anthony Appiah人工智慧會拓展我們的思維,還是阻礙其發展?插圖:馬特奧·朱塞佩·帕尼 / 《大西洋月刊》2025年10月26日,美國東部時間上午6點相關擔憂已從竊竊私語升級為高聲喧囂,且都圍繞著同一個令人不安的主題:“ChatGPT影響下的大腦”“人工智慧正讓你變笨”“人工智慧在扼殺批判性思維”。曾經,人們害怕的是失控的智能會將人類消滅,甚至可能在這個過程中把地球變成一座回形針工廠。如今,聊天機器人正走上Google的老路——從“神奇之物”變成“理所當然的存在”,人們的焦慮也隨之轉變,從對“世界末日”的恐懼轉向對“能力衰退”的擔憂。尤其是教師們表示,他們開始看到這種“衰退”的跡象。描述這種現象的術語雖不悅耳,卻也貼切:去技能化。這種擔憂絕非空想。如果孩子依賴Gemini總結《第十二夜》,他們可能永遠無法學會獨立品讀莎士比亞的作品。如果胸懷大志的律師借助Harvey AI(法律領域AI)進行法律分析,他們可能無法培養出前輩們視為理所當然的解讀能力。在近期一項研究中,數百名英國參與者完成了標準的批判性思維測試,同時接受了關於使用人工智慧獲取資訊或做決策的訪談。結果顯示,年輕使用者對這項技術的依賴度更高,測試得分也更低。“用進廢退”是該研究最核心的結論。另一項研究關注了醫生進行結腸鏡檢查的情況:在使用人工智慧系統輔助識別息肉三個月後,醫生在不借助該系統時識別息肉的能力明顯下降。但真正的謎題不在於“去技能化”是否存在——它顯然是存在的——而在於它究竟屬於何種性質。所有形式的去技能化都會產生負面影響嗎?還是說,有些去技能化是我們可以接受的,甚至是值得歡迎的?“去技能化”是一個籠統的術語,涵蓋了多種截然不同的能力喪失情況:有些會帶來損失,有些無關緊要,還有些反而會催生新的可能。要弄清楚其中的關鍵,我們必須仔細觀察:當新技術出現時,技能會以何種方式逐漸減弱、消失或發生改變。如今的聊天機器人算是新技術:它們所依賴的“Transformer”架構誕生於2017年,而ChatGPT在五年後才首次公開亮相。但“新技術可能會削弱人類思維”的擔憂卻由來已久。早在公元前4世紀的《斐德羅篇》中,蘇格拉底就講述了這樣一個神話:埃及神透特將“書寫”這一禮物獻給國王塔姆斯,稱其是“記憶與智慧的秘訣”。但塔姆斯對此不為所動。他警告說,書寫會產生相反的效果:它會滋生健忘,讓人們用紙上的符號取代記憶的努力,將“理解的表象”誤認為“理解本身”。蘇格拉底支援塔姆斯的觀點。他抱怨道,文字永遠無法回應你提出的具體問題;無論是智者還是愚者,文字對所有人的回應都是一樣的;而且當人們誤解文字時,文字也無能為力。當然,我們之所以能知曉這一切——這段故事之所以能不斷出現在輝格黨式的科技史敘述中——正是因為柏拉圖將其寫了下來。但反對書寫的人也並非完全錯誤。在口頭文化中,吟遊詩人能將史詩記在腦海裡;非洲部落的格里奧(說書人)能隨口說出數百年的族譜。而書寫的出現讓這些非凡的能力變得不再必要。人們無需深入思考,就能理解他人的想法。對話需要回應:或是澄清疑問,或是提出反對,或是修正觀點(有時一句“蘇格拉底,您說得太對了”就能起到作用,但即便如此,對話仍在繼續)。相比之下,閱讀時你只需沉浸在他人的智慧中,點頭認同,卻無需通過自我檢驗來印證這些智慧。不過,從某個角度看是“損失”的東西,換個角度或許就是“收穫”。書寫為人類開闢了新的思維領域:評論文章、法學理論、可靠的歷史記載、科學研究。研究口頭文化與文字文化的學者沃爾特·J.翁曾精闢地指出:“書寫是一種能重構思維的技術。”這種模式並不陌生。當水手開始使用六分儀時,他們便不再需要掌握水手的“觀天技藝”——那種曾指引他們安全返航的、對星辰的細緻觀測能力。後來,衛星導航的出現又讓六分儀技能徹底消失。過去,擁有一輛福特T型車意味著你得兼職做機械師——要知道如何修補內胎、憑聽覺調整點火正時、在引擎熄火後想辦法讓它重新啟動。如今,性能高度可靠的引擎將這些“秘密”隱藏了起來。計算尺被計算器取代,計算器又被電腦取代。每一次技術更迭,個人的精湛技藝都會隨之減弱,但整體效率卻在提升。這種“有所失,必有所得”的模式確實令人安心。但有些收穫背後,隱藏著更深層的代價。它們不僅改變了人們“能做什麼”,還改變了人們“認為自己是誰”。20世紀80年代,社會心理學家肖莎娜·祖博夫曾在美國南部的紙漿廠進行調研,當時這些工廠正從人工操作轉向電腦控制。曾經,操作員需要通過觸摸來判斷紙漿的狀態(“它滑嗎?它粘嗎?”);如今,他們只需坐在有空調的房間裡,看著數字在螢幕上滾動,過去的技能既無人使用,也無人重視。一位操作員告訴祖博夫:“通過電腦工作,感覺完全不一樣。就像你騎著一匹強壯的駿馬,但有人坐在你身後的馬鞍上,握著韁繩。”新系統速度更快、更清潔、更安全,但也讓工作失去了原本的意義。社會學家理查德·森內特也記錄了波士頓一家面包店的類似變化。20世紀70年代,店裡的工人都是希臘男性,他們靠嗅覺和視覺判斷面包是否烤好,並為自己的手藝感到自豪;到了90年代,接替他們的工人只需操作帶有Windows風格控製器的觸控式螢幕。面包變成了螢幕上的圖示——它的顏色由資料推斷得出,品種則從數字菜單中選擇。技能的弱化伴隨著身份認同的弱化。面包依然美味,但廚房工人知道,自己不再是真正的面包師了。有人半開玩笑地對森內特說:“烘焙、製鞋、印刷——隨便你說什麼手藝,我都‘會’。”言外之意是,他其實根本不需要掌握任何真正的技能。在文化領域,人類與“實物的接觸”無疑早已逐漸減少。在19世紀歐洲的中產階級家庭中,熱愛音樂通常意味著會演奏音樂。交響樂要進入客廳,靠的不是音響,而是鋼琴改編版——兩個人四隻手,在一架鋼琴上,盡最大努力演繹勃拉姆斯的《第一交響曲》。這需要技能:識譜、掌握演奏技巧、用手指勾勒出交響樂的意境。要聽到自己想聽的音樂,你必須不斷練習。後來,留聲機流行起來,客廳裡的鋼琴開始積滿灰塵。隨之而來的好處顯而易見:你可以把整個管絃樂隊“召喚”到客廳裡,可以將聽覺體驗從沙龍裡的輕音樂拓展到德彪西、施特勞斯、西貝柳斯的作品。如今的音樂愛好者或許不再擅長演奏,但從某種意義上說,他們更懂“聆聽”。然而,廣度的拓展是以深度的喪失為代價的。練習一首曲子的過程,會讓你對曲子的結構和脈絡有深入的理解。而擁有閃亮的維克多牌留聲機的孩子,能獲得這種理解嗎?每當強大的新工具出現時,這種“疏離感”——即與“真實事物”產生距離的感覺——就會隨之而來。從17世紀開始,計算尺減少了人們對“心算能力”的依賴;幾個世紀後,可攜式計算器又讓一些工程師感到不安,他們擔心“數感”會逐漸消失。這些擔憂並非毫無根據。按下鍵盤上的“Cos”鍵就能得到一個數值,但這個數值背後的含義可能會被人們遺忘。即便在更專業的領域,這種擔憂也依然存在。麻省理工學院的物理學家維克多·魏斯科普夫對同事們越來越依賴電腦模擬感到困擾。當同事們把列印出來的結果交給時,他對他們說:“電腦理解這個答案,但我覺得你們並不理解。”這種不安就像古埃及國王的“數字時代版本”——他們堅信,人們正把“輸出結果”誤認為“深刻見解”。在祖博夫所說的“智慧型手機器時代”,自動化主要侷限於工作場所——工廠、工業面包店、駕駛艙。而到了個人電腦和網際網路時代,技術“逃離”了工作場所,進入家庭,成為通用工具,融入日常生活。早在21世紀初,研究人員就開始探討搜尋引擎對人類的影響。當時的新聞標題諸如“Google影響下的大腦”屢見不鮮。儘管這種恐慌有些過度,但一些影響確實真實存在。一項被廣泛引用的研究發現,在某些情況下,人們會記住“某個事實可以在那裡找到”,而非“事實本身”。事實上,人類的認知能力從來都不侷限於大腦內部——它還存在於工具、符號以及人與人之間的互動中(想想你認識的夫妻:有人記得生日,有人記得護照放在那裡)。從刻痕計數的骨頭到泥板文書時代,數千年來,我們一直在將“思維”儲存在外部世界中。許多生物都會使用工具,但它們的技能會隨著個體的死亡而消失;而人類的技能會以文化的形式積累下來——形成一種“智能傳遞系統”。我們繼承這種系統,拓展它,在此基礎上不斷建構,讓每一代人都能站在更高的起點上:從壓制剝落的石片,到骨針,再到印刷機,直至量子計算。這種“見解的積累”——外部化、保存、共享——正是智人與其他生物的區別所在。倭黑猩猩生活在“生態當下”,而人類生活在“歷史之中”。與此同時,“積累”會帶來一個關鍵結果:它會推動“專業化”的發展。隨著知識不斷拓展,它不再能被每個人平等掌握。在小型部落中,任何人都能追蹤獵物、採集植物、生火。但在農業革命後,社會規模不斷擴大,手工業和行會逐漸增多——能鍛造出鋒利且耐用刀刃的工匠、懂得如何防止拱頂坍塌的石匠、掌握著嚴密保密的配方和技藝的玻璃吹制工。曾經存在於人體中的技能,逐漸轉移到工具中,進而上升到制度層面。隨著時間的推移,勞動分工不可避免地演變成“認知分工”。哲學家希拉里·普特南曾說過,他會用“榆樹”這個詞,但無法區分榆樹和山毛櫸。“指稱”是具有社會性的:你能談論榆樹,是因為語言社群中的其他人——植物學家、園丁、林業工作者——能識別榆樹。語言如此,知識亦是如此。人類的能力不僅存在於個體之中,還存在於個體所形成的網路之中。我們每個人都依賴他人來彌補自己能力的不足。社會規模的擴大,將“社會交換”轉變為“系統性的相互依賴”。由此產生的世界,正如一個經典例子所描述的:沒有人知道如何完整地製造一支鉛筆。一個人要製造鉛筆,需要掌握伐木工、鋸木工、礦工、化學家、塗漆工等多種技能——即便是最簡單的物品,其背後也存在一個無形的“工藝網路”。馬克·吐溫在《康州美國佬在亞瑟王朝》中,想像一位19世紀的工程師穿越到卡梅洛特(亞瑟王傳說中的王國),用現代奇蹟讓當地人驚嘆不已。讀者們對此深信不疑。但如果把21世紀的工程師放到同樣的場景中,他會束手無策。製造絕緣電線?調配一批炸藥?從零開始製造電報機?一旦連不上無線網路,我們大多數人都會陷入困境。如今,認知分工已發展到極高的程度:兩位物理學家可能彼此都難以理解對方的研究——一位在模擬暗物質,另一位在製造量子感測器。如今的“科學精通”,意味著對“越來越窄的領域”瞭解“越來越多”。這種專注帶來了驚人的進步,但也讓我們意識到自身能力的侷限性:專家們使用的概念工具,是他們能“運用”卻無法“創造”的。即便是長期被視為“孤獨天才領域”的數學,如今也遵循著這樣的模式。當安德魯·懷爾斯證明費馬大定理時,他並沒有重新推導每一個引理;而是整合了他信任但並未親自驗證的成果,建構出一個完整的理論框架——即便他沒有親手“切割”每一根“橫樑”,也能看清整個框架的結構。合作範圍的擴大,改變了“知曉某事”的含義。知識曾被視為一種“佔有物”,如今卻變成了一種“關係”——即我們能否很好地定位、解讀和整合他人的知識。我們生活在一個“分佈式智能網路”中,依賴專家、資料庫和工具來拓展自己的認知邊界。資料規模就能說明問題:當年宣佈DNA雙螺旋結構的《自然》論文只有兩位作者;如今,一篇關於基因組學的《自然》論文可能有40位作者。而宣佈希格斯玻色子發現的兩篇論文呢?作者多達數千人。“大型科學研究”之所以“大型”,是有原因的。遲早,這個“網路”會迎來新的參與者——一個不僅能儲存資訊,還能模仿“理解”本身的參與者。在大型語言模型時代,“資訊”與“技能”、“知道是什麼”與“知道怎麼做”之間的傳統界限變得模糊。從某種角度看,這些模型是“靜態”的:它們是一組可下載到筆記型電腦中的固定權重矩陣。但從另一個角度看,它們又是“動態”的:一旦運行,就能即時生成回應。它們能做到蘇格拉底所抱怨的“書寫無法做到的事”:回答問題、適應對話者、進行對話(有時甚至能與自己對話;當人工智慧將自身輸出作為輸入時,人工智慧研究人員稱之為“推理”)。將Google視為“記憶的延伸”並不難;但對許多人來說,大型語言模型更像是“思維本身的替代品”。在利用新型人工智慧時,我們自身的智能是在被“拓展”,還是說,這種“人工”智能正悄然崛起,逐漸佔據主導地位?我們無法將“精靈”放回“瓶子”裡,但我們可以決定讓它施展那些“魔法”。當人們談論“去技能化”時,通常會想到一個人失去了某種技能——比如飛行員的手動駕駛能力變得生疏,醫生在沒有人工智慧輔助時會漏診腫瘤。但如今,大多數工作都需要協作,人工智慧的出現並沒有改變這一點。問題不在於“人類與機器人相比表現如何”,而在於“使用機器人的人類與不使用機器人的人類相比表現如何”。有些人擔心,對人工智慧的依賴會讓人類在某些方面變得更糟,這種負面影響會蓋過其承諾的好處。Anthropic公司首席執行官達里奧·阿莫代伊樂觀地設想會出現一個“天才之國”,但這些擔憂者則預見會出現一個“傻瓜之國”。這與過去關於“風險補償”的爭論如出一轍:幾十年前,一些社會科學家認為,增加安全帶或防抱死剎車後,人們會駕駛得更加魯莽——科技帶來的安全感會讓他們“消耗掉”安全余量。但後來的研究得出了更令人鼓舞的結果:人們確實會做出調整,但這種調整是有限的,因此技術仍能帶來顯著的好處。在人工智慧的臨床應用中,類似的規律似乎也成立——人工智慧在醫院中的應用已超過十年。回想一下之前提到的結腸鏡檢查研究:在進行人工智慧輔助檢查後,胃腸病醫生在無輔助情況下的息肉識別率下降了6個百分點。但另一項研究彙總了24000名患者的資料,呈現出更全面的情況:人工智慧輔助使整體識別率提高了約20%(此處的人工智慧是一種“專家系統”——即一種狹義、可靠的機器學習形式,而非驅動聊天機器人的生成式人工智慧)。由於識別率的提高意味著漏診癌症的減少,無論個別醫生的能力是否略有下降,這種“半人半機”的協作模式顯然是有益的。如果這種協作能拯救生命,那麼胃腸病醫生若出於“自尊心”而堅持獨自操作,就是不負責任的。在其他領域,近期的一些研究表明:一個人的技能越高,與人工智慧的協作效果就越好。其中一項研究發現,在對兩種鷦鷯和兩種啄木鳥的圖像進行分類時,人類的表現優於機器人。但在識別虛假酒店評論時,機器人則更勝一籌(大概是“同類識別同類”吧)。隨後,研究人員讓人類與機器人配對,讓人類在參考機器人建議的基礎上做出判斷。結果因任務而異:在人類直覺較弱的領域(如識別虛假酒店評論),人們會過多地質疑機器人,從而拉低整體結果;而在人類直覺較強的領域,人們似乎能與機器人協同工作——在確定自己判斷正確時相信自己,在意識到機器人發現了自己遺漏的資訊時也會認可機器人。在識別鳥類圖像的任務中,“人類+機器人”的組合表現優於兩者單獨工作的效果。同樣的邏輯也適用於其他領域:一旦機器進入工作流程,“精通”的定義可能會從“產出”轉向“評估”。2024年一項關於程式設計師使用GitHub Copilot(程式碼生成工具)的研究發現,人工智慧的使用似乎會“重新引導”人類的技能,而非“取代”它。程式設計師花在“生成程式碼”上的時間減少了,花在“評估程式碼”上的時間增多了——檢查邏輯錯誤、排查邊界情況、清理程式碼指令碼。技能從“創作”轉移到了“監督”。如今,“人機協作”越來越多地意味著這一點:專業能力不再體現於“寫出初稿”,而體現於“編輯初稿”;不再體現於“速度”,而體現於“判斷力”。生成式人工智慧是一個“機率系統”,而非“確定性系統”;它給出的是“可能性”,而非“真相”。當風險切實存在時,具備專業能力的人類必須對最終決策負責——要能發現模型何時偏離現實,要將模型的輸出視為“待驗證的假設”,而非“必須遵守的答案”。這是一種新興的技能,也是至關重要的技能。未來的專業能力,不僅取決於工具的優劣,更取決於我們能否與工具“協同思考”。但協作的前提是“自身具備能力”。如果人類一方毫無頭緒,“人機協作”就會陷入混亂。這正是人們對“教育”感到恐慌的原因:如果一個人從未掌握過某種技能,就談不上“失去”這種技能。在這個“世界上最強大的作業工具”能輕鬆裝進每個學生口袋的時代,我們該如何培養學生的基本能力?我們這些教育工作者還有很多“作業”要做。過去的教學方法需要革新;在過去幾年裡,太多大學生陷入了一種令人不安的狀態——用一句話形容就是“主修ChatGPT”。但現在就斷言人工智慧對教育的整體影響,還為時過早。誠然,人工智慧可能會讓某些能力變得生疏,但如果使用得當,它也能強化另一些能力。以哈佛大學一門大型物理課程的近期隨機試驗為例。一半學生以傳統的“最佳方式”學習兩節課:由資深教師帶領的互動式實踐課堂。另一半學生則使用定製的人工智慧導師。之後兩組學生交換學習方式。結果顯示,在兩輪試驗中,使用人工智慧導師的學生表現都要好得多——優勢非常明顯。他們不僅學到了更多知識,學習速度也更快,而且反饋說自己更有動力、更投入。該人工智慧系統的設計初衷是“像優秀教練一樣工作”:教學生如何將複雜問題拆解成小問題,提供提示而非直接給出答案,根據每個學生的進度調整反饋的強度和內容。這種“針對性關注”正是老式輔導體系的強大之處。我還記得在劍橋大學的最初幾周,我與生物化學導師進行一對一交流的場景。當我說“我大概懂了”時,他會不斷追問,直到我們都確信我真的懂了。這種有針對性的關注,是劍橋大學“輔導制度”的核心。如果設計得當,大型語言模型有望將這種“關注”大規模推廣——不是複製輔導老師的羊毛開衫、鋥亮的煙斗或若有所思的表情,而是複製那種“持續、靈活的引導”,幫助學生從困惑走向理解。機器不會取代導師。它們有望承擔輔導中“常規性”的部分——檢查代數運算、反覆練習引理、提醒學生注意單位書寫、確保學生理解膜通道的工作原理。理論上,這能讓教師騰出時間,專注於其他重要工作:講解核心概念、追求更簡潔優雅的表達、與學生探討職業規劃、關注學生是否面臨過度壓力。當然,這只是一種樂觀的設想。我們不應僅憑一項研究就得出普遍結論(有一項針對土耳其高中生的研究發現,使用輔導機器人並未帶來明顯進步)。同時我們也要注意,那些物理專業的學生之所以能很好地利用輔導機器人,是因為他們要面對“課堂考試”——有監考老師、有時間限制、有嚴格的評分標準。我們還需注意,在STEM(科學、技術、工程、數學)學科中有效的方法,在人文學科中可能並不適用。儘管學期論文枯燥乏味,但它能培養一種“對話難以複製”的能力:逐步建構論證、權衡證據、組織材料、錘煉表達風格。我們這些教授本科生的教師中,已有不少人開始對有上進心的學生說:如果他們寫一篇論文,我們會閱讀並與他們討論,但這篇論文不會計入最終成績。這只是一種權宜之計,而非根本解決方案。說來也奇怪,在文化層面,我們似乎正在“回歸口頭表達”——口頭交流可能需要承擔更多教學任務。如此看來,對話的堅定捍衛者蘇格拉底,最終會笑到最後嗎?“破壞性去技能化”仍是一種無法忽視的可能性:由於過度依賴工具,人類基本的認知或感知能力會逐漸衰退,且沒有相應的能力提升作為補償。這種能力缺失會耗盡一個系統的“儲備能力”——即那些平時很少用到,但在出現問題時必須具備的能力。沒有這些儲備能力,系統的“韌性”會下降,“脆弱性”會上升。想想那些航空公司的飛行員:他們花數千小時監控自動駕駛儀,卻在系統故障時不知所措。一些自動化理論學者將“人機協作”分為兩類:“主動參與的人機協作”和“被動簽字的人機協作”。後者如果管理不當,就會導致工業心理學家莉薩妮·貝恩布裡奇早就警告過的問題:角色混亂、意識減弱、準備不足。就像救生員在大多數日子裡,只是看著游泳技術嫻熟的人在平靜的水中游泳——這類人類監督者很少需要採取行動,但一旦需要,就必須迅速、熟練地行動。同樣的問題也困擾著各類辦公室工作。當律師、項目經理和分析師花數月時間“批准”系統已起草或推斷出的內容時,他們就變成了“被動簽字者”,逐漸生疏了核心技能。這就是“部分自動化”的悖論:系統性能越好,人們就越不需要保持專業敏銳度,在系統偶爾失靈時,就越缺乏應對準備。解決這個問題的方法可能在於“制度設計”。例如,工作場所可以定期開展“演練”——類似飛行員定期進行的飛行模擬器訓練——讓員工必須挑戰機器,確保在“平穩運行”的漫長過程中,他們真正的判斷能力沒有衰退。在很多情況下,“儲備技能”不需要人人具備,只需在系統的某個環節存在即可——就像那些能識別榆樹的專家一樣。正因如此,美國海軍學院擔心GPS(全球定位系統)可能被干擾,在多年忽視後,重新恢復了基礎的“天體導航”訓練。大多數水手在遠洋航行中可能永遠不會用到六分儀,但只要有少數人掌握這項技能,在衛星失靈時,就足以穩住整個艦隊。這樣做的目的,是確保至少有一部分“實際能力”得以保留,以便在系統出現故障時,人類仍能站穩腳跟——至少不至於陷入困境。最令人擔憂的可能性,或許可以被稱為“根本性去技能化”:即那些“構成人類本質”的能力逐漸衰退。判斷力、想像力、同理心、對意義和分寸的感知——這些能力不是“備用選項”,而是我們日常都需要運用的能力。如果按照讓-保羅·薩特擔憂的說法,我們變成了“機器的機器”,那麼這種損失會體現在日常生活的方方面面。可能會消失的,是支撐我們日常判斷的“隱性、內化的知識”。如果人們開始按照系統偏好的方式提出問題,從系統提供的“看似合理的答案”中選擇,那麼這種損害不會表現為“嚴重的判斷失誤”,而會表現為“人格的逐漸弱化”:對話變得膚淺、對模糊性的容忍度降低、在需要尋找恰當措辭的地方習慣性使用套話、用“流暢”替代“理解”。如果將這些能力“外包”出去,實際上就是將“我們自己”外包出去。失去這些能力,不僅會改變我們的工作方式,還會改變我們“是誰”。從長遠來看,大多數形式的去技能化都是“良性”的。有些技能之所以過時,是因為支撐它們的“基礎設施”也已消失。電報技術需要熟練掌握“點和劃”(莫爾斯電碼);萊諾鑄排機需要熟練操作“熔鐵鍵盤”;平板膠片剪輯需要使用修版鉛筆和拼接膠帶,還要在腦海中記住不同場景在膠片和音軌中的位置。當電報線路、熱金屬印刷機和賽璐珞膠片消失時,它們所支撐的技藝也隨之消失。另一種去技能化,代表著“枯燥工作”的消除。很少有人會為“不再用手搓衣服”或“不再在紙上演算長除法”而惋惜。我認識一位神經科學家,他堅信大型語言模型能加快“撰寫資助申請”這一枯燥且範本化的工作。他仍然對內容負責,但即便自己的“資助申請撰寫能力”下降,他也毫不在意。在他看來,這不屬於“科學研究”,而是“研究體系要求的表演”。將這部分工作外包出去,能讓他騰出時間用於“發現”。事實上,“職業去技能化”可能具有“民主化”意義,能讓更多人有機會從事某項工作。對於英語能力有限的科學家來說,聊天機器人可以幫助他們順利撰寫“機構審查委員會陳述”,掃除“語言障礙”——而這種障礙與他們的研究質量毫無關係。在這種情況下,去技能化拓寬了“准入門檻”。再想想森內特提到的那家面包店,以及過去在廚房工作的希臘男性。過去的烤爐會燙傷他們的手臂,老式揉麵機可能拉傷他們的肌肉,搬運沉重的面包托盤會讓他們的背部承受壓力。到了20世紀90年代,當系統改為由Windows控製器操作時,勞動力構成發生了變化:不同種族的男性和女性站在螢幕前,點選圖示即可工作。“手藝”的要求降低了,但“符合條件的勞動者”範圍擴大了(當然,他們的工資也降低了:門檻越低,工資越低)。通常情況下,技術讓我們能將時間用在更有價值的事情上,培養“更高價值鏈條”上的技能,因此我們會主動放棄一些技能。在祖博夫調研的其中一家紙漿廠,操作員不再需要進行體力勞動,得以將更多時間用於“預測和預防問題”。有人說:“坐在這個房間裡思考,也成了我工作的一部分。”祖博夫將這種變化稱為“再技能化”:“行動技能”讓位於“抽象思維和流程推理能力”——也就是她所說的“智力技能”。類似的情況也發生在“電子表格軟體(如VisiCalc)出現後的會計師”身上:他們不再需要手工計算一列列數字,得以將更多時間用於“稅務策略”和“風險分析”。更重要的是,新技術能催生出“全新的技能”。在顯微鏡發明之前,有“博物學家”,但沒有“顯微鏡學家”:羅伯特·胡克和安東尼·范·列文虎克必鬚髮明“觀察和解讀微觀世界”的方法。電影製作不僅借鑑了戲劇,還催生了“攝影師”和“剪輯師”——這些職業沒有真正的歷史先例。每一次技術飛躍,都拓寬了“可能性的邊界”。如今的人工智慧技術可能也是如此。我的年輕同事們堅稱,與大型語言模型合作,已經在培養一種新的“技藝”——設計提示詞、追問驗證、發現偏見和幻覺,當然,還有“學會與機器協同思考”。這些都是“新興技能”,源於與“不會消失的數字架構”的互動。重要的技術,本質上都會催生我們目前還無法命名的“技藝和職業”。困難之處在於,要拋開“懷舊情緒”和“慣性思維”,判斷那些技能值得保留,那些可以捨棄。沒有人願意看到自己辛苦掌握的技能被視為“過時”而遭拋棄,因此我們必須抵制“情感的誘惑”。每一次進步都需要付出代價:文字讀寫能力削弱了“記憶壯舉”,但創造了新的“分析能力”;計算器影響了“心算能力”,但讓更多人能夠“運用數學”;錄音技術降低了“日常音樂演奏能力”,但改變了我們“聆聽音樂”的方式。那麼如今呢?我們顯然有權決定,大型語言模型究竟會“拓展”還是“縮小”我們的思維。縱觀人類歷史,我們的能力從未“停滯不前”。技能總是不斷“向外流動”——從雙手到工具,再到系統。個體的才智已融入“集體協同智能”,而推動這一過程的,是人類長久以來的“思維外化”習慣:將記憶儲存在符號中、將邏輯嵌入機器中、將判斷融入制度中,近來又將“預測”託付給演算法。過去催生行會的“專業化”,如今催生了“研究聯盟”;過去在師徒間傳遞的知識,如今通過“網路和數字矩陣”傳播。生成式人工智慧——人類知識的“統計濃縮”——只是我們“向自身發明學習”這一漫長過程中的最新篇章。因此,最緊迫的問題是:如何保持我們的“主體性”——如何在“即將承擔我們大量思考工作的系統”中,依然保持“主導者”的身份。每一代人都必須學會如何與“新獲得的認知工具”共處,無論是鐵筆、捲軸,還是智慧型手機。如今的新變化,在於“互動的速度和親密程度”:工具在向我們學習的同時,我們也在向工具學習。如今的“管理”,意味著要確保“構成人類本質的能力”——判斷力、想像力、理解力——在我們身上得以保留。如果說有那項技能我們絕對不能失去,那就是“判斷那些能力真正重要”的技能。 (邸報)