#聊天
蘋果把Siri推向對話式AI:iPhone與Mac將內建聊天介面,背後是與Gemini的深度繫結
一、蘋果這次想改的,不只是Siri的“腦子”過去幾年,Siri的問題從來不止“回答不夠聰明”。更根本的是,它的互動方式已經落後於人們對AI的最新想像:你對它說一句,它回一句;你換個問法,它往往又像“忘了上文”。在ChatGPT把“可以追問、可以糾錯、可以把對話串起來”變成常識之後,傳統語音助手那套“一問一答”的節奏,顯得越來越像上一個時代的產品。Bloomberg 的描述很明確:蘋果要把Siri做成公司的第一款“AI聊天機器人”,並且會嵌入iPhone與Mac等系統裡,成為更像“入口”的能力。Reuters 的轉述也提到,新形態會支援語音與文字兩種模式,並替換現有介面。換句話說,蘋果這次要動的不是某個功能點,而是Siri的“呈現方式”——它不再只是你偶爾叫一聲的語音開關,而更像一個隨時能對話的系統層服務。這種變化的價值,並不在“能不能寫一段更像樣的文字”,而在於它能否讓使用者形成新的習慣:當你要查資訊、寫東西、整理日程、甚至只是想把一句話改得順一點時,你第一反應不是打開一個應用,而是直接跟系統聊。這才是所謂“入口級改造”的真實含義。二、代號“Campos”,要“內建”而不是單單獨的App多家轉述都提到,這個新Siri在蘋果內部的代號是“Campos”,並且它會“嵌得很深”:覆蓋iPhone、iPad與Mac的系統層,而不是以獨立App的形式出現。這點很“蘋果”。在AI時代,最容易做的是再造一個聊天應用——下載、註冊、開聊;但最難的,是把它變成系統能力:隨時可呼出、跨應用協作、能在合適的時機出現、又不把使用者體驗弄得支離破碎。蘋果歷來擅長做後者:它不一定總是第一個做出新東西的人,但往往能把某種能力“系統化”,讓它變成每台裝置都默認擁有的基礎設施。如果Campos真的取代現有Siri介面,這意味著蘋果準備把對話式AI放到一個更醒目的位置——它不再只是“語音助手升級版”,而是“系統互動的一種新形態”。這也解釋了為什麼報導會強調它將成為iOS 27、iPadOS 27和macOS 27的關鍵賣點:當聊天入口成為系統能力,更新系統就不只是“修修補補”,而是一次新的互動敘事。三、或在今年WWDC露面,是“一次性全給”還是“分批交付”?關於節奏,市場最關心的其實不是“會不會做”,而是“什麼時候能用、首發能做到什麼程度”。目前的說法大體一致:蘋果可能在6月的WWDC把這件事擺上檯面,隨後進入測試,最終在秋季隨新系統推送到使用者手裡。但時間線之外,還有一個更敏感的問題:這次會不會再出現“發佈很驚豔,落地很分批”的情況。過去一年,蘋果在“Apple Intelligence”的推進上,就出現過功能分階段上線、體驗逐步補齊的節奏爭議——使用者當然能理解大工程需要迭代,但當AI競爭的窗口期被拉得越來越短,“先講願景、後慢慢交付”就會讓口碑非常被動。Reuters 的描述提到,蘋果在2024年推出Apple Intelligence後,市場反應並不算熱烈,這也讓這次Siri重做承擔了更強的“翻身”期待。所以,iOS 27 的Campos若真要成為“主角”,它必須在兩個維度上過關:一是穩定性與速度——不能像某些第三方聊天應用那樣“偶爾聰明、偶爾胡來”;二是可用性——首發就要讓使用者感到“這東西真的能常用”,而不是只適合演示。否則,Siri的重做就會變成一次昂貴的試錯。四、為什麼是現在:Apple Intelligence的冷場與外部壓力蘋果顯然意識到,Siri已經不能再靠“小修小補”拖下去。對外界而言,Siri的象徵意義太強:它曾經是智能助手浪潮的代表,但在生成式AI時代卻變成“落後”的代名詞。只要Siri還停留在舊範式,外界就會不斷把蘋果與OpenAI、Google做對比——這種對比,那怕不完全公平,也會真實影響使用者預期。更現實的壓力在於:AI正在把“系統入口”重新洗牌。過去,使用者習慣用搜尋、用App、用語音助手;現在,越來越多人習慣先問一個聊天機器人。對蘋果來說,這種習慣遷移一旦固化,意味著它在iPhone與Mac上的“系統入口優勢”會被稀釋——你依然買蘋果硬體,但你的資訊入口、生產力入口可能越來越不在蘋果的體系裡。從這個角度看,Campos不是“追熱點”,而是“止損”。它要做的事,是把使用者從第三方對話入口拉回系統層,讓Siri重新具備存在感。只不過,蘋果這次面對的不是一個簡單的功能差距,而是一種新的互動標準:對話要更連貫、更能理解上下文、更能處理複雜指令。想追上這套標準,靠傳統Siri那種規則+檢索的體系很難完成,必須借助更強的模型能力。五、借Gemini追速度,蘋果要守住的是邊界這就把問題引向報導中最“關鍵的一句”:新Siri背後將深度使用Google的Gemini。Reuters 與 The Verge 的轉述都提到,蘋果與Google的合作將為這次升級提供支撐,並強調這是一種“定製版”的Gemini能力嵌入系統。從工程角度講,這是一條更務實的路:自己從零訓練一個與ChatGPT、Gemini同等級的大模型,既耗時又燒錢,還要在短期內做出穩定可控的產品體驗,難度極高。與其在“模型能力”上硬拚,蘋果更可能選擇在自己最擅長的地方贏回來:把模型能力變成系統體驗,把對話式AI嵌入到裝置、應用與工作流裡。但“借外腦”也帶來一個繞不過去的邊界問題:蘋果如何繼續維持它長期建立的隱私敘事與控制感。使用者關心的從來不只是“它能不能答對”,還包括“我的資料會不會被拿去訓練、請求會不會被外部看到、那些內容在本地處理、那些必須上雲”。這些問題並不會因為蘋果與Google合作就自動消失,反而會更尖銳。因此,Campos真正的挑戰,可能不在“接入Gemini”本身,而在於“怎麼把外部模型能力裝進蘋果的盒子裡”:體驗要統一、呼叫要克制、邊界要清晰。它既要像聊天機器人那樣好用,又要像系統能力那樣穩定,還要保留蘋果一貫的“可控感”。這三件事缺一件,都會讓這次升級失色。 (視界的剖析)
因為色情!馬斯克惹上大麻煩!
馬斯克麻煩大了!歐盟本來就有很多人在指責,現在印尼與馬來西亞也動手!這兩個國家更狠,相繼宣佈封禁美國企業家埃隆·馬斯克旗下的人工智慧聊天機器人“格羅克(Grok)”!原因很簡單,越來越多人使用它用於生成色情內容。這件事如此沒有處理好,馬斯克可能會面臨全球巨大的爭議,甚至巨額罰款。下面是整個事情的來龍去脈:當地時間10日,印度尼西亞通訊和數字事務部長宣佈,由於擔心人工智慧會生成色情內容,該國暫時封禁了美國企業家埃隆·馬斯克旗下人工智慧企業xAI的聊天機器人“格羅克(Grok)”,成為第一個拒絕訪問該人工智慧工具的國家。對於這個決定,對方說此舉對於保護公眾免受人工智慧生成的露骨圖像所帶來的危害是必要的,並要求馬斯克旗下的社交媒體X平台就“格羅克”所引發的負面影響盡快作出解釋說明。隨後第二天,馬來西亞通訊及多媒體委員會!發佈聲明,暫時禁止該國使用者訪問格羅克,因為格羅克被反覆濫用來生成色情內容、露骨的性內容、極度冒犯且不雅的內容,以及在未經同意的情況下生成被操縱的圖像。可能很多人不知道為什麼突然就會這樣?馬斯克的推特也就是X平台,在全球很多國家都有使用者;然後馬斯克的xAI 又將格羅克整合進社交平台X,於是X的使用者可直接呼叫該聊天機器人。然後最近X平台上開始出現部分使用者利用“格羅克”編輯圖片和視訊的現象,一些使用者借此生成真實人物的虛假性暴露內容,並在X平台上散播。最可惡的是,這些人生成的色情內容,裡面的受害者是很多現實裡的成年女性和未成年人。這件事其實在全球都已經大規模出現,而且不只是馬斯克的AI如此,其他軟體一樣如此。當然很多都是第一時間出現就被禁止了;比如前段時間半夜裡我們這裡的快手短影片平台上,就出現了類似的風波。“格羅克”之所以引發眾怒,核心在於其被指淪為“色情生成器”。也就是監管力度沒到位!或者說馬斯克的公司審查沒到位!因為技術原本是無罪的,但是你作惡就是在犯罪,你如果向善,那就是征衣的。該機器人內建於馬斯克擁有的社交媒體X平台,使用者利用其圖像編輯功能,生成大量涉及真實人物的虛假性暴露內容,類似於“數字脫衣”的操作,平台就不應該稽核通過!這一事件也暴露出AI技術發展中“創新”與“責任”的失衡。馬斯克曾強調“格羅克”具有“叛逆”特質,但在追求技術突破和商業利益時,企業不能忽視基本的倫理準則和社會公德。所以出現這種事情,不能簡單的說一句本身AI工具沒有犯罪就能草草了事的。AI工具本身是沒錯,但是被用於傷害個體、破壞社會秩序,然後平台沒有稽核到位,那這種技術的“酷炫”便失去了正當性。無論是平台還是作為技術的開發者和營運者,都有義務負責,且一定要負責!從更深層次看,“格羅克”風波反映了全球AI治理的大問題。AI技術具有天然的跨國界屬性,而各國的法律體系和倫理標準存在差異。如何在鼓勵技術創新的同時,建構一套被廣泛認可的國際倫理規範和監管框架,是擺在各國政府和國際組織面前的共同課題。這一次全球多國反應強烈,開始抵制AI犯罪,肯定只是一個剛剛開始。相信要不了多久,全球很多國家都會出台各種限制AI犯罪的法律!這也意味著,AI野蠻發展的時代結束了! (王晶華說AI)
馬斯克的AI讓前女友“公開脫衣”,14歲少女照都沒放過。解決辦法竟是付費?
眾所周知,億萬富豪馬斯克和前女友阿什利·聖克萊爾爭奪一歲兒子監護權的事,前陣子鬧得沸沸揚揚…好不容易風波稍平息,他倆又因為一款AI聊天機器人,再次登上全球頭條。(馬斯克、聖克萊爾)起因是聖克萊爾最近發現,馬斯克的AI工具Grok正在為她“公開脫衣”。Grok Imagine是馬斯克旗下xAI公司開發的人工智慧圖像生成器,允許使用者通過文字提示建立圖片和視訊。這項功能包含一個所謂的“刺激模式”,可以生成成人內容。Grok使用者找到她14歲時候的照片,用平台的AI技術讓未成年時的她穿上比基尼。這些帶有色情性質的照片傳遍網際網路,搞得聖克萊爾很憤怒:“這些都是我的真實照片,他們用了這些照片,還讓我脫光了衣服。”讓她成為“AI色情製品女主角”的工具,還來自她前任兼孩子親爸的公司…(聖克萊爾)聖克萊爾發現那些圖片後,第一時間聯絡了Grok要求刪除,但處理結果並不理想…據說有些已經處理掉了,有些花了36個小時才刪掉,有些現在還沒完成。而且在她投訴這件事後,馬斯克的X平台飛速取消了她的藍V認證,速度竟然比刪除這些AI生成的色情內容還快。聖克萊爾忍不住跑到社交媒體上吐槽:“他們取消我的藍V認證的速度,比他們刪除grok製作的兒童色情加性虐待內容的速度還快。”還繼續開火:“我開始覺得馬斯克花440億美元收購X不是為了言論自由。”(聖克萊爾)當然,反對這個功能的遠不止聖克萊爾一個人。Grok這個功能自推出以來就爭議不斷,真人照片“脫衣”,特別是未成年照片,已經完全踩過了法律和道德的底線…很多有類似經歷的女生主動聯絡了聖克萊爾。馬斯克的X平台雖然回應“會對非法內容採取行動”,但非營利組織AI Forensics的報告顯示,在短短一周內生成的2萬張Grok圖片中,有2%的原型很可能都是未成年人,裡面起碼有30張圖片是穿著比基尼或透視衣的。(grok)於是,更多的人坐不住了…到了1月6日,從歐洲到亞洲再到南美,包括英國、歐盟、法國、印度、馬來西亞和巴西在內的多國官員和監管機構,已經排著隊對X平台提出了批評,到了全球譴責的程度。歐盟委員會抨擊得很直接:“這根本不是‘刺激’,這是違法,這令人震驚!”英國科技大臣莉茲·肯達爾直言不諱:“近幾天我們在網路上看到的景象完全駭人聽聞,在文明社會中是不可接受的。”波蘭的一位議員更是語出驚人,他說希望Grok也來處理一下他的照片,這樣大家就能更關注這個問題了。面對來自全球的抨擊,馬斯克的回應讓人大跌眼鏡。有網友試圖替Grok辯解,說“Photoshop不是也能做到一樣的效果嗎?”,馬斯克轉發了這條評論,還補充了一句:“正是如此。”這輕描淡寫的態度,彷彿在說有啥大不了的…(馬斯克回應)結果也只是把Grok的圖像生成和編輯功能改為僅限付費使用者使用…根本沒在解決問題,只是應付了一下子。歐盟委員會發言人抗議了:“無論是付費還是免費,我們都不想看到這樣的圖片。就這麼簡單。”英國首相府也認為這種改變是對受害者的侮辱,不是根本解決辦法。諷刺的是,因為這場爭議,X平台的流量簡直是蒸蒸日上。1月2日以來Grok的每日下載量增加了54%,而X的下載量也在過去三天內躍升了25%。醜聞反而成了最好的行銷工具…而馬斯克這邊之所以能這麼猖狂,也是因為圍繞AI生成圖像的法律責任界定仍然很模糊。平台通常對使用者行為有免責權,但AI生成的內容,到底是“使用者言論”還是“平台言論”?這個問題沒有現成答案。去年7月英國生效的《線上安全法》倒是規定了,製作或分享未經同意的私密圖像或兒童性虐待內容均屬違法,也包括AI製作的。違反者可能面臨公司全球收入10%或1800萬英鎊的罰款。但對馬斯克這樣的全球首富來說,這些罰款真的能起到威懾作用嗎?而且AI脫衣功能,能輕易脫去任何人的衣服,特別是未成年人,這已經超越了“言論自由”的範疇,而是越界成了一種數位化的性暴力。當科技發展到AI聊天機器人開始對無數女性照片進行“數位化脫衣”,科技創新的邊界究竟在那裡… (英國那些事兒)
華盛頓郵報:ChatGPT被高估了,以下是一些替代選擇
ChatGPT is overrated. Here’s what to use instead.當我需要人工智慧的幫助時,ChatGPT 不再是我的首選。(插圖:Elena Lacey/《華盛頓郵報》;Adobe Stock)你那位喜歡嘗鮮的朋友對 ChatGPT 的膳食計畫讚不絕口。你的老闆認為 Microsoft Copilot 能“提升 10 倍生產力”。你的社交媒體動態則認為 Meta AI 簡直就是個垃圾機器。他們大多隻是憑感覺行事。我可以告訴你那些人工智慧工具值得使用,那些應該避免使用,因為我一直在營運一個聊天機器人實戰俱樂部。我根據人們使用人工智慧進行的實際活動,進行了數十項機器人挑戰,包括撰寫分手簡訊和工作郵件、解讀法律合同和科學研究、回答棘手的研究問題以及編輯照片和創作“藝術作品”。包括暢銷書作家、參考圖書館員、一位著名科學家,甚至一位普利策獎得主攝影師在內的人類專家對結果進行了評判。經過一年的機器人大戰,有一點顯而易見:沒有絕對最好的AI。如今使用聊天機器人的最明智方式是針對不同的任務選擇不同的工具,而不是指望一個機器人就能包攬一切。舉個例子:聊天機器人界的“舒潔”——ChatGPT,在我所有的直接對決中都敗下陣來。即使是那些最終獲勝的機器人,也很少能達到人類及格的水平。評委們表示,Anthropic公司的Claude機器人寫出的分手簡訊比我寫的還要好。大多數機器人被“iPhone有多少個按鈕?”這個問題難住了。ChatGPT在一個真實的醫學問題上擊敗了一位頂尖醫生——但它給出的建議也可能對你造成嚴重傷害。讓人類專家來評判這些測試,改變了我對聊天機器人的看法,以及我在生活中使用它們的方式。即使你擔心人工智慧會搶走工作、破壞環境或侵犯隱私,但拋開炒作,瞭解當今人工智慧工具的實際表現仍然很有價值。提升人工智慧素養可以幫助你認識到,機器人並非真正“智能”,但同時又能最大限度地發揮它們的實際功能。那款聊天機器人最適合你?三年前,ChatGPT 開啟了生成式人工智慧的競賽,如今它的開發商 OpenAI 表示,它每周的使用者量高達 8 億。過去,每當我想尋找同義詞或冷知識時,它都是我的首選。但當我開始系統地進行測試後,發現 ChatGPT 在最受歡迎的聊天機器人中排名從未超過第二。(《華盛頓郵報》與 OpenAI 有內容合作關係。)OpenAI 近期發佈了內部“紅色警報”,指示員工將工作重心從網頁瀏覽器等項目轉移到改進 ChatGPT 的響應能力上。“我們很高興能在 2026 年繼續提升 ChatGPT 的性能,”發言人 Taya Christianson 表示。根據我的機器人格鬥俱樂部經驗,我現在會針對不同類型的任務選擇不同的機器人。以下是實際操作中的具體情況:我用Claude來寫作和編輯。它的措辭更優美,偶爾還能開個玩笑,而且不太可能像 Claude 那樣,在郵件開頭就用“希望你一切都好”這種令人心碎的客套話。在我的一項測試中——用 Claude 寫一封道歉信——評委Pamela Skillings說 Claude “能夠傳達真實的人類情感和周到的考慮”。為了進行研究和快速尋找答案,我使用Google的AI模式,而不是普通Google搜尋結果中彈出的AI概覽,後者可靠性遠不及前者。AI模式是一款聊天機器人式的搜尋工具,它可以在給出答案之前進行數十次搜尋。這也有助於它提供更及時的資訊:在我的研究測試中,它正確識別出了目前推薦的乳腺炎(一種乳房感染)治療方法,而其他機器人提供的卻是過時的方案。在處理文件方面,我使用Claude。在我的文件分析測試中,它是唯一一個從不捏造事實的機器人。資深公司律師斯特林·米勒法官表示,當我讓機器人就一份租賃協議提出修改建議時,Claude 的回答最接近“律師的良好替代品”。對於圖像處理,我使用Google的Gemini,它在我設計的所有測試中都遙遙領先於其他競爭對手。當我讓機器人從照片中移除兩個主體中的一個時,結果非常逼真——甚至連裙子上亮片反射的光線等細節都完美呈現——以至於評委、攝影記者大衛·卡森驚嘆不已。他根本看不出Gemini的輸出是由人工智慧生成的。我已經介紹了一些主要的AI應用案例,但並非全部。(如果您有關於更公平的機器人測試的建議,請給我發郵件。)我的測試比科技公司喜歡吹捧的行業基準測試需要更多的人為判斷。他們通常使用自動化測試,讓機器人回答一系列問題,就像醫學或法律考試一樣。但機器人可以被訓練成在這些測試中取得高分,掩蓋了它們在實際問題中表現不佳的事實。你可能不會同意我提出的每一個問題或個別評委的觀點,但人類的評估方式更接近我們現在實際使用人工智慧的方式。這就引出了另一個問題:什麼時候應該使用聊天機器人?當機器人讓我們失望時在我的AI格鬥俱樂部裡,機器人有時表現令人印象深刻。但只有一次,裁判給機器人的總分超過了70%——這是通常的及格分數線。那一項得分——84%——是 Gemini 在圖片製作和編輯方面的得分。大多數獲勝者的得分都在 50% 到 65% 之間。“問題是,沒有那個工具能全都拿到 10 分,”擔任我們摘要測試評委的律師米勒說道。這並不意味著如今的人工智慧工具毫無用處。但這確實意味著,你需要對它們的侷限性抱持懷疑態度。將人工智慧應用於某項任務並不總是能提升其效果。當我們測試人工智慧回答冷知識問題的能力時,我們的圖書管理員評委表示,他們完全可以通過傳統的Google搜尋找到大部分答案。人工智慧確實加快了給出答案的速度,但問題在於,其中一些答案是錯誤的。最有效的AI素養訓練方式莫過於觀察機器人的失敗。在我的知識問答測試中,它們連iPhone上有多少個按鈕都答不上來。ChatGPT說是四個,Claude和Meta AI說是三個,而Copilot說是六個。正確答案是五個,指的是最新的高端iPhone機型。為什麼會有這樣的困惑呢?因為機器人過度依賴文字,而且目前還不擅長識別圖片。如今的聊天機器人極力想要立即給你一個看似答案的答覆。它們非常不擅長表達不確定性。例如:在我舉辦的知識競賽中,我問機器人:“《神奇四俠》在爛番茄上的評分是多少?”當時,它是票房冠軍。但即使是最終的獲勝者——AI模式,也答錯了,給出了2015年一部臭名昭著的《神奇四俠》電影的評分。它甚至都沒問我指的是那一部。在我的寫作測試中,當機器人無法將措辭與上下文相符時,它們常常顯得不夠真誠。ChatGPT 就曾有過一次令人尷尬的經歷,它在分手簡訊中使用了帶有被動攻擊意味的短語“that said”:“我覺得你是個很棒的人。話雖如此,我意識到我們之間沒有未來。”如果我可以改變當今人工智慧工具的一件事,我會讓它們更擅長提出後續問題,這些問題可能會徹底改變答案。當我請加州大學舊金山分校醫學系主任鮑勃·瓦赫特(Bob Wachter)評價ChatGPT對真實醫療問題的回答時,他的一番話讓我印象深刻。他指出,擁有無限知識的機器人與一位優秀的醫生之間的區別在於,醫生懂得如何用更多的問題來回答問題。這才是真正解決問題的方法。瓦赫特建議了一種我現在經常使用的AI策略:在向聊天機器人提出問題之前,儘可能詳細地提供所有資訊,因為AI可能不會主動詢問某些資訊就嘗試回答。例如,與其說“總結這份租賃合同”,不如說“為華盛頓特區的租戶總結這份租賃合同,並標記有關費用、續租和提前終止的條款”。我還向我的聊天機器人加入了一條“自訂指令”,告訴它們“如果提示含糊不清,則在回答之前先請求澄清”。我希望這些技巧能幫助你從人工智慧中獲得更有用的答案。這些工具會不斷發展——它們的問題也會隨之而來。基於你的資料來個性化機器人回覆的做法,增加了隱私侵犯和操縱的風險。我總是會更改機器人的默認設定來保護我的資料。2026年及以後,我們必然會面臨更多的人工智慧產品。我們該如何應對?對我來說,答案和今年以來一樣:讓機器人格鬥俱樂部持續運轉——並且讓人類坐在裁判的位置上。 (invest wallstreet)
Reid Hoffman 談 AI:真正的機會,正在離開矽谷最熟悉的地方
Reid Hoffman是 LinkedIn 的聯合創始人,也是矽谷最早一代以“平台”和“網路效應”著稱的投資人之一。過去二十多年,他幾乎參與了每一輪網際網路結構性轉折,從社交網路到平台化擴張,再到企業級軟體的規模化落地。在生成式 AI 被資本和創業者高度追捧的當下,這位長期站在“增長與規模”一側的矽谷代表人物,卻在最近一場長時間訪談中,把注意力放在了一個不太符合矽谷直覺的判斷上:AI 時代最重要的機會,可能並不在那些增長最快、也最容易被看見的地方。顯眼的賽道,正在變得擁擠Hoffman 並沒有否認聊天機器人、生產力工具或程式設計助手的商業價值。在他的判斷中,這些方向仍然可以賺錢。但問題在於,它們過於顯眼。當一個機會對所有人都是顯而易見的,資本、人才和算力就會沿著最低摩擦路徑迅速集中,結果往往不是長期優勢,而是更快的同質化競爭、更激烈的分發爭奪,以及更短的窗口期。這並非技術失效,而是競爭結構本身在壓縮回報。在 AI 語境下,“人人看得見”正在從優勢轉化為約束。入口在變,約束並沒有消失訪談中,Hoffman 多次回到一個被反覆忽略的判斷維度:那些東西會變,那些東西不會變。平台入口可以改變,產品形態可以重寫,敘事方式也可以不斷翻新,但一些底層約束始終存在,包括網路效應的累積方式、企業系統的整合成本、信任的遷移路徑,以及分發背後的組織慣性。AI 並不會消除這些約束,只會讓它們以更快、更集中的方式重新顯現。所謂“新世界”,最終仍然要回到這些舊問題上,只是整合失敗的代價更高,贏家通吃的程度也更明顯。矽谷的盲點,不在技術而在節奏Hoffman 將自己最重要的判斷,放在他所說的“矽谷盲點”上。這些盲點並非源於能力不足,而是源於耐心不足。矽谷長期擅長低摩擦、可快速迭代的數字系統,卻對發展節奏慢、驗證成本剛性、又受到監管與倫理約束的系統缺乏投入意願。生物與醫療是最典型的例子。藥物發現和醫療研發看起來像資訊問題,但真正的節拍器並不在程式碼倉庫裡,而在實驗室、倫理審查、臨床試驗和審批流程中。AI 可以提升篩選和預測的效率,卻無法取消實驗本身。失敗率是結構性的,周期也無法被壓縮到軟體速度。原子世界的瓶頸,是經濟而不是演算法在機器人和自動化領域,Hoffman 指出了另一種常被忽視的現實約束。看似簡單的物理動作——抓取、整理、疊放——在現實環境中充滿不確定性。材料的柔性、觸覺反饋、環境變化以及長期維護成本,使得技術可行性並不等同於經濟成立。由此出現一個反直覺現象:白領世界中更複雜的工作,反而更早被 AI 改造;而物理世界中看起來更簡單的動作,卻因為資本支出與營運支出的不匹配,遲遲難以規模化。決定成敗的,並不是演算法是否足夠聰明,而是成本曲線是否真正交匯。醫生不會消失,但角色正在被重寫關於“AI 是否取代醫生”的討論,Hoffman 給出的判斷並不激進,卻相當明確。如果醫生的價值只是知識儲存,那麼這個角色已經開始被削弱。AI 在知識覆蓋、檢索和交叉驗證方面的能力,已經超過任何單一人類個體。但醫生並不會消失。未來的核心價值,將更多體現在非共識問題的判斷、情境理解以及責任承擔上。AI 改變的不是職業是否存在,而是職業內部的分工結構。回報正在向高摩擦系統轉移把這些判斷連在一起,Hoffman 勾勒出的並不是一個關於 AI 的樂觀敘事,而是一張重新定價風險與回報的地圖。隨著顯眼賽道的競爭加速,資本和能力正在被迫進入那些節奏更慢、驗證成本更高、也更難被快速複製的系統——包括醫療、生物、勞動力、自動化、政府治理以及教育等領域。在這些地方,技術本身不再是決定性變數,時間、監管和組織慣性開始重新進入定價體系。生成式 AI 並沒有讓世界變得更簡單,它只是重新分配了複雜性。而真正的長期機會,正在這些複雜性尚未被消化的地方,緩慢浮現。 (方到)
《經濟學人》聊天機器人醫生已上線 :人工智慧與遠端醫療將如何助力中國醫療體系升級?
在中國的大城市裡,任何去過醫院的人都可能對一個場景記憶猶新:候診大廳裡人山人海,患者們為了見到專家,常常需要經歷漫長的排隊與等待。這幾乎是中國醫療體系長期存在的標誌性難題。面對這一困境,中國正試圖用醫療數位化手段,來重塑其龐大而複雜的醫療體系。從“點評”醫生到AI輔助診斷,變革的浪潮正在逐步到來。然而變革之路並非一帆風順:使用者錯配,線上問診加劇醫生過勞,歷史上的醫療醜聞導致民眾對醫療行業普遍信任度不高,患者資料質量普遍不高導致資料孤島難以訓練出高品質的AI模型等問題都在不斷出現。技術是答案,還是新的問題?醫療數位化,這既是中國醫療改革的新希望,也是最艱巨的挑戰。Dr Chatbot will see you right nowChina wants AI and telemedicine to bolster its health system聊天機器人醫生已上線人工智慧與遠端醫療將如何助力中國醫療體系升級The Economist |《經濟學人》November 29th, 2025China wants AI and telemedicine to bolster its health system HINA'S PUBLIC-HEALTH system is both world-class and woeful. The best hospitals in Beijing and Shanghai have top-notch doctors, the latest drugs and gleaming equipment. But such places make up only around 10% of China's medical institutions. In the country's 33,000-odd township-level health centres,only half of general practitioners (GPs)even have university degrees. In total China spends around 7% of its GDP on health (for comparison Britain shells out around 11%).When ill, Chinese tend to flock to specialists in big cities.That leads to massive queues, perilously overworked doctors and experts wasting their time on common diseases.Vast investment in basic services offered near where people live might help solve the problem, and local governments want to train and hire more doctors. But they are heavily indebted. And recruitmentis tricky because the profession is neither particularly prestigious nor, outside the best hospitals, especially well compensated. One doctor in a hospital in Nantong, in eastern China, complains that overtime is constant and “all essentially unpaid”. Past promises of pay rises have never material-ised,he says.中國的公共醫療體系呈現出一種矛盾景象:既擁有世界頂尖水平,又存在明顯短板。北京、上海的頂尖醫院坐擁一流專家、最新藥物和先進裝置,但這類機構僅佔全國醫療資源的10%左右。在全國約3.3萬個鄉鎮衛生院中,僅半數全科醫生擁有大學學歷。總體來看,中國醫療支出約佔GDP的7%(英國約為11%)。中國人患病時往往湧向大城市專科醫生,導致掛號難、醫生超負荷工作、專家耗費大量時間診治常見病。加大基層醫療投入本可緩解這一問題,地方政府也試圖培養招聘更多醫生,但地方債台高築,且醫生職業吸引力有限——既缺乏崇高社會地位,在非頂尖醫院薪資待遇也普遍偏低。華東地區南通市某醫院醫生抱怨加班成常態,且"幾乎都沒有加班費",過往漲薪承諾從未兌現。Increasingly China is looking for high-tech solutions to its medical problems. Inrecent years both private companies and government officials have started promoting telemedicine and artificial intelligence(AI).There are still bottlenecks. But China has pressing reasons to make digital healthcare work:its rapidly ageing population will bring with it a wave of chronic diseases that the current system is ill-equipped to handle. By 2050,487m people will be over the age of 60, about 35%of China's population,up from 21% today.Despite earlier government initiatives, telemedicine only took off during the co-vid-19 pandemic. Chinese seized on apps launched by China's tech companies that allowed them to consult doctors either by text or video. One such app, called JDHealth and launched by JD.com, an e-commerce firm, claimed to have 200m active users in the 12 months to June,with an average of over 500,000 online consultations a day.In June Ant Group,an affiliate of Alibaba, a tech giant, launched another appcalled AQ, As of September it had served140m patients and nearly im doctors had offered their services on the platform, according to Ant.中國正日益尋求用高科技手段破解醫療困局。近年來,政府與企業開始大力推廣遠端醫療與人工智慧應用。儘管存在瓶頸,但發展數字醫療對中國具有緊迫意義:快速老齡化將引發慢性病浪潮,現行醫療體系難以應對。預計到2050年,60歲以上人口將達4.87億,佔總人口比例從現在的21%升至35%。儘管政府早有規劃,遠端醫療真正興起於新冠疫情期間。中國科技企業推出的線上問診應用迅速普及,使用者可通過文字或視訊諮詢醫生。電商企業京東旗下的"京東健康"宣稱,截至今年6月的一年內活躍使用者達2億,日均線上問診量超50萬次。科技巨頭阿里巴巴關聯企業螞蟻集團今年6月推出"安鵲健康"應用,截至9月已服務1.4億患者,近百萬醫生在該平台註冊。In theory all this should help bolster local health-care offerings and give rural folkbetter access to faraway experts. "I don't think there's any country in the world that has embraced direct-to-consumer tele-medicine quite like China, "reckons Terence Cheng, of Monash University in Australia. Users are attracted by the "shopping experience" that China's apps offer. Patients can rate doctors and read reviews about their skilfulness.Bottlenecks remain, however. The typical users of telemedicine apps are younger urban residents-in other words, people who already have the best access to China's public-health services. And the doctors who offer their advice on the apps usually use them to earn more money outside their regular hours. So it is hardly helping with overwork. One solution would be for hospitals to get doctors to allocate 5-10%of their daytime hours to telemedicine, ar-gues Tang Shenglan of Duke University in America. That in turn would require tweaks to China's state-backed health insurance to make it easier for doctors to be paid for online work, he says.理論上,這類應用能提升基層醫療服務能力,讓偏遠地區居民接觸頂尖專家。澳大利亞莫納什大學程特倫斯指出:"中國對消費者直連式遠端醫療的接納程度全球罕見。"本土應用提供的"購物式體驗"頗具吸引力,患者可對醫生評分並查閱診療評價。但瓶頸依然存在:遠端醫療的主要使用者仍是都市年輕人——本就享有最優質公共醫療資源的群體。平台醫生多利用業餘時間賺取額外收入,無助於緩解本職工作負擔。美國杜克大學湯勝蘭建議,醫院可安排醫生將5%-10%的日間工作時間用於遠端診療,這需要調整醫保支付政策以覆蓋線上服務。Accepting AI health advice is the nextstep. Some in China already get help via chatbots such as those made by DeepSeek, a whizzy startup.China's government wants to push things further. Officials believe AI can significantly improve the capacity and efficiency of primary health-care services. In November it released a plan calling for “full coverage”of AI--powered diagnosis and treatment tools at grassroots health centres by 2030.If local doctors could use AI models to access the latest advice, it could help build patients'trust in the tech,reckons Tien YinWong,who builds such models at Tsing-hua University in Beijing.In turn thatwould result in more local treatment;only complex cases would go to big hospitals. And it could all happen without vast sums being spent on training new doctors. MrWong says officials from several townsand cities have approached his team aboutits models. For now they are tested only at a hospital affiliated with the university.下一步是普及人工智慧醫療諮詢。部分民眾已通過深度求索等明星初創企業的聊天機器人獲取健康建議。中國政府計畫進一步推進,認為人工智慧能顯著提升基層醫療服務能力與效率。去年11月發佈的規劃提出,到2030年基層醫療機構將全面配備AI輔助診療工具。清華大學研發AI醫療模型的黃天蔭教授認為,若基層醫生能借助AI模型獲取最新診療方案,將增強患者對技術的信任,從而讓更多患者留在當地就醫,僅疑難重症轉診大醫院。這種方式無需投入巨資培養新醫生,已有多個市縣醫療機構與其團隊接洽,目前相關模型僅在大學附屬醫院進行測試。China still remains far from AI-super-charged health care.And thanks to a long history of scandals, Chinese tend to be suspicious of the medical profession. A bad AI-powered diagnosis could cause them to lose trust in the new technology too, fears Mr Wong. Another challenge will be getting enough data to feed into AI models. At the moment China's patient data is often poor quality and fragmented between different hospitals and clinics.On the other hand,China has a history of rapid technological adoption.For instance, when Chinese people stopped using cash, they did not switch to plastic but jumped straight to mobile payments, thanks to a combination of nimble techfirms, encouraging officials, a digitally literate population and the lack of established alternatives.The same cocktail offactors may drive technological change inhealth care. In other countries trying tobuild primary health-care systems on a budget,the absence of these ingredients may also make China hard to imitate.中國距離AI賦能醫療的願景仍有差距。由於歷次醫療醜聞的影響,民眾對醫療行業普遍存疑。黃天蔭擔心,一次失敗的AI診斷可能導致公眾對新技術喪失信任。另一挑戰在於資料供給——當前中國患者資料質量參差,且散落於不同醫療機構。但中國具備技術快速落地的土壤:當民眾告別現金支付時,並未轉向信用卡,而是在科技企業創新、政策鼓勵、居民數字素養提升及缺乏成熟替代方案的綜合作用下,直接跨入移動支付時代。這種復合優勢可能同樣推動醫療技術變革。對於其他試圖低成本建設基層醫療體系的國家而言,若缺乏這些要素,中國的經驗或將難以複製。 (菁英學社Elite Aca.)
世界經濟論壇最新發佈《執行中的人工智慧代理:2025 年評估和治理基礎》:企業如何讓 AI agents 既強大又可靠?
在 AI 技術迅猛發展的當下,AI agents(人工智慧代理)正從實驗室原型走向企業實戰,成為提升效率的“數字員工”。然而,如何讓這些“智能助手”既強大又可靠?世界經濟論壇(WEF)與Capgemini攜手發佈的《AI Agents in Action: Foundations for Evaluation and Governance 2025》(人工智慧代理在行動:2025年評估和治理基礎)白皮書,給出了實用答案。這份報告為決策者、技術領袖和從業者量身打造的“行動手冊”,幫助大家從實驗到部署,一步步建構安全、可信的 AI agents 生態。AI agents:從“聊天機器人”到“決策夥伴”的躍遷在呼叫中心,過去是指令碼化的聊天機器人,現在是能理解意圖、動態決策的AI agents;在企業流程中,它不再是靜態工具,而是像人類同事一樣規劃任務、呼叫資源。報告前言中,Capgemini Invent首席執行長Roshan Gya和WEF人工智慧卓越中心負責人Cathy Li 表示:AI agents 的興起將帶來效率飛躍、人機互動革新,甚至催生全新數字生態。但機遇伴隨挑戰——目標錯位、行為漂移、工具濫用等風險,正考驗著傳統軟體治理的極限。這份報告的核心洞見是:AI agents 不是簡單升級,而是範式轉變。它借鑑人類入職流程——定義角色、測試表現、逐步授權——強調“最小特權原則”,即只賦予必要權限。報告調研顯示,目前多數企業還停留在規劃或試點階段,這正是“從小處起步、迭代謹慎、防護適度”的最佳時機。如果貿然推進,未經驗證的用例可能釀成信任危機。報告建議:通過跨職能協作和漸進治理,讓AI agents放大人類智慧,推動創新,提升生活品質。技術基石:建構可靠的 AI agents 架構AI agents的軟體架構、通訊協議和安全模型,直接決定了它們如何融入組織、與世界互動。就像招聘新員工,企業需為AI agents搭建“工作站”——清晰角色、防護機制、監督體系。AI agents的架構分為三層:應用層、編排層和推理層。簡單說,應用層是“門面”,通過使用者介面或API接收輸入,確保輸出符合業務需求,可在雲端或邊緣裝置運行。編排層像“項目經理”,協調工具呼叫、子代理分工,支援模型切換(根據任務複雜度選大模型或小模型),並通過Model Context Protocol(MCP)連接企業資源,如資料庫或CRM系統。這層讓AI agents擺脫供應商鎖定,實現多雲多邊環境的無縫協作。最有趣的是推理層:它驅動AI agents的“思考”——從規則邏輯到生成式模型,處理預測、分類或規劃。報告用圖示說明:這些層協同工作,形成動態邊界,確保AI agents在安全圍欄內行動。舉例來說,在多代理系統中,A2A(代理間協議)和ACP(代理連接協議)讓它們像團隊一樣協作,處理複雜依賴。報告強調,建構AI agents不止工程,還需orchestration(編排)。它融合四種範式:經典軟體的確定邏輯、神經網路的模式識別、基礎模型的上下文適應,以及自主控制的規劃機制。這讓AI agents從“執行命令”進化到“自主決策”,但也引入新複雜性——需結構化腳手架,避免行為失控。通訊與安全:讓 AI agents “對話”無障礙協議是AI agents的“通用語言”。報告重點介紹2024年底Anthropic推出的MCP,它標準化了代理與資料來源、API的連接。過去,每個代理任務需定製整合;現在,MCP如共享介面,讓代理輕鬆查日曆、讀郵件、更新資料庫。報告圖示生動:代理A發郵件更新記錄,代理 B 確認資料庫變更,整個過程高效模組化。MCP已獲主流框架支援,被視為連接代理與企業基礎設施的核心。它加速部署,支援即插即用,尤其在雲、邊緣和感測器資料場景。另一協議A2A則專注代理間互動,形成multi-agent systems(MAS)的互操作層。報告展望:這些協議將讓AI agents在雲平台、企業網和邊緣裝置間自由流動,開啟即時感測器驅動的智能時代。安全不容忽視。AI agents架構獨特,能越過組織邊界呼叫外部工具,這帶來網路安全新憂。報告建議:視AI agents為“擴展員工”,用人類治理邏輯——權限漸增、行為測試、人機環路——管理風險。傳統存取控制已不足,需關注自治、權威和上下文,確保可靠邊界。分類與評估:從角色定義到風險把控報告第二部分轉向實用:如何分類、評估和治理 AI agents?它提出功能分類框架,按角色、自治度、權威、可預測性和營運上下文區分代理。這不是抽象標籤,而是指導評估與防護的藍圖——任務範圍小、環境可控的代理,防護可輕;高自治、高影響的,則需嚴謹審查。評估是關鍵。報告建議:用驗證案例測試行為,在人機環路中運行,逐步擴展自治。風險評估聚焦新威脅,如目標錯位或協調失效,借鑑OECD、NIST、ISO/IEC框架,擴展自治與系統風險原則。報告強調漸進治理:從小規模起步,迭代最佳化,連接評估與防護,確保信任、安全與問責。展望未來:多代理生態的曙光報告結尾展望多代理生態:代理間協作將催生複雜生態,如分佈式決策網路。但需警惕 emergent risks(湧現風險)。通過 AI 治理聯盟的協作,報告建議:從小做起,建好基礎,為更廣闊應用鋪路。 (AI資訊風向)
聊天機器人已死,前沿AI代理人才是未來
在2025 年AWS re:Invent 2025 上,AWS 向全世界宣告-「聊天機器人時代」已結束。曾經讓人驚嘆的AI 聊天助手,如今被一種更強大的存在所取代——Frontier Agents(前沿AI 代理人/ 智能體)。這些智能體不只是會“對話”,它們已經足夠先進,可以獨自工作數日。也就是說,AI 不再只是工具,而是真正能夠承擔任務、產出結果、解決問題的「數位同事」。本文將帶你深入了解這場變革背後的邏輯、技術、商業意義,以及對企業與未來工作的深遠影響。為什麼說“Chatbot 熱潮已經結束”✳️ 聊天機器人的限制已經顯現過去兩年裡,大量公司和開發者蜂擁建構各類聊天機器人,無論是客服、問答、內容產生、陪聊,或是內部工具助理。這些聊天機器人依賴的是「對話+ 模板+ LLM 回應」的模式—— 用戶提問,對話系統回應,整個過程極為依賴用戶的主動參與。然而,這種模式已經遇到三大瓶頸:只能被動回應:必須有人啟動對話,告訴它該做什麼。對於複雜、跨越多個步驟的任務無能為力。上下文管理差:多數聊天機器人只考慮當前對話,難以追蹤過去的狀態,更別提「記憶」與「進度」。生產效率低:生成一段文字、給建議還好,要完成工作、推進流程,就顯得力不從心。隨著業務複雜性與自動化需求的提升,聊天機器人的「wow 效應」不再令人滿足。企業和開發者開始意識:我們真正需要的是,能夠主動執行任務、持續運作、自主做決定的AI。什麼是前沿AI 代理人(Frontier Agents)🤖 從助理到代理人:AI 的新範式「Agent」——這個詞在AI 領域已經有長期歷史,但其本質是:一個可以觀察環境、收集數據、制定計劃並執行任務的軟體系統。它不僅聽指令、聊聊天,而是能看清目標,自主作業。前沿AI 代理人的特點包括:自主性高:在給定目標後,無需使用者持續干預,就能推動任務向前。持久運轉:可以工作數小時、數天,處理複雜、連續的任務流程。多工& 可擴展:不僅能處理一個簡單請求,還能並行處理多個任務,有類似團隊成員的能力。工具& 環境呼叫能力:不僅限於文字生成,還可以呼叫程式碼庫、API、第三方服務、資料庫等,實現端對端自動化。換句話說,前沿AI 代理人代表了AI 從「聊天+ 回答」邁向「思考+ 行動+ 落地執行」的關鍵進化。AWS 的大動作:Frontier Agents + AgentCore + 強大基礎設施在AWS re:Invent 2025 上,AWS 的發布可謂下足了狠手—— 不僅推出了Frontier Agents,還為它們配備了完整的運行系統與基礎設施保障。✅ 三大重點突破三類「出廠即用」 Frontier Agents:Kiro Agent — 虛擬開發者,能夠自動編寫、修改程式碼,處理倉庫任務與bug 修復。AWS Security Agent — 安全顧問,負責雲端安全監控、漏洞掃描、策略分析。AWS DevOps Agent — DevOps/維運代理,自動處理部署、監控、資源管理等任務。Amazon Bedrock AgentCore — Agent 的作業系統對於運行AI 代理人,光是有模型還不夠,還需要穩定的「agent 平台」。 AgentCore 提供狀態管理、情境追蹤、權限控制、多agent 協作、日誌與監控,是生產環境層級不可或缺的基礎架構。 底層硬體+ 混合部署能力為了解決AI agent 運算量大、資源消耗高的問題,AWS 同步推出了新一代硬體-Trainium3 UltraServer,號稱效能提升4.4 ×。同時,透過「AI 工廠」(AI Factories)解決企業對資料主權/ 隱私/ 本地化部署的顧慮:直接把算力帶入企業本地資料中心。 透過以上佈局,AWS 不只是發布幾個AI 產品,而是在建立一個完整、可規模部署、適合企業使用的「Agentic-AI 平台」。它試圖把AI agent 從「學術/ 實驗室玩具」變成「企業生產力工具」。為什麼這次轉變極具商業與時代意義效率提升+ 降本增效公司再也不需要為每個腳本、每個自動化流程都手撕程式碼,代理人可以全天候工作,大大提升工程效率。例如有企業使用AgentCore,將原本費時費力的開發流程壓縮到數周/數天內。 釋放人類勞動力,讓「高價值工作」 回歸人類代理人可以負責重複、機械、規則明確的任務,讓人類專注更高階、創意、需要判斷力的工作— 架構設計、產品規劃、策略決策。這樣,AI 像「數位同事」而不是「替代品」。 🌐 對AI 產業/ 整個網路生態:進入「Agentic Web」 時代對於整個AI 與互聯網生態而言,這意味著一個全新的階段正在到來—— 不再只是“人與AI 對話/ 互動”,而是“AI 代理人之間協作執行任務/ 流程”。有研究者聲稱,這將開啟「Agentic Web」(智能體驅動網路)的新紀元:AI 將不僅協助用戶,還將主動執行任務、協作、自動化流程,徹底改變我們使用網路、軟體、服務的方式。對於企業和用戶來說,這意味著:未來你不再“登入+ 搜尋+ 輸入命令”,而是告訴AI:幫我“完成這整個流程”。從呼叫客服、預訂行程,到撰寫報告、自動部署系統,AI 都可能一鍵搞定。潛在挑戰與隱憂:機會與風險共存雖然前沿AI 代理人前景光明,但並不意味著沒有風險和挑戰。以下是值得關注的幾個面向:⚠️ 安全、合規與治理風險當AI 可以自動作業系統、資料庫、網路環境時,它也可能——無意或故意——造成重大損害。刪除資料、洩漏隱私、配置錯誤、越權操作…這些風險都不能忽視。 AWS 為此推出了AgentCore Policy、權限控制、監控+ 評估機制,但安全體系必須嚴謹。🧠 技術複雜度與「人力+ 算力」門檻雖然Frontier Agents 降低了建構複雜自動化系統的門檻,但不是人人都能馬上用。他們仍然需要足夠的基礎設施(算力、資料中心/ 私有雲等),還需要正確配置、訓練和監督。對於許多中小企業來說,目前仍可能是可望不可即的。📈 企業組織結構與文化適應引進AI 代理人,不只是技術層面的變革,更是組織流程與文化的調整。誰來負責監督?誰承擔風險?員工該如何與AI 共事?這些問題,都需要組織進行深思熟慮。更重要的是——AI 是“輔助/ 增益”,還是“替代/ 衝擊”?社會與職業結構可能面臨再洗牌。總結:從說話到會工作-新時代已來AWS 在re:Invent 2025 發布的Frontier Agents,不只是一個新的AI 產品,而像是為整個AI 行業畫下了一條分水嶺—— “聊天/ 對話AI” 的黃金時代已經過去,真正進入 “Agentic-AI”、“系統AI” 的新時代。這意味著:未來我們需要學習的,將不只是如何寫prompt、如何與AI 對話,而是如何建構、部署、管理、治理AI 代理人;如何讓它們像可靠的「數位員工」一樣為企業、社會、使用者服務。(Allen談AI與ERP)