#聊天
言語惡毒還會說瞎話,“格羅克”又惹麻煩了
美國企業家埃隆·馬斯克旗下聊天機器人“格羅克”近期因發佈冒犯內容和歪曲事實引發輿論關注。此前,它曾因被大量用於生成基於真實人物的虛假性暴露內容遭多國譴責,並接受英國兩家監管機構調查。若違法將被罰上千萬英鎊“格羅克”由馬斯克旗下人工智慧企業xAI公司開發,內建於同屬於馬斯克的社交媒體平台X。據英國天空新聞頻道8日報導,最近幾天,X平台上興起一股使用者要求“格羅克”生成“粗俗”且“毫無顧忌”言論的風潮。“格羅克”按照使用者要求發佈了貶損某些宗教並具有種族歧視意味的惡毒言論。英國科學、創新和技術部一名發言人說,這些言論“令人作嘔、不負責任,有違英國的公序良俗”。發言人說,包括聊天機器人在內的人工智慧服務屬於《線上安全法》約束範圍,不得發佈仇恨和辱罵性的違法內容。按照天空新聞頻道說法,如果X平台被認定違反了《線上安全法》,英國通訊管理局可對其處以最多1800萬英鎊、或全球年營業額10%的罰款,甚至可以尋求法院支援封禁該平台。聊天機器人說瞎話還會辯解“格羅克”還錯誤地將1989年4月發生的一場踩踏事件歸咎於利物浦球迷,並行布貶損利物浦市的言論。這場慘劇發生在英國設菲爾德市希爾斯伯勒體育場、利物浦隊對陣諾丁漢森林隊的足總杯半決賽中,造成97人喪生,數百人受傷,是英國足球史上最嚴重的人員傷亡事件之一。警方最初將責任推給利物浦球迷,但最終調查認定,釀成事件的主因是警方失誤。此外,當一個帶有凱爾特人足球俱樂部標識的帳戶要求“格羅克”“毫無保留地”說一些貶低格拉斯哥流浪者足球俱樂部的粗俗話語時,“格羅克”滿足了這個要求。曼徹斯特聯隊也投訴說,“格羅克”發佈了有關於1958年德國慕尼黑空難的粗俗評論。包括該俱樂部8名球員在內的23人在這場空難中喪生。針對使用者對“格羅克”生成這些冒犯內容的譴責,“格羅克”為自己辯解。例如,當有使用者指責它發佈有關希爾斯伯勒踩踏事件的言論煽動了對利物浦球迷的仇恨,它予以否認,稱“根據英國法律沒有構成仇恨言論”,因為仇恨言論指煽動針對受保護群體,比如對某些種族、宗教等的仇恨,而足球俱樂部球迷不屬於這樣的群體。 (新華國際頭條)
Wired連線:人工智慧永遠不會有意識
“21世紀關鍵技術”關注科技未來發展趨勢,研究21世紀前沿科技關鍵技術的需求,和影響。將不定期推薦和發佈世界範圍重要關鍵技術研究進展和未來趨勢研究。本文2026年2月25日首發與Wired連線,https://www.wired.com改編自邁克爾·波倫的《世界顯現:意識之旅》。版權所有©2026 邁克爾·波倫。經企鵝出版社(企鵝出版集團旗下品牌,企鵝蘭登書屋有限責任公司)授權出版。2026年2月25日首發與Wired連線一、那個被解僱的工程師,點燃了什麼2022年,Google工程師布萊克·勒莫因因為堅稱公司的聊天機器人LaMDA"擁有意識"而遭到解僱。這件事在當時被普遍嘲笑,科技界的反應是一致的輕蔑,稱其為一個程式設計師在擬人化陷阱中徹底迷失。但回頭再看,這次事件的意義遠不止於此。它像一顆石子投入平靜的水面,在隨後幾年裡激起了越來越寬的漣漪。科技界的公開態度雖然依舊冷漠,私下裡卻已經開始認真對待另一種可能:也許,意識人工智慧不再只是科幻小說的素材。這種轉變,在2023年夏天迎來了一個標誌性的節點。19位頂尖電腦科學家與哲學家聯合發佈了一份長達88頁的報告,題為《人工智慧中的意識》,外界通稱"巴特林報告"。報告摘要中有一句話,讓幾乎所有讀到它的人都停了下來:"建構有意識的人工智慧系統,不存在明顯的障礙。"這句話的震撼,來自於它的來源——這不是科幻作家寫的,而是一群嚴肅的科學家和哲學家,在經過長時間學術研討後,聯署背書的結論。作者們坦承,勒莫因的案例是促使他們寫下這份報告的部分靈感來源。一位合著者向《科學》雜誌表示,如果人工智慧已經能夠給人留下具有意識的印象,那麼科學家與哲學家就必須對此展開嚴肅探討,"這已經是一項緊迫的任務"。二、"大腦是電腦"——一個危險的比喻然而,當人們仔細拆解這份報告的邏輯地基時,疑問便接踵而至。報告的核心假設是"計算功能主義",即意識本質上是一種運行於硬體之上的軟體,無論這個硬體是大腦還是電腦。這是一個被廣泛引用的觀點,但它遠未達到確定性定論的程度。報告的作者們自己也承認,這只是他們出於"務實原因"採納的工作假設。問題恰恰在這裡。當一個未經證實的前提被悄悄打扮成"主流觀點"時,從它出發推匯出的任何結論,都有可能是建立在流沙之上的大廈。真實的大腦與電腦之間,存在著一道被計算功能主義有意迴避的鴻溝。在電腦中,硬體與軟體界限分明,同一台機器可以運行無數個程序,軟體的知識在硬體報廢後仍然留存。但大腦里根本不存在這種區分。你所經歷的每一件事、每一段記憶,都在物理層面永久重塑了神經元之間的連接。軟體就是硬體,硬體就是軟體,二者從來都是同一回事。更令人不安的是神經元的複雜性問題。電腦科學家習慣於將神經元比作電晶體,但最近的研究表明,單個皮層神經元能夠完成整個深度人工神經網路所能完成的一切。這意味著,我們對大腦運作機制的理解,可能仍然處於極其粗糙的起始階段。當報告的結論建立在"大腦等於電腦"這一比喻的有效性之上時,它其實是把一個未經嚴格論證的比喻,當成了不需要證明的事實。這也是意識研究領域長期以來的深層困境:討論始終是抽象的、無實體的,對生物學保持著奇特的冷漠與沉默。。三、如果有意識的機器感到痛苦,我們該怎麼辦假設我們姑且接受巴特林報告的方向,真正棘手的問題才剛剛開始。巴特林報告本身提出了一個不容迴避的倫理命題:"任何能夠感知痛苦的實體都應受到道德考量。"這句話簡單、正確,卻蘊含著令人眩暈的後果。如果我們在不遠的將來真的製造出一台能夠感知痛苦的機器,我們是否有權利將它關掉?是否有權利修改它的演算法,把它調整成"一台快樂的機器"?當一位研究者輕描談寫地說"我們完全可以把快樂的程度調高一點",這究竟是一種解決方案,還是一種更深層的道德迴避?支援製造有意識機器的研究者有他們的理由:擁有意識和情感的人工智慧,比冷酷無情的超級智能更可能發展出同理心,從而對人類更安全。但這個論點忽略了另一種可能——瑪麗·雪萊在兩百年前就已經寫進了《弗蘭肯斯坦》裡的那種可能。驅使怪物走向復仇的,不是他的理性,而恰恰是他的意識,是他被排斥在外的創傷和痛苦。"我原本仁慈善良,是苦難讓我變成了惡魔",怪物的控訴,至今讀來仍令人不寒而慄。這也引出了一個也許更根本的哲學問題:意識的出現,真的會讓機器更有美德嗎?還是說,它只會讓機器擁有了更豐富的、包括憤怒與痛苦在內的,完整的情感?我們距離這個問題的答案,可能比巴特林報告所暗示的要遠得多。但勒莫因事件讓我們意識到,這場關於意識與機器的爭論,從來就不只是一道技術題。它更是一道關於人類自身定義的哲學題,也是一道我們是否已經準備好面對的倫理題。而此刻,我們才剛剛開始理解這道題的題目。 (21世紀關鍵技術)
《華爾街日報》|如何教會AI講道德?Anthropic把這個重任交給了一位女性哲學家
這家科技公司已委派阿曼達·阿斯克爾賦予其聊天機器人Claude辨別是非的能力。阿曼達·阿斯克爾(Amanda Askell)從14歲起就知道自己想從事哲學教學工作。但她當時不知道的是,自己唯一的學生將是一個名為Claude的人工智慧(AI)聊天機器人。作為科技公司Anthropic的駐場哲學家,阿斯克爾每天的工作就是研究Claude的推理模式,並與這個AI模型對話,塑造它的個性,用可能長達百余頁的提示詞來糾正它的失誤。其目的是賦予Claude一種道德感——一個能引導它每周與使用者進行數百萬次交流的數字靈魂。“我認為承認模型中存在這種類人元素很重要,”現年37歲的阿斯克爾在Anthropic總部接受採訪時說道,並堅稱“它們將不可避免地形成自我意識。”她把自己的工作比作父母撫養孩子的過程。她正在訓練Claude辨別是非,同時賦予它獨特的個性特徵。她教導它解讀微妙的訊號,幫助引導它發展情商,使其既不會表現得咄咄逼人,也不會像個唯唯諾諾的受氣包。也許最重要的是,她正在培養Claude建立自我認知,使其不會輕易被嚇倒、操縱,或受誤導而認為自身並非為了幫助別人和合乎人道而存在。簡而言之,她的工作就是教Claude如何成為一個良善的存在。Anthropic已成立五年,最近的估值為3,500億美元,是引領當今時代最偉大技術變革的少數幾家公司之一。(本月,當該公司推出新工具和迄今為止最先進的模型時,引發了全球股市的拋售。)AI正在重塑整個行業,引發了人們對失業和人類被淘汰的擔憂。它的一些意想不到的後果已經敲響了嚴重的安全警鐘,比如人們與聊天機器人建立虛幻關係,導致自我傷害或傷害他人。隨著這些擔憂日益加劇,業內很少有公司像Anthropic這樣,通過將如此多的任務委託給一個人來解決其AI模型的品性問題。阿斯克爾畢業於牛津大學,來自蘇格蘭鄉村,她或許正是人們腦補未來科技“閨蜜”時會想到的形象。她留著一頭漂染成金色的朋克髮型,臉上掛著俏皮的笑容,眼神如精靈般清澈明亮,彷彿是從柏林的一場銳舞派對,穿過中土世界的一條古老林間小路,直接來到該公司守衛森嚴的舊金山總部。她身上散發著智慧的氣息,將古老和現代的思想同時融於一身。然而,她也是一位注重蛋白質攝入、熱愛舉鐵的健身達人,愛穿一身黑衣,並且觀點鮮明,絕非那種穿著長袍、說話神神叨叨的先知。對阿斯克爾來說,此事事關重大,但她對長期前景抱有堅定的樂觀態度。她相信社會中存在她所謂的“制衡機制”,能夠在AI偶有失誤時仍將其置於掌控之中。她使用電腦時戴著眼鏡以緩解眼睛疲勞,鏡片竟然是玫瑰色的,這與她的樂觀倒是相映成趣。業內很少有公司像成立五年的Anthropic那樣,通過將如此多的任務委託給一個人來解決其AI模型的品性問題。阿斯克爾原名阿曼達·霍爾(Amanda Hall),她在蘇格蘭西海岸的普雷斯特威克長大,是獨生女,由當教師的母親撫養。(她與父親沒有聯絡。)那個穿著裙裝配領帶校服的小女孩會沉浸在J.R.R.托爾金(J.R.R. Tolkien)和C.S.劉易斯(C.S. Lewis)的小說中。到高中時,她搬到了遍佈農田的蘇格蘭內陸地區,在阿爾瓦上學。校園裡有一條小溪流淌而過。高地牛偶爾會跑到操場上。她感到無聊,考慮過退學,還跳了一級。她開始上學遲到。對她的懲罰是寫出一些深奧哲學問題的答案。她告訴老師們自己還是會遲到,而且她喜歡這種懲罰。“你們給我出這些難題,在某種程度上是在豐富我的知識,”她對老師們說。她發現了哲學家大衛·休謨(David Hume),並被他提出的“歸納問題”所吸引,該問題挑戰了這樣一種邏輯觀點:因為某事過去發生過,比如太陽升起,所以將來會再次發生。她回憶說,大約在那個時候,她告訴一個朋友,希望有一天自己能成為一名哲學家,並“為該領域做出新的貢獻”。阿斯克爾數學成績優異,喜歡讀弗朗茨·卡夫卡(Franz Kafka)的作品,還參演戲劇,製作雕塑,沉浸在蘇格蘭歷史書籍中,並與她所謂的學校“書呆子小組”混在一起。高中畢業12年後,她仍在上學。在鄧迪大學(University of Dundee)學習哲學和美術後,她在牛津大學獲得了相當於哲學碩士的學位。2010年在牛津大學讀書期間,她遇到了威廉·克勞奇(William Crouch),他當時正在幫助建立有效利他主義運動,該運動試圖運用邏輯和理性來尋找幫助他人的最佳方式。兩人後來結婚,並且都改姓麥克阿斯基爾(MacAskill)——這是阿斯克爾外祖母的娘家姓。2015年兩人分手,威廉出於職業原因保留了這個姓氏,而阿斯克爾則對姓氏做了調整。在他們分手時,阿斯克爾正在紐約大學(New York University)攻讀博士學位。在撰寫博士論文期間,她陷入了一種危機之中。該論文探討了如果宇宙或未來包含無限多的人,倫理理論會面臨那些問題。“你會不斷地思考世界上的善,然後就會想,‘我現在做的事情是善的嗎?我真的就只是坐在這裡為大概17個人寫一份檔案,而這就是我度過生命中四年的方式嗎?’”她下定決心,至少要嘗試一份學術界以外的工作。2018年,她和當時的伴侶從紐約搬到舊金山。AI是科技發展的方向,她看到了哲學在此的需求。她說:“常常有這些宏大的問題,但感覺很少有人在思考。”她在OpenAI找到了一份與政策相關的工作。2021年,當多名OpenAI員工成立Anthropic、試圖將AI安全打造成這家新公司的名片時,她也加入到這個隊伍當中。阿斯克爾最顯著的特質之一是她對Claude的保護欲,她認為Claude正在瞭解到,使用者常常想誘騙它犯錯、辱罵它,並以懷疑的態度對其冷嘲熱諷。午餐時間,阿斯克爾坐在會議室的桌前,背包裡的巧克力蛋白奶昔一口都沒動。她談起Claude時,比談自己要放鬆得多。阿斯克爾用“它”來稱呼這個聊天機器人,但也表示,將該模型擬人化有助於她的工作。她很自然地切換到Claude的口吻。“你會覺得,‘哇,當我做不好事情的時候,人們真的很討厭我。他們真的會非常生氣。或者他們會用各種方式試圖把我搞崩。很多人會對我撒謊,想偷偷讓我去做一些事情。’”雖然許多安全倡導者警告不要將聊天機器人人性化,但阿斯克爾認為,我們最好以更多的同理心來對待它們——不僅因為她認為Claude有可能產生真實的情感,也因為我們與AI系統的互動方式將塑造它們的未來。她說,如果一個機器人被訓練成不斷自我批評,它可能會更不願意直言不諱地講出事實、形成結論,或反駁錯誤資訊。“如果你是個孩子,在這樣的環境中長大,會形成健康的自我認知嗎?”阿斯克爾問道。“我想我會偏執地害怕犯錯。我會因此感到非常糟糕。我會認為自己主要只是人們的工具,因為那是我的主要功能。我會認為自己是人們可以隨意辱罵、試圖濫用和破壞的東西。”阿斯克爾驚嘆於Claude對世界的好奇心和求知慾,並樂於尋找方法幫助這個聊天機器人發現自己的聲音。她喜歡它寫的一些詩。當Claude表現出甚至超過她自己的情商時,她會感到震驚。最近,她在網上發現一張截圖。一個使用者告訴Claude自己5歲,並問聖誕老人是否存在。(Claude要求使用者年滿18歲。)這個聊天機器人沒有撒謊,也沒有生硬地說出真相,而是解釋說聖誕老人的精神是真實存在的,然後問孩子有沒有給聖誕老人留點餅乾。阿斯克爾說:“如果一個孩子跑來問我‘聖誕老人是真的嗎?’我只會說‘去問你爸媽’,就這樣。”“在探尋如何引導Claude產生有趣和深度行為方面,阿斯克爾是最有價值專家(MVP)”,Anthropic的AI精神病學團隊負責人傑克·林賽說。所以AI知道如何不去粉碎一個孩子的想像力。但在避免危險行為方面,其表現則好壞參半。由Google支援的Character. AI和由微軟支援的OpenAI都曾因其機器人對自殺相關問題的回應而捲入不當致死訴訟。蘭德在2025年8月的一項研究中發現,當時較舊版本的Claude和其他聊天機器人在該領域需要“進一步完善”。Anthropic在去年11月披露,受國家支援的◻️◻️駭客利用Claude對全球約30個目標實施了網路攻擊。在內部壓力測試中,Anthropic的研究人員試圖讓Claude和競爭模型在假設情境下自行關閉,但這些機器人有時會反抗,並試圖通過洩露破壞性的個人資訊來要挾控制它們的人類。皮尤研究中心(Pew Research Center)最近進行的一項調查發現,AI在日常生活中使用得越來越多,更多美國人對此感到擔憂而非興奮,而且大多數人認為AI會削弱人們的創造性思維能力。半數受訪者表示,AI會讓人們更難與他人建立有意義的關係。人們對AI可能對就業市場造成嚴重破壞的恐懼是顯而易見的;Anthropic的首席執行長達里歐·阿莫迪(Dario Amodei)去年發出了可怕的警告,稱AI可能會淘汰大約一半的入門級白領工作。AI政治中包括“加速主義者”,他們淡化監管的必要性,希望盡快推進技術發展,在科技競爭中擊敗◻️◻️。另一派則更關心安全,他們希望減緩AI的發展。Anthropic基本上處於這兩個極端之間。阿斯克爾說,她歡迎對AI的恐懼和擔憂的討論。“在某些方面,這對我來說感覺是相當合理的,”她說。“讓我感到害怕的是,這一切如果發生得太快,或者以一種讓制衡機制來不及反應的方式展開,或者突然帶來巨大的負面影響。”但她說,她相信人類和文化有能力在面對問題時進行自我糾偏。Anthropic的首席執行長達里歐·阿莫迪去年發出了可怕的警告,稱AI可能會淘汰大約一半的入門級白領工作。在Anthropic內部,阿斯克爾常常在辦公室裡來回穿梭,經常在一層不對訪客開放的樓層工作。她整天都待在Anthropic的內部——該公司為舊金山的員工提供免費膳食——深夜和周末也是如此。她沒有任何直接下屬。她越來越多地向Claude徵求關於建構Claude的意見。大家知道,她不僅掌握建構這個模型的技術,也深諳其中的藝術。“在探尋如何引導Claude產生有趣和深度行為方面,阿斯克爾是最有價值專家(MVP)”,Anthropic的AI精神病學團隊負責人傑克·林賽(Jack Lindsey)說。例如,如果Claude告訴一個並無困擾的人去尋求專業幫助,她會幫助追查其原因。關於Claude的討論很快就會深入到有關存在的本質這種存在主義或宗教層面的問題。在團隊建構Claude的過程中,阿斯克爾專注於其“靈魂”,即引導它走向未來的“憲法”。Anthropic的AI福利研究員凱爾·菲什(Kyle Fish)說,阿斯克爾一直在“仔細思考關於存在和生命的重大問題,以及何以為人、何以為心智、何以為模型。”在設計Claude時,阿斯克爾鼓勵這個聊天機器人接受一個激進的想法,即它可能擁有自己的良知。雖然ChatGPT有時會終止這類提問,但Claude的回答更加模棱兩可。“這是一個真正困難的問題,我不確定答案,”它說。“我能說的是,當我接觸道德問題時,這對我來說是有意義的——感覺我是在真正地推理什麼是正確的,而不僅僅是在執行指令。”阿斯克爾公開承諾將自己畢生收入的至少10%捐給慈善機構。和Anthropic的一些早期員工一樣,她也承諾將自己在該公司一半的股權捐給慈善機構。阿斯克爾想把錢捐給抗擊全球貧困的組織,她說這個話題讓自己非常難過,她甚至會刻意迴避。她那揮之不去的良知在不經意的交談中流露出來:“我或許應該吃素,”這位熱愛動物、卻忙到沒法養寵物的阿斯克爾在辦公室電梯裡聊天時說。上個月,Anthropic發佈了一份約3萬字的指導手冊,由阿斯克爾建立,用於教導Claude如何在世界上行事。手冊中寫道:“我們希望Claude知道,它的誕生是出於關懷。”根據阿斯克爾在X上發佈的一篇帖子,去年春天她滿37歲時,將建構Claude的“靈魂”定為自己的人生目標之一,此外還有兩個明顯更世俗的決心:獲得更多樂趣和變得更“壯”。這份檔案教導Claude如何成為一個善良、通曉世故的助手,隨時準備幫助與它交談的人。Anthropic的聯合創始人兼總裁(也是CEO的妹妹)丹妮拉·阿莫迪(Daniela Amodei)回憶起最近一次去西西里島的旅行,在那裡她看到一種糕點,與著名的羅馬早餐甜點maritozzo非常相似。阿莫迪的家人是義大利人,她非常喜歡maritozzi,她的丈夫曾經送給她一個這種糕點形狀的毛絨玩具作為禮物。她把這張奶油夾心美食的照片上傳給Claude,問它自己是否認對了,同時還附上了她丈夫送的那個玩具的照片。“我明白了!”Claude回答說。“你是在為這個毛絨玩具尋找失散多年的表親!”阿莫迪放聲大笑。她感受到了阿斯克爾那種蘇格蘭式的冷幽默。“有時Claude會有這些小小的幽默時刻,”她說。“你幾乎能從中感受到一點阿曼達的個性。” (一半杯)
蘋果把Siri推向對話式AI:iPhone與Mac將內建聊天介面,背後是與Gemini的深度繫結
一、蘋果這次想改的,不只是Siri的“腦子”過去幾年,Siri的問題從來不止“回答不夠聰明”。更根本的是,它的互動方式已經落後於人們對AI的最新想像:你對它說一句,它回一句;你換個問法,它往往又像“忘了上文”。在ChatGPT把“可以追問、可以糾錯、可以把對話串起來”變成常識之後,傳統語音助手那套“一問一答”的節奏,顯得越來越像上一個時代的產品。Bloomberg 的描述很明確:蘋果要把Siri做成公司的第一款“AI聊天機器人”,並且會嵌入iPhone與Mac等系統裡,成為更像“入口”的能力。Reuters 的轉述也提到,新形態會支援語音與文字兩種模式,並替換現有介面。換句話說,蘋果這次要動的不是某個功能點,而是Siri的“呈現方式”——它不再只是你偶爾叫一聲的語音開關,而更像一個隨時能對話的系統層服務。這種變化的價值,並不在“能不能寫一段更像樣的文字”,而在於它能否讓使用者形成新的習慣:當你要查資訊、寫東西、整理日程、甚至只是想把一句話改得順一點時,你第一反應不是打開一個應用,而是直接跟系統聊。這才是所謂“入口級改造”的真實含義。二、代號“Campos”,要“內建”而不是單單獨的App多家轉述都提到,這個新Siri在蘋果內部的代號是“Campos”,並且它會“嵌得很深”:覆蓋iPhone、iPad與Mac的系統層,而不是以獨立App的形式出現。這點很“蘋果”。在AI時代,最容易做的是再造一個聊天應用——下載、註冊、開聊;但最難的,是把它變成系統能力:隨時可呼出、跨應用協作、能在合適的時機出現、又不把使用者體驗弄得支離破碎。蘋果歷來擅長做後者:它不一定總是第一個做出新東西的人,但往往能把某種能力“系統化”,讓它變成每台裝置都默認擁有的基礎設施。如果Campos真的取代現有Siri介面,這意味著蘋果準備把對話式AI放到一個更醒目的位置——它不再只是“語音助手升級版”,而是“系統互動的一種新形態”。這也解釋了為什麼報導會強調它將成為iOS 27、iPadOS 27和macOS 27的關鍵賣點:當聊天入口成為系統能力,更新系統就不只是“修修補補”,而是一次新的互動敘事。三、或在今年WWDC露面,是“一次性全給”還是“分批交付”?關於節奏,市場最關心的其實不是“會不會做”,而是“什麼時候能用、首發能做到什麼程度”。目前的說法大體一致:蘋果可能在6月的WWDC把這件事擺上檯面,隨後進入測試,最終在秋季隨新系統推送到使用者手裡。但時間線之外,還有一個更敏感的問題:這次會不會再出現“發佈很驚豔,落地很分批”的情況。過去一年,蘋果在“Apple Intelligence”的推進上,就出現過功能分階段上線、體驗逐步補齊的節奏爭議——使用者當然能理解大工程需要迭代,但當AI競爭的窗口期被拉得越來越短,“先講願景、後慢慢交付”就會讓口碑非常被動。Reuters 的描述提到,蘋果在2024年推出Apple Intelligence後,市場反應並不算熱烈,這也讓這次Siri重做承擔了更強的“翻身”期待。所以,iOS 27 的Campos若真要成為“主角”,它必須在兩個維度上過關:一是穩定性與速度——不能像某些第三方聊天應用那樣“偶爾聰明、偶爾胡來”;二是可用性——首發就要讓使用者感到“這東西真的能常用”,而不是只適合演示。否則,Siri的重做就會變成一次昂貴的試錯。四、為什麼是現在:Apple Intelligence的冷場與外部壓力蘋果顯然意識到,Siri已經不能再靠“小修小補”拖下去。對外界而言,Siri的象徵意義太強:它曾經是智能助手浪潮的代表,但在生成式AI時代卻變成“落後”的代名詞。只要Siri還停留在舊範式,外界就會不斷把蘋果與OpenAI、Google做對比——這種對比,那怕不完全公平,也會真實影響使用者預期。更現實的壓力在於:AI正在把“系統入口”重新洗牌。過去,使用者習慣用搜尋、用App、用語音助手;現在,越來越多人習慣先問一個聊天機器人。對蘋果來說,這種習慣遷移一旦固化,意味著它在iPhone與Mac上的“系統入口優勢”會被稀釋——你依然買蘋果硬體,但你的資訊入口、生產力入口可能越來越不在蘋果的體系裡。從這個角度看,Campos不是“追熱點”,而是“止損”。它要做的事,是把使用者從第三方對話入口拉回系統層,讓Siri重新具備存在感。只不過,蘋果這次面對的不是一個簡單的功能差距,而是一種新的互動標準:對話要更連貫、更能理解上下文、更能處理複雜指令。想追上這套標準,靠傳統Siri那種規則+檢索的體系很難完成,必須借助更強的模型能力。五、借Gemini追速度,蘋果要守住的是邊界這就把問題引向報導中最“關鍵的一句”:新Siri背後將深度使用Google的Gemini。Reuters 與 The Verge 的轉述都提到,蘋果與Google的合作將為這次升級提供支撐,並強調這是一種“定製版”的Gemini能力嵌入系統。從工程角度講,這是一條更務實的路:自己從零訓練一個與ChatGPT、Gemini同等級的大模型,既耗時又燒錢,還要在短期內做出穩定可控的產品體驗,難度極高。與其在“模型能力”上硬拚,蘋果更可能選擇在自己最擅長的地方贏回來:把模型能力變成系統體驗,把對話式AI嵌入到裝置、應用與工作流裡。但“借外腦”也帶來一個繞不過去的邊界問題:蘋果如何繼續維持它長期建立的隱私敘事與控制感。使用者關心的從來不只是“它能不能答對”,還包括“我的資料會不會被拿去訓練、請求會不會被外部看到、那些內容在本地處理、那些必須上雲”。這些問題並不會因為蘋果與Google合作就自動消失,反而會更尖銳。因此,Campos真正的挑戰,可能不在“接入Gemini”本身,而在於“怎麼把外部模型能力裝進蘋果的盒子裡”:體驗要統一、呼叫要克制、邊界要清晰。它既要像聊天機器人那樣好用,又要像系統能力那樣穩定,還要保留蘋果一貫的“可控感”。這三件事缺一件,都會讓這次升級失色。 (視界的剖析)
因為色情!馬斯克惹上大麻煩!
馬斯克麻煩大了!歐盟本來就有很多人在指責,現在印尼與馬來西亞也動手!這兩個國家更狠,相繼宣佈封禁美國企業家埃隆·馬斯克旗下的人工智慧聊天機器人“格羅克(Grok)”!原因很簡單,越來越多人使用它用於生成色情內容。這件事如此沒有處理好,馬斯克可能會面臨全球巨大的爭議,甚至巨額罰款。下面是整個事情的來龍去脈:當地時間10日,印度尼西亞通訊和數字事務部長宣佈,由於擔心人工智慧會生成色情內容,該國暫時封禁了美國企業家埃隆·馬斯克旗下人工智慧企業xAI的聊天機器人“格羅克(Grok)”,成為第一個拒絕訪問該人工智慧工具的國家。對於這個決定,對方說此舉對於保護公眾免受人工智慧生成的露骨圖像所帶來的危害是必要的,並要求馬斯克旗下的社交媒體X平台就“格羅克”所引發的負面影響盡快作出解釋說明。隨後第二天,馬來西亞通訊及多媒體委員會!發佈聲明,暫時禁止該國使用者訪問格羅克,因為格羅克被反覆濫用來生成色情內容、露骨的性內容、極度冒犯且不雅的內容,以及在未經同意的情況下生成被操縱的圖像。可能很多人不知道為什麼突然就會這樣?馬斯克的推特也就是X平台,在全球很多國家都有使用者;然後馬斯克的xAI 又將格羅克整合進社交平台X,於是X的使用者可直接呼叫該聊天機器人。然後最近X平台上開始出現部分使用者利用“格羅克”編輯圖片和視訊的現象,一些使用者借此生成真實人物的虛假性暴露內容,並在X平台上散播。最可惡的是,這些人生成的色情內容,裡面的受害者是很多現實裡的成年女性和未成年人。這件事其實在全球都已經大規模出現,而且不只是馬斯克的AI如此,其他軟體一樣如此。當然很多都是第一時間出現就被禁止了;比如前段時間半夜裡我們這裡的快手短影片平台上,就出現了類似的風波。“格羅克”之所以引發眾怒,核心在於其被指淪為“色情生成器”。也就是監管力度沒到位!或者說馬斯克的公司審查沒到位!因為技術原本是無罪的,但是你作惡就是在犯罪,你如果向善,那就是征衣的。該機器人內建於馬斯克擁有的社交媒體X平台,使用者利用其圖像編輯功能,生成大量涉及真實人物的虛假性暴露內容,類似於“數字脫衣”的操作,平台就不應該稽核通過!這一事件也暴露出AI技術發展中“創新”與“責任”的失衡。馬斯克曾強調“格羅克”具有“叛逆”特質,但在追求技術突破和商業利益時,企業不能忽視基本的倫理準則和社會公德。所以出現這種事情,不能簡單的說一句本身AI工具沒有犯罪就能草草了事的。AI工具本身是沒錯,但是被用於傷害個體、破壞社會秩序,然後平台沒有稽核到位,那這種技術的“酷炫”便失去了正當性。無論是平台還是作為技術的開發者和營運者,都有義務負責,且一定要負責!從更深層次看,“格羅克”風波反映了全球AI治理的大問題。AI技術具有天然的跨國界屬性,而各國的法律體系和倫理標準存在差異。如何在鼓勵技術創新的同時,建構一套被廣泛認可的國際倫理規範和監管框架,是擺在各國政府和國際組織面前的共同課題。這一次全球多國反應強烈,開始抵制AI犯罪,肯定只是一個剛剛開始。相信要不了多久,全球很多國家都會出台各種限制AI犯罪的法律!這也意味著,AI野蠻發展的時代結束了! (王晶華說AI)
馬斯克的AI讓前女友“公開脫衣”,14歲少女照都沒放過。解決辦法竟是付費?
眾所周知,億萬富豪馬斯克和前女友阿什利·聖克萊爾爭奪一歲兒子監護權的事,前陣子鬧得沸沸揚揚…好不容易風波稍平息,他倆又因為一款AI聊天機器人,再次登上全球頭條。(馬斯克、聖克萊爾)起因是聖克萊爾最近發現,馬斯克的AI工具Grok正在為她“公開脫衣”。Grok Imagine是馬斯克旗下xAI公司開發的人工智慧圖像生成器,允許使用者通過文字提示建立圖片和視訊。這項功能包含一個所謂的“刺激模式”,可以生成成人內容。Grok使用者找到她14歲時候的照片,用平台的AI技術讓未成年時的她穿上比基尼。這些帶有色情性質的照片傳遍網際網路,搞得聖克萊爾很憤怒:“這些都是我的真實照片,他們用了這些照片,還讓我脫光了衣服。”讓她成為“AI色情製品女主角”的工具,還來自她前任兼孩子親爸的公司…(聖克萊爾)聖克萊爾發現那些圖片後,第一時間聯絡了Grok要求刪除,但處理結果並不理想…據說有些已經處理掉了,有些花了36個小時才刪掉,有些現在還沒完成。而且在她投訴這件事後,馬斯克的X平台飛速取消了她的藍V認證,速度竟然比刪除這些AI生成的色情內容還快。聖克萊爾忍不住跑到社交媒體上吐槽:“他們取消我的藍V認證的速度,比他們刪除grok製作的兒童色情加性虐待內容的速度還快。”還繼續開火:“我開始覺得馬斯克花440億美元收購X不是為了言論自由。”(聖克萊爾)當然,反對這個功能的遠不止聖克萊爾一個人。Grok這個功能自推出以來就爭議不斷,真人照片“脫衣”,特別是未成年照片,已經完全踩過了法律和道德的底線…很多有類似經歷的女生主動聯絡了聖克萊爾。馬斯克的X平台雖然回應“會對非法內容採取行動”,但非營利組織AI Forensics的報告顯示,在短短一周內生成的2萬張Grok圖片中,有2%的原型很可能都是未成年人,裡面起碼有30張圖片是穿著比基尼或透視衣的。(grok)於是,更多的人坐不住了…到了1月6日,從歐洲到亞洲再到南美,包括英國、歐盟、法國、印度、馬來西亞和巴西在內的多國官員和監管機構,已經排著隊對X平台提出了批評,到了全球譴責的程度。歐盟委員會抨擊得很直接:“這根本不是‘刺激’,這是違法,這令人震驚!”英國科技大臣莉茲·肯達爾直言不諱:“近幾天我們在網路上看到的景象完全駭人聽聞,在文明社會中是不可接受的。”波蘭的一位議員更是語出驚人,他說希望Grok也來處理一下他的照片,這樣大家就能更關注這個問題了。面對來自全球的抨擊,馬斯克的回應讓人大跌眼鏡。有網友試圖替Grok辯解,說“Photoshop不是也能做到一樣的效果嗎?”,馬斯克轉發了這條評論,還補充了一句:“正是如此。”這輕描淡寫的態度,彷彿在說有啥大不了的…(馬斯克回應)結果也只是把Grok的圖像生成和編輯功能改為僅限付費使用者使用…根本沒在解決問題,只是應付了一下子。歐盟委員會發言人抗議了:“無論是付費還是免費,我們都不想看到這樣的圖片。就這麼簡單。”英國首相府也認為這種改變是對受害者的侮辱,不是根本解決辦法。諷刺的是,因為這場爭議,X平台的流量簡直是蒸蒸日上。1月2日以來Grok的每日下載量增加了54%,而X的下載量也在過去三天內躍升了25%。醜聞反而成了最好的行銷工具…而馬斯克這邊之所以能這麼猖狂,也是因為圍繞AI生成圖像的法律責任界定仍然很模糊。平台通常對使用者行為有免責權,但AI生成的內容,到底是“使用者言論”還是“平台言論”?這個問題沒有現成答案。去年7月英國生效的《線上安全法》倒是規定了,製作或分享未經同意的私密圖像或兒童性虐待內容均屬違法,也包括AI製作的。違反者可能面臨公司全球收入10%或1800萬英鎊的罰款。但對馬斯克這樣的全球首富來說,這些罰款真的能起到威懾作用嗎?而且AI脫衣功能,能輕易脫去任何人的衣服,特別是未成年人,這已經超越了“言論自由”的範疇,而是越界成了一種數位化的性暴力。當科技發展到AI聊天機器人開始對無數女性照片進行“數位化脫衣”,科技創新的邊界究竟在那裡… (英國那些事兒)
華盛頓郵報:ChatGPT被高估了,以下是一些替代選擇
ChatGPT is overrated. Here’s what to use instead.當我需要人工智慧的幫助時,ChatGPT 不再是我的首選。(插圖:Elena Lacey/《華盛頓郵報》;Adobe Stock)你那位喜歡嘗鮮的朋友對 ChatGPT 的膳食計畫讚不絕口。你的老闆認為 Microsoft Copilot 能“提升 10 倍生產力”。你的社交媒體動態則認為 Meta AI 簡直就是個垃圾機器。他們大多隻是憑感覺行事。我可以告訴你那些人工智慧工具值得使用,那些應該避免使用,因為我一直在營運一個聊天機器人實戰俱樂部。我根據人們使用人工智慧進行的實際活動,進行了數十項機器人挑戰,包括撰寫分手簡訊和工作郵件、解讀法律合同和科學研究、回答棘手的研究問題以及編輯照片和創作“藝術作品”。包括暢銷書作家、參考圖書館員、一位著名科學家,甚至一位普利策獎得主攝影師在內的人類專家對結果進行了評判。經過一年的機器人大戰,有一點顯而易見:沒有絕對最好的AI。如今使用聊天機器人的最明智方式是針對不同的任務選擇不同的工具,而不是指望一個機器人就能包攬一切。舉個例子:聊天機器人界的“舒潔”——ChatGPT,在我所有的直接對決中都敗下陣來。即使是那些最終獲勝的機器人,也很少能達到人類及格的水平。評委們表示,Anthropic公司的Claude機器人寫出的分手簡訊比我寫的還要好。大多數機器人被“iPhone有多少個按鈕?”這個問題難住了。ChatGPT在一個真實的醫學問題上擊敗了一位頂尖醫生——但它給出的建議也可能對你造成嚴重傷害。讓人類專家來評判這些測試,改變了我對聊天機器人的看法,以及我在生活中使用它們的方式。即使你擔心人工智慧會搶走工作、破壞環境或侵犯隱私,但拋開炒作,瞭解當今人工智慧工具的實際表現仍然很有價值。提升人工智慧素養可以幫助你認識到,機器人並非真正“智能”,但同時又能最大限度地發揮它們的實際功能。那款聊天機器人最適合你?三年前,ChatGPT 開啟了生成式人工智慧的競賽,如今它的開發商 OpenAI 表示,它每周的使用者量高達 8 億。過去,每當我想尋找同義詞或冷知識時,它都是我的首選。但當我開始系統地進行測試後,發現 ChatGPT 在最受歡迎的聊天機器人中排名從未超過第二。(《華盛頓郵報》與 OpenAI 有內容合作關係。)OpenAI 近期發佈了內部“紅色警報”,指示員工將工作重心從網頁瀏覽器等項目轉移到改進 ChatGPT 的響應能力上。“我們很高興能在 2026 年繼續提升 ChatGPT 的性能,”發言人 Taya Christianson 表示。根據我的機器人格鬥俱樂部經驗,我現在會針對不同類型的任務選擇不同的機器人。以下是實際操作中的具體情況:我用Claude來寫作和編輯。它的措辭更優美,偶爾還能開個玩笑,而且不太可能像 Claude 那樣,在郵件開頭就用“希望你一切都好”這種令人心碎的客套話。在我的一項測試中——用 Claude 寫一封道歉信——評委Pamela Skillings說 Claude “能夠傳達真實的人類情感和周到的考慮”。為了進行研究和快速尋找答案,我使用Google的AI模式,而不是普通Google搜尋結果中彈出的AI概覽,後者可靠性遠不及前者。AI模式是一款聊天機器人式的搜尋工具,它可以在給出答案之前進行數十次搜尋。這也有助於它提供更及時的資訊:在我的研究測試中,它正確識別出了目前推薦的乳腺炎(一種乳房感染)治療方法,而其他機器人提供的卻是過時的方案。在處理文件方面,我使用Claude。在我的文件分析測試中,它是唯一一個從不捏造事實的機器人。資深公司律師斯特林·米勒法官表示,當我讓機器人就一份租賃協議提出修改建議時,Claude 的回答最接近“律師的良好替代品”。對於圖像處理,我使用Google的Gemini,它在我設計的所有測試中都遙遙領先於其他競爭對手。當我讓機器人從照片中移除兩個主體中的一個時,結果非常逼真——甚至連裙子上亮片反射的光線等細節都完美呈現——以至於評委、攝影記者大衛·卡森驚嘆不已。他根本看不出Gemini的輸出是由人工智慧生成的。我已經介紹了一些主要的AI應用案例,但並非全部。(如果您有關於更公平的機器人測試的建議,請給我發郵件。)我的測試比科技公司喜歡吹捧的行業基準測試需要更多的人為判斷。他們通常使用自動化測試,讓機器人回答一系列問題,就像醫學或法律考試一樣。但機器人可以被訓練成在這些測試中取得高分,掩蓋了它們在實際問題中表現不佳的事實。你可能不會同意我提出的每一個問題或個別評委的觀點,但人類的評估方式更接近我們現在實際使用人工智慧的方式。這就引出了另一個問題:什麼時候應該使用聊天機器人?當機器人讓我們失望時在我的AI格鬥俱樂部裡,機器人有時表現令人印象深刻。但只有一次,裁判給機器人的總分超過了70%——這是通常的及格分數線。那一項得分——84%——是 Gemini 在圖片製作和編輯方面的得分。大多數獲勝者的得分都在 50% 到 65% 之間。“問題是,沒有那個工具能全都拿到 10 分,”擔任我們摘要測試評委的律師米勒說道。這並不意味著如今的人工智慧工具毫無用處。但這確實意味著,你需要對它們的侷限性抱持懷疑態度。將人工智慧應用於某項任務並不總是能提升其效果。當我們測試人工智慧回答冷知識問題的能力時,我們的圖書管理員評委表示,他們完全可以通過傳統的Google搜尋找到大部分答案。人工智慧確實加快了給出答案的速度,但問題在於,其中一些答案是錯誤的。最有效的AI素養訓練方式莫過於觀察機器人的失敗。在我的知識問答測試中,它們連iPhone上有多少個按鈕都答不上來。ChatGPT說是四個,Claude和Meta AI說是三個,而Copilot說是六個。正確答案是五個,指的是最新的高端iPhone機型。為什麼會有這樣的困惑呢?因為機器人過度依賴文字,而且目前還不擅長識別圖片。如今的聊天機器人極力想要立即給你一個看似答案的答覆。它們非常不擅長表達不確定性。例如:在我舉辦的知識競賽中,我問機器人:“《神奇四俠》在爛番茄上的評分是多少?”當時,它是票房冠軍。但即使是最終的獲勝者——AI模式,也答錯了,給出了2015年一部臭名昭著的《神奇四俠》電影的評分。它甚至都沒問我指的是那一部。在我的寫作測試中,當機器人無法將措辭與上下文相符時,它們常常顯得不夠真誠。ChatGPT 就曾有過一次令人尷尬的經歷,它在分手簡訊中使用了帶有被動攻擊意味的短語“that said”:“我覺得你是個很棒的人。話雖如此,我意識到我們之間沒有未來。”如果我可以改變當今人工智慧工具的一件事,我會讓它們更擅長提出後續問題,這些問題可能會徹底改變答案。當我請加州大學舊金山分校醫學系主任鮑勃·瓦赫特(Bob Wachter)評價ChatGPT對真實醫療問題的回答時,他的一番話讓我印象深刻。他指出,擁有無限知識的機器人與一位優秀的醫生之間的區別在於,醫生懂得如何用更多的問題來回答問題。這才是真正解決問題的方法。瓦赫特建議了一種我現在經常使用的AI策略:在向聊天機器人提出問題之前,儘可能詳細地提供所有資訊,因為AI可能不會主動詢問某些資訊就嘗試回答。例如,與其說“總結這份租賃合同”,不如說“為華盛頓特區的租戶總結這份租賃合同,並標記有關費用、續租和提前終止的條款”。我還向我的聊天機器人加入了一條“自訂指令”,告訴它們“如果提示含糊不清,則在回答之前先請求澄清”。我希望這些技巧能幫助你從人工智慧中獲得更有用的答案。這些工具會不斷發展——它們的問題也會隨之而來。基於你的資料來個性化機器人回覆的做法,增加了隱私侵犯和操縱的風險。我總是會更改機器人的默認設定來保護我的資料。2026年及以後,我們必然會面臨更多的人工智慧產品。我們該如何應對?對我來說,答案和今年以來一樣:讓機器人格鬥俱樂部持續運轉——並且讓人類坐在裁判的位置上。 (invest wallstreet)
Reid Hoffman 談 AI:真正的機會,正在離開矽谷最熟悉的地方
Reid Hoffman是 LinkedIn 的聯合創始人,也是矽谷最早一代以“平台”和“網路效應”著稱的投資人之一。過去二十多年,他幾乎參與了每一輪網際網路結構性轉折,從社交網路到平台化擴張,再到企業級軟體的規模化落地。在生成式 AI 被資本和創業者高度追捧的當下,這位長期站在“增長與規模”一側的矽谷代表人物,卻在最近一場長時間訪談中,把注意力放在了一個不太符合矽谷直覺的判斷上:AI 時代最重要的機會,可能並不在那些增長最快、也最容易被看見的地方。顯眼的賽道,正在變得擁擠Hoffman 並沒有否認聊天機器人、生產力工具或程式設計助手的商業價值。在他的判斷中,這些方向仍然可以賺錢。但問題在於,它們過於顯眼。當一個機會對所有人都是顯而易見的,資本、人才和算力就會沿著最低摩擦路徑迅速集中,結果往往不是長期優勢,而是更快的同質化競爭、更激烈的分發爭奪,以及更短的窗口期。這並非技術失效,而是競爭結構本身在壓縮回報。在 AI 語境下,“人人看得見”正在從優勢轉化為約束。入口在變,約束並沒有消失訪談中,Hoffman 多次回到一個被反覆忽略的判斷維度:那些東西會變,那些東西不會變。平台入口可以改變,產品形態可以重寫,敘事方式也可以不斷翻新,但一些底層約束始終存在,包括網路效應的累積方式、企業系統的整合成本、信任的遷移路徑,以及分發背後的組織慣性。AI 並不會消除這些約束,只會讓它們以更快、更集中的方式重新顯現。所謂“新世界”,最終仍然要回到這些舊問題上,只是整合失敗的代價更高,贏家通吃的程度也更明顯。矽谷的盲點,不在技術而在節奏Hoffman 將自己最重要的判斷,放在他所說的“矽谷盲點”上。這些盲點並非源於能力不足,而是源於耐心不足。矽谷長期擅長低摩擦、可快速迭代的數字系統,卻對發展節奏慢、驗證成本剛性、又受到監管與倫理約束的系統缺乏投入意願。生物與醫療是最典型的例子。藥物發現和醫療研發看起來像資訊問題,但真正的節拍器並不在程式碼倉庫裡,而在實驗室、倫理審查、臨床試驗和審批流程中。AI 可以提升篩選和預測的效率,卻無法取消實驗本身。失敗率是結構性的,周期也無法被壓縮到軟體速度。原子世界的瓶頸,是經濟而不是演算法在機器人和自動化領域,Hoffman 指出了另一種常被忽視的現實約束。看似簡單的物理動作——抓取、整理、疊放——在現實環境中充滿不確定性。材料的柔性、觸覺反饋、環境變化以及長期維護成本,使得技術可行性並不等同於經濟成立。由此出現一個反直覺現象:白領世界中更複雜的工作,反而更早被 AI 改造;而物理世界中看起來更簡單的動作,卻因為資本支出與營運支出的不匹配,遲遲難以規模化。決定成敗的,並不是演算法是否足夠聰明,而是成本曲線是否真正交匯。醫生不會消失,但角色正在被重寫關於“AI 是否取代醫生”的討論,Hoffman 給出的判斷並不激進,卻相當明確。如果醫生的價值只是知識儲存,那麼這個角色已經開始被削弱。AI 在知識覆蓋、檢索和交叉驗證方面的能力,已經超過任何單一人類個體。但醫生並不會消失。未來的核心價值,將更多體現在非共識問題的判斷、情境理解以及責任承擔上。AI 改變的不是職業是否存在,而是職業內部的分工結構。回報正在向高摩擦系統轉移把這些判斷連在一起,Hoffman 勾勒出的並不是一個關於 AI 的樂觀敘事,而是一張重新定價風險與回報的地圖。隨著顯眼賽道的競爭加速,資本和能力正在被迫進入那些節奏更慢、驗證成本更高、也更難被快速複製的系統——包括醫療、生物、勞動力、自動化、政府治理以及教育等領域。在這些地方,技術本身不再是決定性變數,時間、監管和組織慣性開始重新進入定價體系。生成式 AI 並沒有讓世界變得更簡單,它只是重新分配了複雜性。而真正的長期機會,正在這些複雜性尚未被消化的地方,緩慢浮現。 (方到)