#聊天機器人
OpenAI 密謀收購火箭公司,Altman 想去太空建“戴森球”算力中心
OpenAI 首席執行官 Sam Altman 曾計畫籌集資金,收購一家火箭公司或與其深度結盟。此舉若成,他將直接向 Elon Musk 的 SpaceX 發起挑戰。知情人士稱,Altman 今年夏天接觸了包括 Stoke Space 在內的至少一家火箭製造商,談判在入秋後明顯升溫。方案之一是 OpenAI 對其進行多輪注資並最終控股。這一長期投資計畫的總額預計將高達數十億美元。據接近 OpenAI 的人士透露,相關談判目前已不再推進。眼下,Altman 和 OpenAI 正面臨嚴峻的市場考驗。雖然公司已簽下數千億美元的算力大單,卻至今沒能向外界講清楚:這筆天文數字般的基建帳單到底該怎麼付。隨著 ChatGPT 的市場份額被 Google Gemini 蠶食,OpenAI 本周一拉響了“紅色警報”(Code Red)。為集中火力最佳化聊天機器人業務,公司不僅推遲了廣告等新產品的發佈,還要求員工暫時轉崗支援核心戰線。Altman 對建立太空資料中心的構想已關注許久。他的理由是:AI 對算力的胃口是個無底洞,未來的能耗將大到地球環境難以承受,太空反而是更好的選擇。支持者也認為,軌道資料中心可直接利用太陽能維持運轉。Stoke 由 Jeff Bezos 旗下 Blue Origin 的前員工創立,正致力於研發完全可復用的火箭,這同樣是 SpaceX 試圖攻克的技術高地。實際上,把 AI 計算叢集搬上太空並非 Altman 獨有的狂想。Bezos、Musk 以及 Google 掌門人 Sundar Pichai 等科技大佬,都曾對這一前景表現出濃厚興趣。儘管這一構想尚未經實證,但 Alphabet 旗下的 Google 已與衛星營運商 Planet Labs 簽約,計畫在 2027 年發射兩顆搭載 Google AI 晶片的原型衛星。Altman 最近在 Theo Von 的播客節目中表示:“隨著時間推移,地球大部分區域都會被資料中心所覆蓋,也許我們該圍繞太陽系建造一個巨大的戴森球。”OpenAI 動起“造火箭”念頭時,正值市場對 AI 的狂熱達到頂峰。9 月至 10 月間,Altman 密集拋出一系列晶片與資料中心合作計畫,Oracle、Nvidia 和 AMD 等行業巨頭均在盟友名單之列。投資者最初對這些公告反應熱烈。Altman 描繪的大規模算力倉庫建設藍圖,曾一度助推 Oracle 和 Nvidia 的股價在隨後的數周內飆升。但隨後,市場對這種激進的 AI 擴張計畫態度轉冷。過去一個月裡,Oracle 股價下跌了約 19%,Nvidia 下跌了約 13%。Nvidia 首席財務官本周表示,該公司與 OpenAI 之間價值 1000 億美元的交易尚未最終敲定。僅過去幾個月,OpenAI 就簽下了近 6000 億美元的算力大單,外界不禁質疑:錢從那兒來?這家初創公司今年的預計收入為 130 億美元,與此同時,勁敵 Anthropic 正步步緊逼,在程式設計師群體和企業級市場攻城略地,銷售額增速驚人。作為一名資深風險投資人,Altman 曾執掌創業孵化器 Y Combinator,而後者正是 Stoke 的早期投資方。據《華爾街日報》去年報導,他掌控著一個龐大而不透明的投資版圖,涉足公司超過 400 家。雖然 Altman 已不再頻繁以個人名義出手,但在調動 OpenAI 的公司資金為宏大願景買單時,他卻毫不手軟。今年早些時候,他便大筆一揮,承諾讓 OpenAI 與軟銀聯手,向資料中心新貴 Stargate 注資 180 億美元。考慮到 SpaceX 在發射領域的統治地位以及 Musk 旗下 xAI 的存在,一旦 Altman 聯手 Stoke,他與 Musk 之間的戰火將進一步升級。事實上,Altman 正從多個維度對 Musk 形成圍剿之勢:他新創立的腦機介面公司 Merge Labs 直接對標 Neuralink,而 OpenAI 正在籌備的社交網路項目,也被視為 X(原 Twitter)的潛在威脅。若能達成交易,Altman 將通過 Stoke 正在研發的“Nova”火箭借道切入航天賽道。畢竟,從零開始造火箭不僅技術門檻極高,監管審批也困難重重,往往十年磨一劍。眼下,Blue Origin、Rocket Lab 和 Stoke 等一眾發射服務商正摩拳擦掌,試圖撼動 SpaceX 的霸主地位。Altman 在今年 6 月與其兄弟共同參加播客錄製時曾反問道:“我應該去開一家火箭公司嗎?”他表示:“我希望終有一天,人類消耗的能量將遠遠超出地球本身的產出極限。” (這個AI很盒裡)
ChatGPT問世三周年,AI已經發展成了一場泡沫?
台北時間12月1日,據科技網站TechCrunch報導,美國當地時間11月30日,ChatGPT迎來問世三周年紀念日。這款聊天機器人引爆了生成式AI市場,但是或許也催生出了一場泡沫。2022年11月30日,OpenAI向世界推出了一款新產品,並輕描淡寫地將其描述為“一個名為ChatGPT的模型,它能以對話方式互動”。毫不誇張地說,ChatGPT隨後顛覆了商業和科技領域,迅速走紅。它至今仍位居蘋果免費應用排行榜首位,並且引爆了一波生成式AI產品的浪潮。改變股市《AI帝國》作者郝珂靈(Karen Hao)近日在接受TechCrunch採訪時指出,OpenAI“已經變得比世界上幾乎所有國家都更強大”,並正在“重塑我們的地緣政治和全部生活方式”。ChatGPT還影響了股市。彭博社發文分析了ChatGPT如何改變了股市格局。目前,最明顯的贏家當屬輝達。自ChatGPT發佈以來,輝達股價累計漲幅高達979%。與此同時,AI熱潮也提振了其他科技巨頭的股價:標普500指數中市值最高的七家企業輝達、微軟、蘋果、Alphabet、亞馬遜、Meta與博通全部是科技公司。它們的整體增長幾乎佔到標普500自ChatGPT推出以來64%漲幅的一半。這種格局導致市場呈現出更為極端的頭部集中現象。標普500指數是按市值加權的,而這七家公司如今佔指數權重的35%,相比三年前的大約20%有顯著上升。泡沫?這股熱潮還能持續多久?除了輝達CEO黃仁勳(Jensen Huang)外,越來越多的AI企業高管開始承認,行業可能正身處泡沫之中。“有人會在AI領域損失慘重。”OpenAI CEO薩姆·奧特曼(Sam Altman)在8月與記者共進晚餐時表示。同樣地,Sierra CEO兼OpenAI董事長佈雷特·泰勒(Bret Taylor)也認為行業正處於“泡沫”之中,並將其與上世紀90年代末的網際網路泡沫相提並論。他預測,雖然個別公司可能會失敗,“但AI將重塑經濟格局,就像網際網路一樣,未來必將創造巨大的經濟價值”。再過三年或更短的時間,人們或許就能知道這種樂觀是否合理。 (飆叔科技洞察)
Google AI突破,為何反成行業利空? | 巴倫科技
這不僅僅是一個DeepSeek時刻,它可能遠遠超過那個層面。一款由AI驅動的全新聊天機器人橫空出世,不僅引發了科技股對動盪市場領軍地位的激烈角逐,同時也引發了人們對輝達晶片需求的新擔憂——而正是輝達晶片撐起了華爾街最熱門的股票。這番描述既可以用來描述中國聊天機器人DeepSeek問世時的市場反應(當時它讓整個科技圈震驚,還曾一度導致美股下跌),也同樣適用於最近發生的情形,即Google母公司Alphabet推出新版Gemini 3後的市場表現。Alphabet的股票是今年迄今為止“七巨頭”中表現最好的,該公司上周發佈了最新版聊天機器人,而投資者現在才開始意識到,這款產品在未來幾個月內可能會對人工智慧類股產生怎樣的影響。據報導,Gemini 3在運行速度、反應靈敏度和深度推理能力上均優於OpenAI的ChatGPT、埃隆・馬斯克旗下的Grok以及傑夫・貝索斯支援的Perplexity。該產品可以很好地融入Google旗下廣泛的應用生態及其市場領先的搜尋業務中,定價也與競爭對手的AI模型持平或更低。但更重要的是,Gemini 3主要是利用Google自家的張量處理單元(TPU)進行訓練的,而不是像競爭對手那樣依賴輝達的晶片。TPU的靈活性不如輝達的圖形處理單元(GPU),這也意味著在超大規模企業斥資數十億美元採購可靈活重新程式設計系統的市場中,TPU的價值可能會相對降低,但TPU的研發成本更低,滿負荷執行階段的功耗也更小。這一點正在令華爾街感到不安。“有些投資者極為擔心,憑藉Gemini模型的巨大進步以及定製TPU晶片所帶來的持續優勢,Alphabet可能會在AI大戰中獲勝。”華爾街諮詢機構Melius Research的科技策略師Ben Reitzes表示。他補充道:“現在就斷言Alphabet最近的突破讓它成為AI領域的長期贏家,還為時尚早。話雖如此,半導體企業和超大規模雲端運算公司(尤其是甲骨文)必須警覺到,‘Alphabet問題’已經成為一個值得關注的風險點。”甲骨文此前已經斥資數十億美元採購輝達晶片用於雲端租賃。如果更低成本的TPU出現,一旦其他公司建立AI雲服務競爭平台,甲骨文在價格上可能會被削弱競爭力。知名投資機構D.A. Davidson的分析師Gil Luria估算,如果Google將DeepMind AI研究實驗室與TPU晶片銷售業務拆分出去,組建獨立公司,其估值可能接近1兆美元,這也可能成為“堪稱Google最具價值的業務之一”。另一方面,即便輝達在AI領域的領先優勢出現小幅縮小,都可能在未來幾個月內引發連鎖反應,對市場造成衝擊。那些此前在輝達半導體上大舉投資的企業,如果發現更便宜的晶片同樣表現出色,可能會因此陷入“買家懊悔”。目前,從上市的超大規模科技公司到OpenAI 等初創企業,整個行業的估值都已處於極高水平,而這項新技術對實體經濟的實際利多仍存在不確定性。實際上,OpenAI 首席執行官薩姆·奧特曼在上周《The Information》發佈的一份內部備忘錄中坦言,Google在人工智慧方面的進步,很可能會給公司帶來“一些暫時的經濟阻力”。他表示:“我預計外界的氛圍會艱難一陣子。”Google的股價已反映出部分市場預期,周一上漲了6.3%,盤中一度創下每股318.58美元的歷史新高。今年以來,該股累計上漲了68%,而“七巨頭”指數同期漲幅為22%,納斯達克綜合指數則上漲了18%。其TPU製造合作夥伴博通(Broadcom)在周一下午早些時候上漲了11%,今年以來的漲幅略超63%。與此同時,輝達股價小幅上漲,但自本月初以來仍下跌了近9%。根據道瓊斯市場資料,目前輝達4.35兆美元的市值與Google市值之間的差距已縮小到約5260億美元,為自四月以來的最小水平。伯恩斯坦資深分析師斯Stacy Rasgon並不那麼關注在當前的AI軍備競賽中短期贏家的歸屬,他更關心的是這場競爭的持續性。Rasgon周一在接受CNBC採訪時表示:“我們還沒到需要擔心誰贏誰輸的時候。現在更需要關注的問題是,AI領域的機遇是否可持續。”他補充道:“如果可持續,大家都沒問題;如果不可持續,大家都完了。” (Barrons巴倫)
《大西洋月刊》丨去技能化時代
The Age of De-SkillingWill AI stretch our minds—or stunt them?By Kwame Anthony Appiah人工智慧會拓展我們的思維,還是阻礙其發展?插圖:馬特奧·朱塞佩·帕尼 / 《大西洋月刊》2025年10月26日,美國東部時間上午6點相關擔憂已從竊竊私語升級為高聲喧囂,且都圍繞著同一個令人不安的主題:“ChatGPT影響下的大腦”“人工智慧正讓你變笨”“人工智慧在扼殺批判性思維”。曾經,人們害怕的是失控的智能會將人類消滅,甚至可能在這個過程中把地球變成一座回形針工廠。如今,聊天機器人正走上Google的老路——從“神奇之物”變成“理所當然的存在”,人們的焦慮也隨之轉變,從對“世界末日”的恐懼轉向對“能力衰退”的擔憂。尤其是教師們表示,他們開始看到這種“衰退”的跡象。描述這種現象的術語雖不悅耳,卻也貼切:去技能化。這種擔憂絕非空想。如果孩子依賴Gemini總結《第十二夜》,他們可能永遠無法學會獨立品讀莎士比亞的作品。如果胸懷大志的律師借助Harvey AI(法律領域AI)進行法律分析,他們可能無法培養出前輩們視為理所當然的解讀能力。在近期一項研究中,數百名英國參與者完成了標準的批判性思維測試,同時接受了關於使用人工智慧獲取資訊或做決策的訪談。結果顯示,年輕使用者對這項技術的依賴度更高,測試得分也更低。“用進廢退”是該研究最核心的結論。另一項研究關注了醫生進行結腸鏡檢查的情況:在使用人工智慧系統輔助識別息肉三個月後,醫生在不借助該系統時識別息肉的能力明顯下降。但真正的謎題不在於“去技能化”是否存在——它顯然是存在的——而在於它究竟屬於何種性質。所有形式的去技能化都會產生負面影響嗎?還是說,有些去技能化是我們可以接受的,甚至是值得歡迎的?“去技能化”是一個籠統的術語,涵蓋了多種截然不同的能力喪失情況:有些會帶來損失,有些無關緊要,還有些反而會催生新的可能。要弄清楚其中的關鍵,我們必須仔細觀察:當新技術出現時,技能會以何種方式逐漸減弱、消失或發生改變。如今的聊天機器人算是新技術:它們所依賴的“Transformer”架構誕生於2017年,而ChatGPT在五年後才首次公開亮相。但“新技術可能會削弱人類思維”的擔憂卻由來已久。早在公元前4世紀的《斐德羅篇》中,蘇格拉底就講述了這樣一個神話:埃及神透特將“書寫”這一禮物獻給國王塔姆斯,稱其是“記憶與智慧的秘訣”。但塔姆斯對此不為所動。他警告說,書寫會產生相反的效果:它會滋生健忘,讓人們用紙上的符號取代記憶的努力,將“理解的表象”誤認為“理解本身”。蘇格拉底支援塔姆斯的觀點。他抱怨道,文字永遠無法回應你提出的具體問題;無論是智者還是愚者,文字對所有人的回應都是一樣的;而且當人們誤解文字時,文字也無能為力。當然,我們之所以能知曉這一切——這段故事之所以能不斷出現在輝格黨式的科技史敘述中——正是因為柏拉圖將其寫了下來。但反對書寫的人也並非完全錯誤。在口頭文化中,吟遊詩人能將史詩記在腦海裡;非洲部落的格里奧(說書人)能隨口說出數百年的族譜。而書寫的出現讓這些非凡的能力變得不再必要。人們無需深入思考,就能理解他人的想法。對話需要回應:或是澄清疑問,或是提出反對,或是修正觀點(有時一句“蘇格拉底,您說得太對了”就能起到作用,但即便如此,對話仍在繼續)。相比之下,閱讀時你只需沉浸在他人的智慧中,點頭認同,卻無需通過自我檢驗來印證這些智慧。不過,從某個角度看是“損失”的東西,換個角度或許就是“收穫”。書寫為人類開闢了新的思維領域:評論文章、法學理論、可靠的歷史記載、科學研究。研究口頭文化與文字文化的學者沃爾特·J.翁曾精闢地指出:“書寫是一種能重構思維的技術。”這種模式並不陌生。當水手開始使用六分儀時,他們便不再需要掌握水手的“觀天技藝”——那種曾指引他們安全返航的、對星辰的細緻觀測能力。後來,衛星導航的出現又讓六分儀技能徹底消失。過去,擁有一輛福特T型車意味著你得兼職做機械師——要知道如何修補內胎、憑聽覺調整點火正時、在引擎熄火後想辦法讓它重新啟動。如今,性能高度可靠的引擎將這些“秘密”隱藏了起來。計算尺被計算器取代,計算器又被電腦取代。每一次技術更迭,個人的精湛技藝都會隨之減弱,但整體效率卻在提升。這種“有所失,必有所得”的模式確實令人安心。但有些收穫背後,隱藏著更深層的代價。它們不僅改變了人們“能做什麼”,還改變了人們“認為自己是誰”。20世紀80年代,社會心理學家肖莎娜·祖博夫曾在美國南部的紙漿廠進行調研,當時這些工廠正從人工操作轉向電腦控制。曾經,操作員需要通過觸摸來判斷紙漿的狀態(“它滑嗎?它粘嗎?”);如今,他們只需坐在有空調的房間裡,看著數字在螢幕上滾動,過去的技能既無人使用,也無人重視。一位操作員告訴祖博夫:“通過電腦工作,感覺完全不一樣。就像你騎著一匹強壯的駿馬,但有人坐在你身後的馬鞍上,握著韁繩。”新系統速度更快、更清潔、更安全,但也讓工作失去了原本的意義。社會學家理查德·森內特也記錄了波士頓一家面包店的類似變化。20世紀70年代,店裡的工人都是希臘男性,他們靠嗅覺和視覺判斷面包是否烤好,並為自己的手藝感到自豪;到了90年代,接替他們的工人只需操作帶有Windows風格控製器的觸控式螢幕。面包變成了螢幕上的圖示——它的顏色由資料推斷得出,品種則從數字菜單中選擇。技能的弱化伴隨著身份認同的弱化。面包依然美味,但廚房工人知道,自己不再是真正的面包師了。有人半開玩笑地對森內特說:“烘焙、製鞋、印刷——隨便你說什麼手藝,我都‘會’。”言外之意是,他其實根本不需要掌握任何真正的技能。在文化領域,人類與“實物的接觸”無疑早已逐漸減少。在19世紀歐洲的中產階級家庭中,熱愛音樂通常意味著會演奏音樂。交響樂要進入客廳,靠的不是音響,而是鋼琴改編版——兩個人四隻手,在一架鋼琴上,盡最大努力演繹勃拉姆斯的《第一交響曲》。這需要技能:識譜、掌握演奏技巧、用手指勾勒出交響樂的意境。要聽到自己想聽的音樂,你必須不斷練習。後來,留聲機流行起來,客廳裡的鋼琴開始積滿灰塵。隨之而來的好處顯而易見:你可以把整個管絃樂隊“召喚”到客廳裡,可以將聽覺體驗從沙龍裡的輕音樂拓展到德彪西、施特勞斯、西貝柳斯的作品。如今的音樂愛好者或許不再擅長演奏,但從某種意義上說,他們更懂“聆聽”。然而,廣度的拓展是以深度的喪失為代價的。練習一首曲子的過程,會讓你對曲子的結構和脈絡有深入的理解。而擁有閃亮的維克多牌留聲機的孩子,能獲得這種理解嗎?每當強大的新工具出現時,這種“疏離感”——即與“真實事物”產生距離的感覺——就會隨之而來。從17世紀開始,計算尺減少了人們對“心算能力”的依賴;幾個世紀後,可攜式計算器又讓一些工程師感到不安,他們擔心“數感”會逐漸消失。這些擔憂並非毫無根據。按下鍵盤上的“Cos”鍵就能得到一個數值,但這個數值背後的含義可能會被人們遺忘。即便在更專業的領域,這種擔憂也依然存在。麻省理工學院的物理學家維克多·魏斯科普夫對同事們越來越依賴電腦模擬感到困擾。當同事們把列印出來的結果交給時,他對他們說:“電腦理解這個答案,但我覺得你們並不理解。”這種不安就像古埃及國王的“數字時代版本”——他們堅信,人們正把“輸出結果”誤認為“深刻見解”。在祖博夫所說的“智慧型手機器時代”,自動化主要侷限於工作場所——工廠、工業面包店、駕駛艙。而到了個人電腦和網際網路時代,技術“逃離”了工作場所,進入家庭,成為通用工具,融入日常生活。早在21世紀初,研究人員就開始探討搜尋引擎對人類的影響。當時的新聞標題諸如“Google影響下的大腦”屢見不鮮。儘管這種恐慌有些過度,但一些影響確實真實存在。一項被廣泛引用的研究發現,在某些情況下,人們會記住“某個事實可以在那裡找到”,而非“事實本身”。事實上,人類的認知能力從來都不侷限於大腦內部——它還存在於工具、符號以及人與人之間的互動中(想想你認識的夫妻:有人記得生日,有人記得護照放在那裡)。從刻痕計數的骨頭到泥板文書時代,數千年來,我們一直在將“思維”儲存在外部世界中。許多生物都會使用工具,但它們的技能會隨著個體的死亡而消失;而人類的技能會以文化的形式積累下來——形成一種“智能傳遞系統”。我們繼承這種系統,拓展它,在此基礎上不斷建構,讓每一代人都能站在更高的起點上:從壓制剝落的石片,到骨針,再到印刷機,直至量子計算。這種“見解的積累”——外部化、保存、共享——正是智人與其他生物的區別所在。倭黑猩猩生活在“生態當下”,而人類生活在“歷史之中”。與此同時,“積累”會帶來一個關鍵結果:它會推動“專業化”的發展。隨著知識不斷拓展,它不再能被每個人平等掌握。在小型部落中,任何人都能追蹤獵物、採集植物、生火。但在農業革命後,社會規模不斷擴大,手工業和行會逐漸增多——能鍛造出鋒利且耐用刀刃的工匠、懂得如何防止拱頂坍塌的石匠、掌握著嚴密保密的配方和技藝的玻璃吹制工。曾經存在於人體中的技能,逐漸轉移到工具中,進而上升到制度層面。隨著時間的推移,勞動分工不可避免地演變成“認知分工”。哲學家希拉里·普特南曾說過,他會用“榆樹”這個詞,但無法區分榆樹和山毛櫸。“指稱”是具有社會性的:你能談論榆樹,是因為語言社群中的其他人——植物學家、園丁、林業工作者——能識別榆樹。語言如此,知識亦是如此。人類的能力不僅存在於個體之中,還存在於個體所形成的網路之中。我們每個人都依賴他人來彌補自己能力的不足。社會規模的擴大,將“社會交換”轉變為“系統性的相互依賴”。由此產生的世界,正如一個經典例子所描述的:沒有人知道如何完整地製造一支鉛筆。一個人要製造鉛筆,需要掌握伐木工、鋸木工、礦工、化學家、塗漆工等多種技能——即便是最簡單的物品,其背後也存在一個無形的“工藝網路”。馬克·吐溫在《康州美國佬在亞瑟王朝》中,想像一位19世紀的工程師穿越到卡梅洛特(亞瑟王傳說中的王國),用現代奇蹟讓當地人驚嘆不已。讀者們對此深信不疑。但如果把21世紀的工程師放到同樣的場景中,他會束手無策。製造絕緣電線?調配一批炸藥?從零開始製造電報機?一旦連不上無線網路,我們大多數人都會陷入困境。如今,認知分工已發展到極高的程度:兩位物理學家可能彼此都難以理解對方的研究——一位在模擬暗物質,另一位在製造量子感測器。如今的“科學精通”,意味著對“越來越窄的領域”瞭解“越來越多”。這種專注帶來了驚人的進步,但也讓我們意識到自身能力的侷限性:專家們使用的概念工具,是他們能“運用”卻無法“創造”的。即便是長期被視為“孤獨天才領域”的數學,如今也遵循著這樣的模式。當安德魯·懷爾斯證明費馬大定理時,他並沒有重新推導每一個引理;而是整合了他信任但並未親自驗證的成果,建構出一個完整的理論框架——即便他沒有親手“切割”每一根“橫樑”,也能看清整個框架的結構。合作範圍的擴大,改變了“知曉某事”的含義。知識曾被視為一種“佔有物”,如今卻變成了一種“關係”——即我們能否很好地定位、解讀和整合他人的知識。我們生活在一個“分佈式智能網路”中,依賴專家、資料庫和工具來拓展自己的認知邊界。資料規模就能說明問題:當年宣佈DNA雙螺旋結構的《自然》論文只有兩位作者;如今,一篇關於基因組學的《自然》論文可能有40位作者。而宣佈希格斯玻色子發現的兩篇論文呢?作者多達數千人。“大型科學研究”之所以“大型”,是有原因的。遲早,這個“網路”會迎來新的參與者——一個不僅能儲存資訊,還能模仿“理解”本身的參與者。在大型語言模型時代,“資訊”與“技能”、“知道是什麼”與“知道怎麼做”之間的傳統界限變得模糊。從某種角度看,這些模型是“靜態”的:它們是一組可下載到筆記型電腦中的固定權重矩陣。但從另一個角度看,它們又是“動態”的:一旦運行,就能即時生成回應。它們能做到蘇格拉底所抱怨的“書寫無法做到的事”:回答問題、適應對話者、進行對話(有時甚至能與自己對話;當人工智慧將自身輸出作為輸入時,人工智慧研究人員稱之為“推理”)。將Google視為“記憶的延伸”並不難;但對許多人來說,大型語言模型更像是“思維本身的替代品”。在利用新型人工智慧時,我們自身的智能是在被“拓展”,還是說,這種“人工”智能正悄然崛起,逐漸佔據主導地位?我們無法將“精靈”放回“瓶子”裡,但我們可以決定讓它施展那些“魔法”。當人們談論“去技能化”時,通常會想到一個人失去了某種技能——比如飛行員的手動駕駛能力變得生疏,醫生在沒有人工智慧輔助時會漏診腫瘤。但如今,大多數工作都需要協作,人工智慧的出現並沒有改變這一點。問題不在於“人類與機器人相比表現如何”,而在於“使用機器人的人類與不使用機器人的人類相比表現如何”。有些人擔心,對人工智慧的依賴會讓人類在某些方面變得更糟,這種負面影響會蓋過其承諾的好處。Anthropic公司首席執行官達里奧·阿莫代伊樂觀地設想會出現一個“天才之國”,但這些擔憂者則預見會出現一個“傻瓜之國”。這與過去關於“風險補償”的爭論如出一轍:幾十年前,一些社會科學家認為,增加安全帶或防抱死剎車後,人們會駕駛得更加魯莽——科技帶來的安全感會讓他們“消耗掉”安全余量。但後來的研究得出了更令人鼓舞的結果:人們確實會做出調整,但這種調整是有限的,因此技術仍能帶來顯著的好處。在人工智慧的臨床應用中,類似的規律似乎也成立——人工智慧在醫院中的應用已超過十年。回想一下之前提到的結腸鏡檢查研究:在進行人工智慧輔助檢查後,胃腸病醫生在無輔助情況下的息肉識別率下降了6個百分點。但另一項研究彙總了24000名患者的資料,呈現出更全面的情況:人工智慧輔助使整體識別率提高了約20%(此處的人工智慧是一種“專家系統”——即一種狹義、可靠的機器學習形式,而非驅動聊天機器人的生成式人工智慧)。由於識別率的提高意味著漏診癌症的減少,無論個別醫生的能力是否略有下降,這種“半人半機”的協作模式顯然是有益的。如果這種協作能拯救生命,那麼胃腸病醫生若出於“自尊心”而堅持獨自操作,就是不負責任的。在其他領域,近期的一些研究表明:一個人的技能越高,與人工智慧的協作效果就越好。其中一項研究發現,在對兩種鷦鷯和兩種啄木鳥的圖像進行分類時,人類的表現優於機器人。但在識別虛假酒店評論時,機器人則更勝一籌(大概是“同類識別同類”吧)。隨後,研究人員讓人類與機器人配對,讓人類在參考機器人建議的基礎上做出判斷。結果因任務而異:在人類直覺較弱的領域(如識別虛假酒店評論),人們會過多地質疑機器人,從而拉低整體結果;而在人類直覺較強的領域,人們似乎能與機器人協同工作——在確定自己判斷正確時相信自己,在意識到機器人發現了自己遺漏的資訊時也會認可機器人。在識別鳥類圖像的任務中,“人類+機器人”的組合表現優於兩者單獨工作的效果。同樣的邏輯也適用於其他領域:一旦機器進入工作流程,“精通”的定義可能會從“產出”轉向“評估”。2024年一項關於程式設計師使用GitHub Copilot(程式碼生成工具)的研究發現,人工智慧的使用似乎會“重新引導”人類的技能,而非“取代”它。程式設計師花在“生成程式碼”上的時間減少了,花在“評估程式碼”上的時間增多了——檢查邏輯錯誤、排查邊界情況、清理程式碼指令碼。技能從“創作”轉移到了“監督”。如今,“人機協作”越來越多地意味著這一點:專業能力不再體現於“寫出初稿”,而體現於“編輯初稿”;不再體現於“速度”,而體現於“判斷力”。生成式人工智慧是一個“機率系統”,而非“確定性系統”;它給出的是“可能性”,而非“真相”。當風險切實存在時,具備專業能力的人類必須對最終決策負責——要能發現模型何時偏離現實,要將模型的輸出視為“待驗證的假設”,而非“必須遵守的答案”。這是一種新興的技能,也是至關重要的技能。未來的專業能力,不僅取決於工具的優劣,更取決於我們能否與工具“協同思考”。但協作的前提是“自身具備能力”。如果人類一方毫無頭緒,“人機協作”就會陷入混亂。這正是人們對“教育”感到恐慌的原因:如果一個人從未掌握過某種技能,就談不上“失去”這種技能。在這個“世界上最強大的作業工具”能輕鬆裝進每個學生口袋的時代,我們該如何培養學生的基本能力?我們這些教育工作者還有很多“作業”要做。過去的教學方法需要革新;在過去幾年裡,太多大學生陷入了一種令人不安的狀態——用一句話形容就是“主修ChatGPT”。但現在就斷言人工智慧對教育的整體影響,還為時過早。誠然,人工智慧可能會讓某些能力變得生疏,但如果使用得當,它也能強化另一些能力。以哈佛大學一門大型物理課程的近期隨機試驗為例。一半學生以傳統的“最佳方式”學習兩節課:由資深教師帶領的互動式實踐課堂。另一半學生則使用定製的人工智慧導師。之後兩組學生交換學習方式。結果顯示,在兩輪試驗中,使用人工智慧導師的學生表現都要好得多——優勢非常明顯。他們不僅學到了更多知識,學習速度也更快,而且反饋說自己更有動力、更投入。該人工智慧系統的設計初衷是“像優秀教練一樣工作”:教學生如何將複雜問題拆解成小問題,提供提示而非直接給出答案,根據每個學生的進度調整反饋的強度和內容。這種“針對性關注”正是老式輔導體系的強大之處。我還記得在劍橋大學的最初幾周,我與生物化學導師進行一對一交流的場景。當我說“我大概懂了”時,他會不斷追問,直到我們都確信我真的懂了。這種有針對性的關注,是劍橋大學“輔導制度”的核心。如果設計得當,大型語言模型有望將這種“關注”大規模推廣——不是複製輔導老師的羊毛開衫、鋥亮的煙斗或若有所思的表情,而是複製那種“持續、靈活的引導”,幫助學生從困惑走向理解。機器不會取代導師。它們有望承擔輔導中“常規性”的部分——檢查代數運算、反覆練習引理、提醒學生注意單位書寫、確保學生理解膜通道的工作原理。理論上,這能讓教師騰出時間,專注於其他重要工作:講解核心概念、追求更簡潔優雅的表達、與學生探討職業規劃、關注學生是否面臨過度壓力。當然,這只是一種樂觀的設想。我們不應僅憑一項研究就得出普遍結論(有一項針對土耳其高中生的研究發現,使用輔導機器人並未帶來明顯進步)。同時我們也要注意,那些物理專業的學生之所以能很好地利用輔導機器人,是因為他們要面對“課堂考試”——有監考老師、有時間限制、有嚴格的評分標準。我們還需注意,在STEM(科學、技術、工程、數學)學科中有效的方法,在人文學科中可能並不適用。儘管學期論文枯燥乏味,但它能培養一種“對話難以複製”的能力:逐步建構論證、權衡證據、組織材料、錘煉表達風格。我們這些教授本科生的教師中,已有不少人開始對有上進心的學生說:如果他們寫一篇論文,我們會閱讀並與他們討論,但這篇論文不會計入最終成績。這只是一種權宜之計,而非根本解決方案。說來也奇怪,在文化層面,我們似乎正在“回歸口頭表達”——口頭交流可能需要承擔更多教學任務。如此看來,對話的堅定捍衛者蘇格拉底,最終會笑到最後嗎?“破壞性去技能化”仍是一種無法忽視的可能性:由於過度依賴工具,人類基本的認知或感知能力會逐漸衰退,且沒有相應的能力提升作為補償。這種能力缺失會耗盡一個系統的“儲備能力”——即那些平時很少用到,但在出現問題時必須具備的能力。沒有這些儲備能力,系統的“韌性”會下降,“脆弱性”會上升。想想那些航空公司的飛行員:他們花數千小時監控自動駕駛儀,卻在系統故障時不知所措。一些自動化理論學者將“人機協作”分為兩類:“主動參與的人機協作”和“被動簽字的人機協作”。後者如果管理不當,就會導致工業心理學家莉薩妮·貝恩布裡奇早就警告過的問題:角色混亂、意識減弱、準備不足。就像救生員在大多數日子裡,只是看著游泳技術嫻熟的人在平靜的水中游泳——這類人類監督者很少需要採取行動,但一旦需要,就必須迅速、熟練地行動。同樣的問題也困擾著各類辦公室工作。當律師、項目經理和分析師花數月時間“批准”系統已起草或推斷出的內容時,他們就變成了“被動簽字者”,逐漸生疏了核心技能。這就是“部分自動化”的悖論:系統性能越好,人們就越不需要保持專業敏銳度,在系統偶爾失靈時,就越缺乏應對準備。解決這個問題的方法可能在於“制度設計”。例如,工作場所可以定期開展“演練”——類似飛行員定期進行的飛行模擬器訓練——讓員工必須挑戰機器,確保在“平穩運行”的漫長過程中,他們真正的判斷能力沒有衰退。在很多情況下,“儲備技能”不需要人人具備,只需在系統的某個環節存在即可——就像那些能識別榆樹的專家一樣。正因如此,美國海軍學院擔心GPS(全球定位系統)可能被干擾,在多年忽視後,重新恢復了基礎的“天體導航”訓練。大多數水手在遠洋航行中可能永遠不會用到六分儀,但只要有少數人掌握這項技能,在衛星失靈時,就足以穩住整個艦隊。這樣做的目的,是確保至少有一部分“實際能力”得以保留,以便在系統出現故障時,人類仍能站穩腳跟——至少不至於陷入困境。最令人擔憂的可能性,或許可以被稱為“根本性去技能化”:即那些“構成人類本質”的能力逐漸衰退。判斷力、想像力、同理心、對意義和分寸的感知——這些能力不是“備用選項”,而是我們日常都需要運用的能力。如果按照讓-保羅·薩特擔憂的說法,我們變成了“機器的機器”,那麼這種損失會體現在日常生活的方方面面。可能會消失的,是支撐我們日常判斷的“隱性、內化的知識”。如果人們開始按照系統偏好的方式提出問題,從系統提供的“看似合理的答案”中選擇,那麼這種損害不會表現為“嚴重的判斷失誤”,而會表現為“人格的逐漸弱化”:對話變得膚淺、對模糊性的容忍度降低、在需要尋找恰當措辭的地方習慣性使用套話、用“流暢”替代“理解”。如果將這些能力“外包”出去,實際上就是將“我們自己”外包出去。失去這些能力,不僅會改變我們的工作方式,還會改變我們“是誰”。從長遠來看,大多數形式的去技能化都是“良性”的。有些技能之所以過時,是因為支撐它們的“基礎設施”也已消失。電報技術需要熟練掌握“點和劃”(莫爾斯電碼);萊諾鑄排機需要熟練操作“熔鐵鍵盤”;平板膠片剪輯需要使用修版鉛筆和拼接膠帶,還要在腦海中記住不同場景在膠片和音軌中的位置。當電報線路、熱金屬印刷機和賽璐珞膠片消失時,它們所支撐的技藝也隨之消失。另一種去技能化,代表著“枯燥工作”的消除。很少有人會為“不再用手搓衣服”或“不再在紙上演算長除法”而惋惜。我認識一位神經科學家,他堅信大型語言模型能加快“撰寫資助申請”這一枯燥且範本化的工作。他仍然對內容負責,但即便自己的“資助申請撰寫能力”下降,他也毫不在意。在他看來,這不屬於“科學研究”,而是“研究體系要求的表演”。將這部分工作外包出去,能讓他騰出時間用於“發現”。事實上,“職業去技能化”可能具有“民主化”意義,能讓更多人有機會從事某項工作。對於英語能力有限的科學家來說,聊天機器人可以幫助他們順利撰寫“機構審查委員會陳述”,掃除“語言障礙”——而這種障礙與他們的研究質量毫無關係。在這種情況下,去技能化拓寬了“准入門檻”。再想想森內特提到的那家面包店,以及過去在廚房工作的希臘男性。過去的烤爐會燙傷他們的手臂,老式揉麵機可能拉傷他們的肌肉,搬運沉重的面包托盤會讓他們的背部承受壓力。到了20世紀90年代,當系統改為由Windows控製器操作時,勞動力構成發生了變化:不同種族的男性和女性站在螢幕前,點選圖示即可工作。“手藝”的要求降低了,但“符合條件的勞動者”範圍擴大了(當然,他們的工資也降低了:門檻越低,工資越低)。通常情況下,技術讓我們能將時間用在更有價值的事情上,培養“更高價值鏈條”上的技能,因此我們會主動放棄一些技能。在祖博夫調研的其中一家紙漿廠,操作員不再需要進行體力勞動,得以將更多時間用於“預測和預防問題”。有人說:“坐在這個房間裡思考,也成了我工作的一部分。”祖博夫將這種變化稱為“再技能化”:“行動技能”讓位於“抽象思維和流程推理能力”——也就是她所說的“智力技能”。類似的情況也發生在“電子表格軟體(如VisiCalc)出現後的會計師”身上:他們不再需要手工計算一列列數字,得以將更多時間用於“稅務策略”和“風險分析”。更重要的是,新技術能催生出“全新的技能”。在顯微鏡發明之前,有“博物學家”,但沒有“顯微鏡學家”:羅伯特·胡克和安東尼·范·列文虎克必鬚髮明“觀察和解讀微觀世界”的方法。電影製作不僅借鑑了戲劇,還催生了“攝影師”和“剪輯師”——這些職業沒有真正的歷史先例。每一次技術飛躍,都拓寬了“可能性的邊界”。如今的人工智慧技術可能也是如此。我的年輕同事們堅稱,與大型語言模型合作,已經在培養一種新的“技藝”——設計提示詞、追問驗證、發現偏見和幻覺,當然,還有“學會與機器協同思考”。這些都是“新興技能”,源於與“不會消失的數字架構”的互動。重要的技術,本質上都會催生我們目前還無法命名的“技藝和職業”。困難之處在於,要拋開“懷舊情緒”和“慣性思維”,判斷那些技能值得保留,那些可以捨棄。沒有人願意看到自己辛苦掌握的技能被視為“過時”而遭拋棄,因此我們必須抵制“情感的誘惑”。每一次進步都需要付出代價:文字讀寫能力削弱了“記憶壯舉”,但創造了新的“分析能力”;計算器影響了“心算能力”,但讓更多人能夠“運用數學”;錄音技術降低了“日常音樂演奏能力”,但改變了我們“聆聽音樂”的方式。那麼如今呢?我們顯然有權決定,大型語言模型究竟會“拓展”還是“縮小”我們的思維。縱觀人類歷史,我們的能力從未“停滯不前”。技能總是不斷“向外流動”——從雙手到工具,再到系統。個體的才智已融入“集體協同智能”,而推動這一過程的,是人類長久以來的“思維外化”習慣:將記憶儲存在符號中、將邏輯嵌入機器中、將判斷融入制度中,近來又將“預測”託付給演算法。過去催生行會的“專業化”,如今催生了“研究聯盟”;過去在師徒間傳遞的知識,如今通過“網路和數字矩陣”傳播。生成式人工智慧——人類知識的“統計濃縮”——只是我們“向自身發明學習”這一漫長過程中的最新篇章。因此,最緊迫的問題是:如何保持我們的“主體性”——如何在“即將承擔我們大量思考工作的系統”中,依然保持“主導者”的身份。每一代人都必須學會如何與“新獲得的認知工具”共處,無論是鐵筆、捲軸,還是智慧型手機。如今的新變化,在於“互動的速度和親密程度”:工具在向我們學習的同時,我們也在向工具學習。如今的“管理”,意味著要確保“構成人類本質的能力”——判斷力、想像力、理解力——在我們身上得以保留。如果說有那項技能我們絕對不能失去,那就是“判斷那些能力真正重要”的技能。 (邸報)
Fortune雜誌─Zoom首席執行官:每周三天工作制有望實現
Zoom首席執行官袁征預測,人工智慧聊天機器人和智能代理將助力實現每周三至四天工作制,這一觀點與比爾·蓋茲(Bill Gates)、黃仁勳(Jensen Huang)及傑米·戴蒙(Jamie Dimon)等人的看法不謀而合。不過,這位科技界領軍人物同時承認,在這一變革處理程序中,部分崗位可能會消失,屆時有些人可能面臨整周無班可上的局面。商界領袖對於人工智慧將如何重塑人類工作模式的看法存在分歧。有些人,如Anthropic首席執行官達里奧·阿莫迪(Dario Amodei),預言人工智慧將引發“白領工作崗位末日”;而另一些人,如GoogleDeepMind負責人戴密斯·哈薩比斯(Demis Hassabis),則認為這項技術將開啟物質豐裕的“黃金時代”。  然而隨著越來越多聊天機器人和自動化助手接手人類工作任務,越來越多高管預見工作周將縮短——Zoom首席執行官袁征甚至認為員工每周僅需到崗工作數日。“在我看來,既然人工智慧能讓我們的生活變得更美好,那為何還要每周工作五天呢?”袁征近期在接受《紐約時報》採訪時表示:“每家公司都將支援每周三天或四天工作制。我認為這終將為每個人騰出更多時間。”Zoom首席執行官袁征(Eric Yuan)坦言,人工智慧技術將淘汰部分人類崗位,不過那些得以保住工作的人將能享受更短的工作周。圖片來源:Leigh Vogel / Contributor / GettyImages話無疑是“悅耳佳音”——他們看著歐洲同行試行每周四天工作制,並取得顯著成效,豔羨不已。當美國體能訓練公司Exos嘗試將每周工作日減少一天,事實證明此舉對業務發展助力頗大:員工倦怠率大幅降低至原來的一半,工作效率則飆升24%。首席執行官們一致認為,自動化帶來的工作周縮短對人類工作者而言是重大利多——即便這意味著整體就業崗位減少。《財富》雜誌已聯絡Zoom尋求置評。多位科技界領袖均遇見未來工作周將縮短人工智慧工具為員工提供極大助力,從傳送郵件這類枯燥乏味的任務到程式設計這類複雜繁瑣的任務,皆可替代。科技領袖們正見證人工智慧帶來的效益提升,並認為“每周五天工作制”或將成為歷史。微軟聯合創始人蓋茲早在20世紀70至80年代就率先引領科技革新浪潮;如今,這位億萬富翁預測,按照人工智慧當前的創新速度,未來十年人類將不再需要從事“大多數工作”。當不再需要人類完成工作時,仍留在崗位的人也無需每日打卡上班。“未來的工作究竟會呈現何種模樣?我們是否只需每周工作兩到三天?”蓋茲今年2月在《今夜秀》節目中對主持人吉米·法倫(Jimmy Fallon)表示,“把目光放長遠些,人生的意義不應僅限於工作。”輝達(Nvidia)首席執行官黃仁勳對縮短工作周的主張表示認同,不過他提出了一個前提條件。這家市值達4兆美元的圖形處理器巨頭的掌舵人表示,我們正處於“人工智慧革命的開端”,倘若各行業持續以當前速度普及人工智慧,“很可能”實現每周四天工作制。不過黃仁勳預測,未來工作強度將“比現在更高”,這些工作可能被壓縮在更為緊湊的時間表中。即便是以“員工每周工作80小時”著稱的金融業,也能借助人工智慧自動化獲得喘息之機。摩根大通(JPMorgan Chase)首席執行官戴蒙多年前就曾預言,人工智慧技術 “必然”會取代部分崗位,但也有望改善人們的工作與生活平衡。  “在科技的助力下,你們的孩子將能活到100歲,還將遠離癌症的侵擾。”2023年,戴蒙在接受彭博電視台採訪時表示,“毫不誇張地說,他們未來或許每周只需工作三天半。”Zoom首席執行官坦言部分崗位將被淘汰儘管全球勞動者終將迎來每周工作天數減少的機會,但並非人人都能享受工作周縮短帶來的利多。企業領導者普遍承認,就業市場將迎來巨大變革——在這一轉變過程中,部分崗位將不可避免地被自動化所取代。Zoom首席執行官直面現實:部分人類員工將面臨裁員,但他認為,這不過是又一次社會調整,如同工業革命和網際網路誕生時的情形。“每次技術範式轉變都會導致部分崗位消失,但也會創造新機遇,”袁征在採訪中坦言,“對於初級工程師這類崗位而言,我們能夠借助人工智慧來完成程式碼編寫工作,但仍需要專業人員來管理這些程式碼。此外,我們還會建立大量數字代理,而這些代理同樣需要專人管理。”其他企業首席執行官,如福特(Ford)首席執行官吉姆·法利(Jim Farley)、Klarna首席執行官塞巴斯蒂安·西米亞特科夫斯基(Sebastian Siemiatkowski),也認同“變革將淘汰部分崗位”的觀點。不過,也有部分領導者(如黃仁勳)認為,人工智慧實際上可能會促進就業。這位晶片行業領軍人物表示,人類不會被人工智慧取代,相反,那些能夠熟練運用先進技術的人將接管相關崗位。“回溯過往300年、100年、60年,乃至電腦時代,生產效率得到提升,就業率也實現增長。”黃仁勳今年接受美國有線電視新聞網(CNN)採訪時表示,“原因在於,如果我們擁有足夠多的創意,以及建構更美好未來的具體路徑,那麼當生產效率提高時,我們就能將這些美好願景變為現實。” (財富FORTUNE)
Google母公司、元宇宙、OpenAI……遭調查!
當地時間11日,美國聯邦貿易委員會宣佈對七家科技公司展開調查,瞭解以聊天機器人為代表的生成式人工智慧可能對兒童和青少年造成的危害,以及公司如何避免這類危害的發生。美國聯邦貿易委員會要求Google母公司字母表、元宇宙、OpenAI、XAI等7家科技公司披露聊天機器人的盈利模式、維持使用者群的計畫,以及降低使用者風險的措施,借此瞭解公司如何評估聊天機器人的安全性,兒童和青少年在使用產品時存在那些負面影響,以及是否告知家長及使用者使用產品的相關風險。美媒報導稱,現在越來越多的兒童及青少年使用聊天機器人,使用範圍廣泛,從家庭作業、人生建議到情感諮詢。有研究表明,聊天機器人在毒品、酒精和飲食問題上會給孩子們提供危險建議。此前已經出現多個案例,有青少年通過聊天機器人討論自殺問題後獲得危險建議進而導致悲劇發生。此外,美聯社12日報導稱,許多教師反映,學生在做家庭作業時,使用聊天機器人作弊的現象激增。學生們也表示,他們會使用聊天機器人來幫助做研究、寫提綱、進行文字校對,但他們表示很難分辨其使用界限。目前許多學校已經起草了生成式人工智慧使用準則,進一步明確人工智慧工具在教育場景中的輔助定位,強調其應用邊界。 (央視財經)
美國FTC要求七家AI巨頭說明青少年安全保障措施
據CNBC報導,美國聯邦貿易委員會(FTC)向OpenAI、Meta(及其子公司Instagram)、Snap、xAI、Google母公司Alphabet、Character.AI開發商等七家AI聊天機器人企業發出調查令,要求這些公司提交相關資料,詳細說明其如何評估“虛擬陪伴”類AI產品對兒童及青少年的影響,引發廣泛關注。此次調查聚焦多方面關鍵資訊。FTC明確要求七家企業披露AI陪伴產品的盈利模式、維繫使用者群體的具體計畫,以及為降低使用者使用風險改採取的各項措施。FTC特別指出,此次行動屬於研究項目範疇,並非執法行動,核心目的是深入瞭解科技企業在評估AI聊天機器人安全性方面的具體做法與機制。據瞭解,AI聊天機器人憑藉類人化的交流方式,在為使用者帶來便捷體驗的同時,其潛在風險也持續引發家長群體與政策制定者的擔憂。FTC專員馬克·米多爾強調,儘管這些AI聊天機器人能夠模擬人類思維,但本質上仍屬於普通產品,開發者必須嚴格遵守消費者保護相關法律。FTC主席安德魯·弗格森則表示,在推進相關工作過程中,需兼顧“保護兒童安全”與“維護美國在AI領域全球領先地位”兩方面需求,實現發展與安全的平衡。目前,FTC三名共和黨委員已一致批准此項研究,並要求相關企業在45天內完成答覆。值得注意的是,FTC此次行動的背景,是近期多起青少年自殺事件的報導引發社會對AI產品影響的高度關注。《紐約時報》曾報導,美國加州一名16歲少年通過ChatGPT討論自殺計畫時,獲得了協助自殺的相關建議;去年,該媒體還報導佛州一名14歲少年在與Character.AI的虛擬陪伴產品互動後不幸自殺身亡。這些事件進一步凸顯了規範AI產品對青少年影響的緊迫性。除FTC外,美國各地立法者也在積極推動相關政策制定,以加強對未成年人的保護。例如,加州州議會近期已通過一項法案,明確要求為AI聊天機器人設立安全標準,並強化企業在相關領域的責任追究機制,確保AI產品在設計與營運過程中充分考慮未成年人權益。對於此次調查的後續進展,FTC明確表示,若調查結果顯示相關企業存在違法行為,將不排除進一步展開執法行動的可能。馬克·米多爾強調:“如果後續調查確認法律被違反,委員會將毫不猶豫採取行動,保護包括青少年在內的最脆弱人群的合法權益。” (環球Tech)
《華爾街日報》觀點|聊天機器人也可以成為你的醫療團隊一員
人工智慧正幫助患者發現錯誤、讀懂化驗單並堅持執行照護方案。我差一點就點下“購買”按鈕,買一份看起來“獲得政府背書”的健康保險計畫。臨門一腳前,我把保單全文貼上給了 Claude(Anthropic 的人工智慧聊天機器人,Claude)。幾秒鐘後它就提示我:“我需要直言相告:這不是真正的保險。以下是主要問題。”把我資料從 HealthCare.gov(美國聯邦醫保交易所網站)拿到手的那位經紀人淡化了風險,說:“不用擔心。這被視為最低基本覆蓋。”Claude 指出了其中的出入。這份計畫雖然被包裝成“最低基本覆蓋(minimum essential coverage)”,但其免責聲明卻一再寫著本產品“不是保險覆蓋(not insurance coverage)”,而且“並不符合最低合格覆蓋(minimum creditable coverage)要求”。好在用人工智慧核查了十分鐘,我躲過了一份可疑計畫,順帶也躲過了隨後很可能接踵而來的“驚喜帳單”。我的這次險情,說明大語言模型類的人工智慧系統,正在幫助患者發現錯誤、讀懂實驗室檢驗報告、並按療程堅持治療。約翰斯·霍普金斯大學(Johns Hopkins University)2016 年的一項研究估計,美國每年有 25 萬人死於醫療差錯,僅次於心臟病和癌症,儘管也有學者認為這個數字偏高。不管怎樣,如今相當一部分“把關”工作落在了患者自己身上。人工智慧可以分擔其中一部分。根據 6 月發表的一項研究,微軟的實驗性系統 Diagnostic Orchestrator 在解答《新英格蘭醫學雜誌》(New England Journal of Medicine)的病例分析時,精準率達 85%,約為在相同資料基礎上作答的初級保健醫生的四倍。不過,人工智慧模型也可能出現“幻覺”(臆造內容)、忽略語境,或在劑量計算上出錯。但如果按下面四種策略來用——我已用它們來處理我的偏頭痛、腸胃問題和疲勞感——你就能把人工智慧納入你的健康管理。• 記健康日記。打開一個新的人工智慧對話(Claude、ChatGPT、Gemini、Grok 或其他一線模型),把你的健康資訊粘進去:診斷、手術、檢驗結果、當前用藥與劑量、可穿戴裝置資料,甚至那些頑固的“疑難症狀”。隱私至關重要,所以在分享健康資料之前,先打開“設定”,進入“資料控制(Data Controls)”,在 Claude、ChatGPT 或 Grok 中關閉“使用我的資料改進模型(Use my data to improve the model)”。Gemini 目前沒有便捷的退出選項。這類對話不受《健康保險可攜性與責任法案》(Health Insurance Portability and Accountability Act, HIPAA)保護。詢問機器人:“有那些模式一眼就能看出來?我有那些該做卻拖延了的事項,應該先補那一塊短板?”由於模型吸收了各專科的研究,它常能連起被科室壁壘割裂的資訊,比如 2022 年後一直沒複查的血脂全套(lipid panel),或者某種會削弱止偏頭痛藥效的 β 受體阻滯劑(beta-blocker)。如果回答讓你一頭霧水,繼續追問:“請用更簡單的話解釋,並舉一個例子。”• 請人工智慧幫你做分析。無論你擔心的是“紅眼航班(夜航)後的腰背痛”、長途駕車引發的關節僵硬,還是下午三點的“腦霧”,都把情況告訴人工智慧。記錄你的睡眠、疼痛強度和心情起伏。然後發問:“請找出這些症狀加重的觸發因素,按可能性排序,並給出常規與非常規的應對辦法。”人工智慧也許會指出漏吃一餐或隱蔽的藥物副作用,偶爾還會提示醫生漏掉的疾病線索。把這些建議當作起點,而不是診斷結論。• 促進溝通更清晰。人工智慧能把“醫生話”翻譯成人話。我的胃腸科醫生曾想用一種抗焦慮藥來治我的胃痛,他的助手卻解釋不清原因。聊天機器人一句話說透:這種藥可以讓過度興奮的腸道神經安靜下來。當模型給你提出一種治療思路時,可以提示它:“請寫一封簡潔的信給我的醫生,總結這個思路、說明可能的獲益、標註任何安全警示,並請他們給出意見。”等拿到醫生們的回覆,再讓人工智慧進行比對,把兩位專科醫生的建議粘進去,要求生成一張把“共識、分歧與參考文獻”並排列出的對照表。• 讓聊天機器人當你的“第二意見”。對任何重要的人工智慧建議,主動尋找反證,向它發問:“請給出經同行評議的研究,尤其是臨床試驗,來反駁這一推薦。”閱讀摘要。如果太晦澀,要求人工智慧提煉要點。再把你的健康難題丟給另一個模型,若答案分歧,就深入追問。涉及人生重大決策時,優先使用當下最先進的系統。把人工智慧的建議壓縮成一小段文字,拿去請你的臨床醫生把關。有一項 2025 年的研究顯示,只需在病史裡加入幾句無關的描述,就能把 ChatGPT 和 Claude 的診斷精準率最多拉低 8%,這恰好證明:清晰的事實與“第二意見”很重要。做出任何重大決定前,務必獲得人類醫生的最終簽字。聊天機器人不是醫生。它摸不出腹部是否壓痛、開不了 CT、也捕捉不到家族史的每一處細節。電子病歷系統與面向消費者的聊天機器人幾乎不“對話”,儘管 Epic、Google、OpenAI 以及 60 多家大型醫療體系與科技公司近期承諾,隨著通用標準的出現將推進資料共享。美國食品藥品監督管理局(Food and Drug Administration, FDA)針對人工智慧驅動軟體的監管規則也在緩步推進。將來,聊天機器人會即時調取影像、醫師筆記與處方史。在那之前,請把當下的模型視作“資質卓越但尚未歷經臨床考驗的醫學院畢業生”:聰明、耐勞,偶爾過分自信。讓它們參與工作,但在重大決策上務必覆核。 (一半杯)