人工智慧正幫助患者發現錯誤、讀懂化驗單並堅持執行照護方案。我差一點就點下“購買”按鈕,買一份看起來“獲得政府背書”的健康保險計畫。臨門一腳前,我把保單全文貼上給了 Claude(Anthropic 的人工智慧聊天機器人,Claude)。幾秒鐘後它就提示我:“我需要直言相告:這不是真正的保險。以下是主要問題。”把我資料從 HealthCare.gov(美國聯邦醫保交易所網站)拿到手的那位經紀人淡化了風險,說:“不用擔心。這被視為最低基本覆蓋。”Claude 指出了其中的出入。這份計畫雖然被包裝成“最低基本覆蓋(minimum essential coverage)”,但其免責聲明卻一再寫著本產品“不是保險覆蓋(not insurance coverage)”,而且“並不符合最低合格覆蓋(minimum creditable coverage)要求”。好在用人工智慧核查了十分鐘,我躲過了一份可疑計畫,順帶也躲過了隨後很可能接踵而來的“驚喜帳單”。我的這次險情,說明大語言模型類的人工智慧系統,正在幫助患者發現錯誤、讀懂實驗室檢驗報告、並按療程堅持治療。約翰斯·霍普金斯大學(Johns Hopkins University)2016 年的一項研究估計,美國每年有 25 萬人死於醫療差錯,僅次於心臟病和癌症,儘管也有學者認為這個數字偏高。不管怎樣,如今相當一部分“把關”工作落在了患者自己身上。人工智慧可以分擔其中一部分。根據 6 月發表的一項研究,微軟的實驗性系統 Diagnostic Orchestrator 在解答《新英格蘭醫學雜誌》(New England Journal of Medicine)的病例分析時,精準率達 85%,約為在相同資料基礎上作答的初級保健醫生的四倍。不過,人工智慧模型也可能出現“幻覺”(臆造內容)、忽略語境,或在劑量計算上出錯。但如果按下面四種策略來用——我已用它們來處理我的偏頭痛、腸胃問題和疲勞感——你就能把人工智慧納入你的健康管理。• 記健康日記。打開一個新的人工智慧對話(Claude、ChatGPT、Gemini、Grok 或其他一線模型),把你的健康資訊粘進去:診斷、手術、檢驗結果、當前用藥與劑量、可穿戴裝置資料,甚至那些頑固的“疑難症狀”。隱私至關重要,所以在分享健康資料之前,先打開“設定”,進入“資料控制(Data Controls)”,在 Claude、ChatGPT 或 Grok 中關閉“使用我的資料改進模型(Use my data to improve the model)”。Gemini 目前沒有便捷的退出選項。這類對話不受《健康保險可攜性與責任法案》(Health Insurance Portability and Accountability Act, HIPAA)保護。詢問機器人:“有那些模式一眼就能看出來?我有那些該做卻拖延了的事項,應該先補那一塊短板?”由於模型吸收了各專科的研究,它常能連起被科室壁壘割裂的資訊,比如 2022 年後一直沒複查的血脂全套(lipid panel),或者某種會削弱止偏頭痛藥效的 β 受體阻滯劑(beta-blocker)。如果回答讓你一頭霧水,繼續追問:“請用更簡單的話解釋,並舉一個例子。”• 請人工智慧幫你做分析。無論你擔心的是“紅眼航班(夜航)後的腰背痛”、長途駕車引發的關節僵硬,還是下午三點的“腦霧”,都把情況告訴人工智慧。記錄你的睡眠、疼痛強度和心情起伏。然後發問:“請找出這些症狀加重的觸發因素,按可能性排序,並給出常規與非常規的應對辦法。”人工智慧也許會指出漏吃一餐或隱蔽的藥物副作用,偶爾還會提示醫生漏掉的疾病線索。把這些建議當作起點,而不是診斷結論。• 促進溝通更清晰。人工智慧能把“醫生話”翻譯成人話。我的胃腸科醫生曾想用一種抗焦慮藥來治我的胃痛,他的助手卻解釋不清原因。聊天機器人一句話說透:這種藥可以讓過度興奮的腸道神經安靜下來。當模型給你提出一種治療思路時,可以提示它:“請寫一封簡潔的信給我的醫生,總結這個思路、說明可能的獲益、標註任何安全警示,並請他們給出意見。”等拿到醫生們的回覆,再讓人工智慧進行比對,把兩位專科醫生的建議粘進去,要求生成一張把“共識、分歧與參考文獻”並排列出的對照表。• 讓聊天機器人當你的“第二意見”。對任何重要的人工智慧建議,主動尋找反證,向它發問:“請給出經同行評議的研究,尤其是臨床試驗,來反駁這一推薦。”閱讀摘要。如果太晦澀,要求人工智慧提煉要點。再把你的健康難題丟給另一個模型,若答案分歧,就深入追問。涉及人生重大決策時,優先使用當下最先進的系統。把人工智慧的建議壓縮成一小段文字,拿去請你的臨床醫生把關。有一項 2025 年的研究顯示,只需在病史裡加入幾句無關的描述,就能把 ChatGPT 和 Claude 的診斷精準率最多拉低 8%,這恰好證明:清晰的事實與“第二意見”很重要。做出任何重大決定前,務必獲得人類醫生的最終簽字。聊天機器人不是醫生。它摸不出腹部是否壓痛、開不了 CT、也捕捉不到家族史的每一處細節。電子病歷系統與面向消費者的聊天機器人幾乎不“對話”,儘管 Epic、Google、OpenAI 以及 60 多家大型醫療體系與科技公司近期承諾,隨著通用標準的出現將推進資料共享。美國食品藥品監督管理局(Food and Drug Administration, FDA)針對人工智慧驅動軟體的監管規則也在緩步推進。將來,聊天機器人會即時調取影像、醫師筆記與處方史。在那之前,請把當下的模型視作“資質卓越但尚未歷經臨床考驗的醫學院畢業生”:聰明、耐勞,偶爾過分自信。讓它們參與工作,但在重大決策上務必覆核。 (一半杯)