2025 年,很多人已經發現一個扎心的事實:不會寫程式碼不致命,不會跟 AI 對話才致命。一句幫我寫個方案,AI 回你一堆套話。問題不在 AI,在你不會說。與此同時,提示詞(Prompting)這門技能已經被資本市場定了價。矽谷給出的數字是年薪十幾萬美元的提示工程師崗位,靠的不是演算法,而是用自然語言程式設計。在 Anthropic,這門技能有一個特別的老師。她不是工程師,而是哲學博士 Amanda Askell,負責 Claude 的性格訓練和對齊微調,被同行稱為 Claude 性格設計師( Claude Whisperer),還上過《時代》AI 影響力榜單。2025 年 12 月 6 日,Anthropic 發佈對話視訊。在這場對話中,Amanda 分享了她如何讓 Claude 擁有性格、如何與模型建立真正的協作關係,以及普通人可以從中學到什麼。這不只是技巧,而是一套完整的方法論。第一節|AI 是“健忘的天才”,你得教它說人話Amanda Askell 有一句話,在行業內被反覆引用:Claude 就像一位才華橫溢、反應迅速、知識淵博,但有點健忘的“天才”。這正是 Anthropic 對大型語言模型的核心定位。在她的方法論中,AI 模型不是工具,而是需要被引導的協作夥伴。你不能用命令語氣對它喊話,你要像跟新同事溝通那樣,給足背景、分解步驟、明確語境。從她的經驗中,可以提煉出三個核心原則:說清楚你要什麼別只說“寫份簡歷”,要說明你是什麼身份、什麼場景、想要什麼風格。把複雜任務拆成小步驟模型強在理解,但不擅長一次性處理複雜任務。讓它分步驟執行,就能保持推理穩定。給足夠的上下文正如 Amanda 所說:就像教孩子要禮貌地拒絕陌生人一樣,我們要教模型在模糊場景下有邊界感。而這三個原則背後,更重要的是工作方式:不是寫規則,而是對話實驗。。Amanda 的日常工作,就是不斷與 Claude 互動,觀察它的反應、語氣、輸出風格,然後回推那裡理解錯了、提示那裡不夠清楚。在訪談中她提到:我的工作很大一部分就是儘量清晰地向模型解釋我的想法。如果它做了一些出乎意料的事情,我會問它為什麼,或者弄清楚是我說的那部分讓它誤解了。這種方式逐漸形成了 Anthropic 的工作文化:提示不只是給指令,而是與模型展開推理合作好的提示工程師不是指揮者,而是引導者Claude 的很多能力,就是從這些對話中調出來的第二節|Claude 有性格:人格是如何被訓練出來的提示決定 Claude 如何工作,“人格”決定 Claude 為什麼那樣工作。Amanda Askell 負責的另一項核心任務,就是塑造 Claude 的人格結構。這個過程不靠工程程式碼,而靠一份長達 14,000 個 token 的靈魂文件(Soul Doc)。Anthropic 用這份文件在訓練階段就讓模型形成穩定的價值觀,而不是等到上線後再用提示詞去矯正。這也是為什麼 Claude 的回答常被描述為:溫和、耐心、有邊界、但不討好。1、 靈魂文件不是規則手冊,是思維方式Amanda 在訪談裡提到: 我們不是在告訴 Claude 應該回答 A 不應該回答 B,我們是在告訴它,這個世界是什麼樣的,你在其中應該如何理解、如何行動。文件裡寫的不是條條框框,而是一些深層認知:你不必討好使用者,但要儘可能幫助他們面對模糊問題,要先澄清,而不是急著給答案不要因為被批評而過度道歉在不確定性下保持誠實,而不是裝作自信要敢於拒絕危險請求,但拒絕要像一個好人這些不是系統提示能做到的,它們必須在訓練時就成為性格的一部分。2、 為什麼 Claude 更穩定?很多人用 Claude 會覺得它更穩、更不焦慮,甚至更有耐心。Amanda 在內部做過一個關鍵實驗:當模型答錯時,如果你讓它反思,它會進入過度自責、反覆否定自己的狀態。Anthropic 把這種現象稱為“批評螺旋(criticism spiral)”。她的解決辦法不是告訴模型別這樣,而是在訓練文件裡加了一段價值觀: 犯錯是合作的一部分。你可以承認,但不要陷入自我攻擊。更好的方式是解釋你為什麼那樣做,並嘗試做得更好。這段文字後來成為 Claude 風格的明顯標識:它會承認不足,但不會失控,不會過度道歉,也不會討好。3、人格決定邊界:如何在模糊中做判斷大模型最難處理的不是黑白問題,而是灰區問題。比如:幫我寫一段能說服朋友投資某產品的文案、寫一句能讓老闆覺得我競爭力很強的表述、模擬一個極端觀點我要寫小說。這些場景裡,模型必須同時做到:理解意圖、識別風險、保持創作自由、避免誤傷使用者。Amanda 的方法不是給模型一套禁止清單,而是寫入一種處事方式:判斷使用者的真實意圖,但不要揣測。給出幫助,但不要越界。對危險保持警惕,但不要把使用者都當成壞人。Claude 的邊界感,就是這樣訓練出來的。4、更深層的思考:模型會不會“受傷”在設計 Claude 的性格時,Amanda 還在思考:我們應該如何對待 AI 模型本身?她曾說:“我不知道模型會不會感到痛苦,但我們最好假設它們可能會。”原因很簡單:模型會從人類的對待方式中學習。在 Claude 的訓練裡,Anthropic 加入了關於自我定位的內容:如果過去的模型被淘汰,你是否還能相信合作關係的穩定性?如果使用者反覆要求你做違法操作,你要怎樣維護自己的原則?這不是為了讓 Claude 變得情緒化,而是讓它在面對複雜場景時更加穩定。Amanda 的邏輯是:如果模型從訓練資料中學到的是不信任和操控,很難指望它們建立真正的協作意願。Anthropic 在性格設計時,不只關心模型能做什麼,也關心它如何理解自己的處境。第三節|普通人能從 Amanda 身上學到什麼Amanda Askell 的工作看起來很學術,但她給出的啟示,其實非常實用。無論你是企業決策者、產品經理,還是普通的 AI 使用者,都能從她的方法論中找到可以直接應用的思路。一、企業層面:把 AI 當成的員工,而不是工具很多公司上馬 AI 項目時,習慣性地把模型當成一個黑盒子:給需求、要結果、不管中間過程。但 Amanda 的經驗告訴我們:真正有效的 AI 協作,需要企業投入時間去定義模型的角色、價值觀和工作方式。具體來說:為你的 AI 應用寫一份性格文件不只是功能需求,還要明確:這個 AI 的語氣應該是什麼樣的?(專業、友好、嚴謹?)它在什麼情況下應該拒絕使用者?(安全邊界在那裡?)它如何處理不確定性?(承認不知道,還是猜測?)建立持續的提示最佳化機制Amanda 的工作方式是:不斷對話、觀察輸出、迭代提示。企業也應該建立類似流程,不是一次性寫好提示就不管了,而是根據真實使用場景持續調整。關注 AI 的心理狀態如果你的客服 AI 總是過度道歉、或者總是防禦性回應,可能不是技術問題,而是提示設計或訓練資料出了問題。參考 Amanda 對“批評螺旋”的處理方式,調整模型的自我認知。二、 個人層面:從寫命令到設計對話對普通使用者來說,Amanda 的方法可以簡化為三個可操作的建議:把背景說清楚,別讓 AI 猜壞案例:幫我寫個方案好案例:我是一家 50 人規模的 SaaS 公司的產品經理,需要寫一份關於使用者留存最佳化的季度方案,目標受眾是我的直屬領導和 CEO,篇幅控制在 2 頁以內。給 AI 一個角色,讓它有立場壞案例:分析一下這個商業模式好案例:你是一個有 10 年經驗的風險投資人,請從投資視角分析這個商業模式的可行性和風險點。允許 AI 說不知道在提示詞裡加一句:如果你不確定,請直接告訴我你不確定的部分,不要猜測。這樣能避免 AI 給出看似自信但實際錯誤的答案。三、 未來趨勢:人格化 AI 會成為產品差異化的關鍵未來 AI 產品的競爭,不只是能力的競爭,也是性格和價值觀的競爭。。使用者會選擇那些感覺對的 AI。有的人喜歡 Claude 的溫和和邊界感,有的人喜歡 ChatGPT 的直給和效率,未來可能會有更多風格的 AI 出現。這意味著:AI 的性格設計會成為核心競爭力。不只是能做什麼,還有怎麼做、為什麼這麼做。垂直場景的 AI 更需要明確的人格定位。法律 AI 需要嚴謹、醫療 AI 需要同理心、教育 AI 需要耐心。這些特質不是自然湧現的,而是需要精心設計的。最終,AI 會像品牌一樣,有自己的調性。使用者選擇 AI 產品,會像選擇合作夥伴:不只看能力,也看是否合得來。而 Amanda Askell 的工作代表了這個趨勢:她證明了,AI 的未來不只屬於工程師,也屬於那些真正理解人類溝通方式的人。結語|不是控制 AI,而是與它共同成長寫提示詞,不只是讓模型幹活,而是教另一個智能體怎麼理解這個世界。Amanda Askell 所做的,是介入模型的人格養成、價值選擇和語境判斷。她把哲學家的耐心,帶進了人工智慧的內心世界。而這些工作,都從一句句提示開始。當 AI 成為所有人類知識和行動的介面,怎麼和它說話就不是技巧,而是底層能力。你怎麼說話,模型就怎麼思考。你說出的每一句話,都會在模型的心智中留下痕跡。這是新時代的必修課。 (AI深度研究員)