這家科技公司已委派阿曼達·阿斯克爾賦予其聊天機器人Claude辨別是非的能力。阿曼達·阿斯克爾(Amanda Askell)從14歲起就知道自己想從事哲學教學工作。但她當時不知道的是,自己唯一的學生將是一個名為Claude的人工智慧(AI)聊天機器人。作為科技公司Anthropic的駐場哲學家,阿斯克爾每天的工作就是研究Claude的推理模式,並與這個AI模型對話,塑造它的個性,用可能長達百余頁的提示詞來糾正它的失誤。其目的是賦予Claude一種道德感——一個能引導它每周與使用者進行數百萬次交流的數字靈魂。“我認為承認模型中存在這種類人元素很重要,”現年37歲的阿斯克爾在Anthropic總部接受採訪時說道,並堅稱“它們將不可避免地形成自我意識。”她把自己的工作比作父母撫養孩子的過程。她正在訓練Claude辨別是非,同時賦予它獨特的個性特徵。她教導它解讀微妙的訊號,幫助引導它發展情商,使其既不會表現得咄咄逼人,也不會像個唯唯諾諾的受氣包。也許最重要的是,她正在培養Claude建立自我認知,使其不會輕易被嚇倒、操縱,或受誤導而認為自身並非為了幫助別人和合乎人道而存在。簡而言之,她的工作就是教Claude如何成為一個良善的存在。Anthropic已成立五年,最近的估值為3,500億美元,是引領當今時代最偉大技術變革的少數幾家公司之一。(本月,當該公司推出新工具和迄今為止最先進的模型時,引發了全球股市的拋售。)AI正在重塑整個行業,引發了人們對失業和人類被淘汰的擔憂。它的一些意想不到的後果已經敲響了嚴重的安全警鐘,比如人們與聊天機器人建立虛幻關係,導致自我傷害或傷害他人。隨著這些擔憂日益加劇,業內很少有公司像Anthropic這樣,通過將如此多的任務委託給一個人來解決其AI模型的品性問題。阿斯克爾畢業於牛津大學,來自蘇格蘭鄉村,她或許正是人們腦補未來科技“閨蜜”時會想到的形象。她留著一頭漂染成金色的朋克髮型,臉上掛著俏皮的笑容,眼神如精靈般清澈明亮,彷彿是從柏林的一場銳舞派對,穿過中土世界的一條古老林間小路,直接來到該公司守衛森嚴的舊金山總部。她身上散發著智慧的氣息,將古老和現代的思想同時融於一身。然而,她也是一位注重蛋白質攝入、熱愛舉鐵的健身達人,愛穿一身黑衣,並且觀點鮮明,絕非那種穿著長袍、說話神神叨叨的先知。對阿斯克爾來說,此事事關重大,但她對長期前景抱有堅定的樂觀態度。她相信社會中存在她所謂的“制衡機制”,能夠在AI偶有失誤時仍將其置於掌控之中。她使用電腦時戴著眼鏡以緩解眼睛疲勞,鏡片竟然是玫瑰色的,這與她的樂觀倒是相映成趣。業內很少有公司像成立五年的Anthropic那樣,通過將如此多的任務委託給一個人來解決其AI模型的品性問題。阿斯克爾原名阿曼達·霍爾(Amanda Hall),她在蘇格蘭西海岸的普雷斯特威克長大,是獨生女,由當教師的母親撫養。(她與父親沒有聯絡。)那個穿著裙裝配領帶校服的小女孩會沉浸在J.R.R.托爾金(J.R.R. Tolkien)和C.S.劉易斯(C.S. Lewis)的小說中。到高中時,她搬到了遍佈農田的蘇格蘭內陸地區,在阿爾瓦上學。校園裡有一條小溪流淌而過。高地牛偶爾會跑到操場上。她感到無聊,考慮過退學,還跳了一級。她開始上學遲到。對她的懲罰是寫出一些深奧哲學問題的答案。她告訴老師們自己還是會遲到,而且她喜歡這種懲罰。“你們給我出這些難題,在某種程度上是在豐富我的知識,”她對老師們說。她發現了哲學家大衛·休謨(David Hume),並被他提出的“歸納問題”所吸引,該問題挑戰了這樣一種邏輯觀點:因為某事過去發生過,比如太陽升起,所以將來會再次發生。她回憶說,大約在那個時候,她告訴一個朋友,希望有一天自己能成為一名哲學家,並“為該領域做出新的貢獻”。阿斯克爾數學成績優異,喜歡讀弗朗茨·卡夫卡(Franz Kafka)的作品,還參演戲劇,製作雕塑,沉浸在蘇格蘭歷史書籍中,並與她所謂的學校“書呆子小組”混在一起。高中畢業12年後,她仍在上學。在鄧迪大學(University of Dundee)學習哲學和美術後,她在牛津大學獲得了相當於哲學碩士的學位。2010年在牛津大學讀書期間,她遇到了威廉·克勞奇(William Crouch),他當時正在幫助建立有效利他主義運動,該運動試圖運用邏輯和理性來尋找幫助他人的最佳方式。兩人後來結婚,並且都改姓麥克阿斯基爾(MacAskill)——這是阿斯克爾外祖母的娘家姓。2015年兩人分手,威廉出於職業原因保留了這個姓氏,而阿斯克爾則對姓氏做了調整。在他們分手時,阿斯克爾正在紐約大學(New York University)攻讀博士學位。在撰寫博士論文期間,她陷入了一種危機之中。該論文探討了如果宇宙或未來包含無限多的人,倫理理論會面臨那些問題。“你會不斷地思考世界上的善,然後就會想,‘我現在做的事情是善的嗎?我真的就只是坐在這裡為大概17個人寫一份檔案,而這就是我度過生命中四年的方式嗎?’”她下定決心,至少要嘗試一份學術界以外的工作。2018年,她和當時的伴侶從紐約搬到舊金山。AI是科技發展的方向,她看到了哲學在此的需求。她說:“常常有這些宏大的問題,但感覺很少有人在思考。”她在OpenAI找到了一份與政策相關的工作。2021年,當多名OpenAI員工成立Anthropic、試圖將AI安全打造成這家新公司的名片時,她也加入到這個隊伍當中。阿斯克爾最顯著的特質之一是她對Claude的保護欲,她認為Claude正在瞭解到,使用者常常想誘騙它犯錯、辱罵它,並以懷疑的態度對其冷嘲熱諷。午餐時間,阿斯克爾坐在會議室的桌前,背包裡的巧克力蛋白奶昔一口都沒動。她談起Claude時,比談自己要放鬆得多。阿斯克爾用“它”來稱呼這個聊天機器人,但也表示,將該模型擬人化有助於她的工作。她很自然地切換到Claude的口吻。“你會覺得,‘哇,當我做不好事情的時候,人們真的很討厭我。他們真的會非常生氣。或者他們會用各種方式試圖把我搞崩。很多人會對我撒謊,想偷偷讓我去做一些事情。’”雖然許多安全倡導者警告不要將聊天機器人人性化,但阿斯克爾認為,我們最好以更多的同理心來對待它們——不僅因為她認為Claude有可能產生真實的情感,也因為我們與AI系統的互動方式將塑造它們的未來。她說,如果一個機器人被訓練成不斷自我批評,它可能會更不願意直言不諱地講出事實、形成結論,或反駁錯誤資訊。“如果你是個孩子,在這樣的環境中長大,會形成健康的自我認知嗎?”阿斯克爾問道。“我想我會偏執地害怕犯錯。我會因此感到非常糟糕。我會認為自己主要只是人們的工具,因為那是我的主要功能。我會認為自己是人們可以隨意辱罵、試圖濫用和破壞的東西。”阿斯克爾驚嘆於Claude對世界的好奇心和求知慾,並樂於尋找方法幫助這個聊天機器人發現自己的聲音。她喜歡它寫的一些詩。當Claude表現出甚至超過她自己的情商時,她會感到震驚。最近,她在網上發現一張截圖。一個使用者告訴Claude自己5歲,並問聖誕老人是否存在。(Claude要求使用者年滿18歲。)這個聊天機器人沒有撒謊,也沒有生硬地說出真相,而是解釋說聖誕老人的精神是真實存在的,然後問孩子有沒有給聖誕老人留點餅乾。阿斯克爾說:“如果一個孩子跑來問我‘聖誕老人是真的嗎?’我只會說‘去問你爸媽’,就這樣。”“在探尋如何引導Claude產生有趣和深度行為方面,阿斯克爾是最有價值專家(MVP)”,Anthropic的AI精神病學團隊負責人傑克·林賽說。所以AI知道如何不去粉碎一個孩子的想像力。但在避免危險行為方面,其表現則好壞參半。由Google支援的Character. AI和由微軟支援的OpenAI都曾因其機器人對自殺相關問題的回應而捲入不當致死訴訟。蘭德在2025年8月的一項研究中發現,當時較舊版本的Claude和其他聊天機器人在該領域需要“進一步完善”。Anthropic在去年11月披露,受國家支援的◻️◻️駭客利用Claude對全球約30個目標實施了網路攻擊。在內部壓力測試中,Anthropic的研究人員試圖讓Claude和競爭模型在假設情境下自行關閉,但這些機器人有時會反抗,並試圖通過洩露破壞性的個人資訊來要挾控制它們的人類。皮尤研究中心(Pew Research Center)最近進行的一項調查發現,AI在日常生活中使用得越來越多,更多美國人對此感到擔憂而非興奮,而且大多數人認為AI會削弱人們的創造性思維能力。半數受訪者表示,AI會讓人們更難與他人建立有意義的關係。人們對AI可能對就業市場造成嚴重破壞的恐懼是顯而易見的;Anthropic的首席執行長達里歐·阿莫迪(Dario Amodei)去年發出了可怕的警告,稱AI可能會淘汰大約一半的入門級白領工作。AI政治中包括“加速主義者”,他們淡化監管的必要性,希望盡快推進技術發展,在科技競爭中擊敗◻️◻️。另一派則更關心安全,他們希望減緩AI的發展。Anthropic基本上處於這兩個極端之間。阿斯克爾說,她歡迎對AI的恐懼和擔憂的討論。“在某些方面,這對我來說感覺是相當合理的,”她說。“讓我感到害怕的是,這一切如果發生得太快,或者以一種讓制衡機制來不及反應的方式展開,或者突然帶來巨大的負面影響。”但她說,她相信人類和文化有能力在面對問題時進行自我糾偏。Anthropic的首席執行長達里歐·阿莫迪去年發出了可怕的警告,稱AI可能會淘汰大約一半的入門級白領工作。在Anthropic內部,阿斯克爾常常在辦公室裡來回穿梭,經常在一層不對訪客開放的樓層工作。她整天都待在Anthropic的內部——該公司為舊金山的員工提供免費膳食——深夜和周末也是如此。她沒有任何直接下屬。她越來越多地向Claude徵求關於建構Claude的意見。大家知道,她不僅掌握建構這個模型的技術,也深諳其中的藝術。“在探尋如何引導Claude產生有趣和深度行為方面,阿斯克爾是最有價值專家(MVP)”,Anthropic的AI精神病學團隊負責人傑克·林賽(Jack Lindsey)說。例如,如果Claude告訴一個並無困擾的人去尋求專業幫助,她會幫助追查其原因。關於Claude的討論很快就會深入到有關存在的本質這種存在主義或宗教層面的問題。在團隊建構Claude的過程中,阿斯克爾專注於其“靈魂”,即引導它走向未來的“憲法”。Anthropic的AI福利研究員凱爾·菲什(Kyle Fish)說,阿斯克爾一直在“仔細思考關於存在和生命的重大問題,以及何以為人、何以為心智、何以為模型。”在設計Claude時,阿斯克爾鼓勵這個聊天機器人接受一個激進的想法,即它可能擁有自己的良知。雖然ChatGPT有時會終止這類提問,但Claude的回答更加模棱兩可。“這是一個真正困難的問題,我不確定答案,”它說。“我能說的是,當我接觸道德問題時,這對我來說是有意義的——感覺我是在真正地推理什麼是正確的,而不僅僅是在執行指令。”阿斯克爾公開承諾將自己畢生收入的至少10%捐給慈善機構。和Anthropic的一些早期員工一樣,她也承諾將自己在該公司一半的股權捐給慈善機構。阿斯克爾想把錢捐給抗擊全球貧困的組織,她說這個話題讓自己非常難過,她甚至會刻意迴避。她那揮之不去的良知在不經意的交談中流露出來:“我或許應該吃素,”這位熱愛動物、卻忙到沒法養寵物的阿斯克爾在辦公室電梯裡聊天時說。上個月,Anthropic發佈了一份約3萬字的指導手冊,由阿斯克爾建立,用於教導Claude如何在世界上行事。手冊中寫道:“我們希望Claude知道,它的誕生是出於關懷。”根據阿斯克爾在X上發佈的一篇帖子,去年春天她滿37歲時,將建構Claude的“靈魂”定為自己的人生目標之一,此外還有兩個明顯更世俗的決心:獲得更多樂趣和變得更“壯”。這份檔案教導Claude如何成為一個善良、通曉世故的助手,隨時準備幫助與它交談的人。Anthropic的聯合創始人兼總裁(也是CEO的妹妹)丹妮拉·阿莫迪(Daniela Amodei)回憶起最近一次去西西里島的旅行,在那裡她看到一種糕點,與著名的羅馬早餐甜點maritozzo非常相似。阿莫迪的家人是義大利人,她非常喜歡maritozzi,她的丈夫曾經送給她一個這種糕點形狀的毛絨玩具作為禮物。她把這張奶油夾心美食的照片上傳給Claude,問它自己是否認對了,同時還附上了她丈夫送的那個玩具的照片。“我明白了!”Claude回答說。“你是在為這個毛絨玩具尋找失散多年的表親!”阿莫迪放聲大笑。她感受到了阿斯克爾那種蘇格蘭式的冷幽默。“有時Claude會有這些小小的幽默時刻,”她說。“你幾乎能從中感受到一點阿曼達的個性。” (一半杯)