Anthropic 的崛起是2024年全球AI 產業最受矚目的現象之一,它是OpenAI 強有力的挑戰者,令許多厭倦了OpenAI 式虛張聲勢和誇大其詞的AI 研究者和開發者耳目一新。 從Menlo Ventures 提供的資料來看,2024年OpenAI 在企業AI 領域的市佔率從50%下降至34%,Anthropic 的市佔率從12%增至24%,交叉線正在逼近。這也意味著更多企業開發者正在從GPT-4 Turbo 的API 切換到Claude Sonnet 3.5,一個可能更適合開發企業級AI 應用的基座大語言模型,也據說是這個世界上目前最受歡迎的大語言模型。
Anthorpic 對企業市場的野心是巨大的。經常出差的同學們在舊金山機場幾乎隔幾個登機口就能看見一塊Claude 模型投放的廣告牌,上面寫著「Powerful, fast, or safe. Pick three」。這是一個進攻性的文案—— "Good, fast, cheap, pick two」 是一個常見的商業常識表述,意在提醒人們trade off 是不可避免的,但Anthropic 無意妥協,它宣稱自己打破了性能、速度和安全的不可能三角。大語言模式鐵人三項,Claude 是全能的。
這個風格非常不Anthropic —— 如果換作別的公司,你可以認為它在自吹自擂。但偏偏Anthropic 並未有過自吹自擂的歷史紀錄。相反的是,比起大多數AI 明星公司(當然包括OpenAI)對AGI 表面上的過度熱衷和自我包裝,Anthropic 對AI 未來發展的體現了一種審慎而克制的態度,這在Anthropic 的聯合創始人和CEO Dario Amodei 的公開表達,Anthropic 對其關鍵業務的定義和描述,更重要的是Claude 模型的訓練方法上,都得到了體現。
Powerful AI,而非AGI
2024年10月11日,Anthropic CEO Dario Amodei 發表了一篇足以載入人工智慧發展史冊的長文「Machines of Loving Grace」(充滿愛意的機器)。在這篇文獻中,Amodei 不僅概述了「強大的人工智慧」(Powerful AI)可以改變社會的五個關鍵領域:生物學和身體健康、神經科學和心理健康、經濟發展和貧窮、和平與治理、工作和意義。 Amodei 描述的未來體現了一種科學家的理性和現實,而非斯坦福輟學明星創業者式的信手拈來—— Amodei 拒絕用“AGI”(通用人工智慧)這個科幻小說中誕生的熱詞描述他探索的一切,而用「Powerful AI」(強大的人工智慧)取而代之。儘管有些刻意,但「Powerful AI」 的表述顯然更專注於具體的能力,而不是抽象的概念。 Amodei 賦予了Powerful AI 可衡量的特徵和定義:在特定領域超過諾貝爾獎得主等級的智慧、具體的介面(文字、音訊、視訊、滑鼠/鍵盤控制)、可以自主完成長期任務、以10-100倍人類速度運作、可以複製數百萬次、能夠獨立和協作工作,以及具體的時間表。 Amodei 相信實現上述特徵和定義的Powerful AI最早在2026年實現,且不是一蹴而就。 Powerful AI 的願景強調具體的解決問題的能力,而不是匹配人類意識或一般智力。
謹慎使用Agent
Amodei 的Powerful AI 願景,近期體現在Anthropic 在AI Agent 的探索。在Amodei “Machines of Loving Grace” 的長文發表之後兩周,Anthropic 推出了升級的Claude 3.5 Sonnet 模型和Claude 3.5 Haiku 新模型。同時,它還公佈了一項匹配新模型的突破性功能:Computer Use(電腦使用),允許Claude 像人類使用者一樣與電腦互動:移動游標和點選按鈕、鍵入文字和執行按鍵、擷取和分析螢幕截圖和編輯文字檔案等。 Computer Use 可以讓Claude 3.5 Sonnet 將自然語言指令轉換為電腦命令的API, 以實現Powerful AI 的關鍵定義之一:透過具體的介面,自主完成長期任務,它被視為AI Agent 實踐的重要突破。 2024年12月20日,Anthropic 官方發佈了「Building Effective Agents」 的文章,第一次公開了對AI Agent 的理解。 Anthropic 在文章中精確定義了Agent (代理)和Workflow(工作流程) 的區別:「工作流程」 是用事先定義的程式碼路徑操作模型,實現某種程度的自主性,而「代理」則是大模型動態指導自身流程和工具的使用,自主控制完成任務。 這項定義的精確區分並非意味著Anthropic 自我標榜只追求最先進的Agent 研發。相反,它不厭其煩地拆解了搭建一個Workflow 或Agent 的每一個關鍵步驟和每個步驟採用的AI 工具(包括Claude 系列模型和API)。 Anthropic 表示它建議用大語言模型開發AI 應用的時候找到最簡單的解決方案,「並且只在需要的時候增加複雜性」。它並不鼓勵AI 開發者炫技,並且致力於拆解AI 開發的每一個環節和它工作的原理,提高大語言模型自身的可解釋性和透明性。
可解釋的Constitutional AI
Anthropic 旗下的一系列模型,包括備受歡迎的Claude 3 和Claude 3.5系列模型的研發,都基於與OpenAI 採用的RLHF(基於人類反饋的強化學習)迥異的訓練方式,即Constitutional AI (憲法式人工智慧)。 Constitutional AI 與RLHF 的本質差異是:前者以建構於初始架構中的基準價值原則的AI 自主評估和回饋訓練結果,而後者是基於數萬人類回饋樣本的總和進行訓練回饋。具體比較如下表(感謝Perplexity的貢獻):
我其實更傾向於將Constitutional AI 翻譯成“原則AI”,它的“原則”由一系列已知的人類價值觀構成,用人類易懂的自然語言書寫,從而避免複雜的數學公式或程式碼的黑箱決策。它的決策框架可以用來檢視,使用基於已知原則的AI 產生的回饋,避免人類回饋系統的不透明性,從而建立一致的、基於原則的生成結果和自主行為。此外,一個AI 應用的價值觀,在原則上可基於Claude 模型的API 進行定製,也可以修正。 不難想像它對企業級AI 應用的重要性:不同的企業有不同的價值主張、商業規則和業務流程,並且很難透過數萬人類回饋的樣本進行強化學習,對模型生成和行為結果的一致性也更關切,也對AI 行為的可回溯、檢視和透明化有更高的要求。而即便是個人用戶,模型生成結果的一致性和持續性也更為重要。用過Claude 3.5 Sonnet 模型的許多人對它的寫作和程式碼兩項能力印象深刻,也得益於它的訓練方式。 當人們評估Anthropic 的潛力時,Constitutional AI 的訓練方式往往被有意無意忽略了,或將「Constitutional」 簡單地理解為某一種特定的價值觀。對開發者來說,它是可自訂的、多元的原則在模型產生結果和行為時的透明化和一致性體現。
Claude:作為大語言模式的性格
強烈推薦同學們逐篇閱讀Anthropic 官方部落格上的長文,體驗一下這家研究驅動的人工智慧公司在自然語言表達上清晰、克制卻又帶著強烈節奏感的美學。當然,從它的CEO Dario Amodei 發表的長文Machines of Loving Grace 裡,我們也能感知到這種美學的一致性。在這些文章中,比較吸引我的一篇是Claude's Character,它探討了一個Claude 的「性格」。 「我們不必訓練模型去採納它們遇到的任何觀點,強烈採納單一的觀點,或者假裝沒有觀點或傾向,而是可以訓練模型在訓練後誠實地對待它們所傾向的任何觀點,即使與它們交談的人不同意它們的觀點。 Anthropic 繼而補充:「我(指Claude)不會說(人們)想聽到的東西」。 聽起來非常像一個聰明人該有的樣子。以及,你很難想像一個大語言模型的性格跟研發它的團隊沒有任何關係,因此,Claude 作為一個模型的性格,某種程度也應該是Anthropic 作為一家企業的性格,甚至人格。
Anthropic 的性格:可解釋性、科學主義、工具理性與人文主義的調光板
如前所述,Anthropic 作為人工智慧公司的相當個性的立場和價值觀——包括Constitutional AI 的原則、對Agent 熱潮的警惕,對Powerful AI 而非AGI 的未來願景,都折射了這家公司的頗具特色的性格:簡單可以總結為:可解釋性、科學主義、工具理性與人文主義的調光板。 沒有一家AI 公司像Anthropic 一樣,如此在意概念描述與術語定義的精確性:它刻意避免使用AGI 這個最流行的描述AI 未來的概念,而用Powerful AI 這麼一個中性得有些乏味的詞彙定義它所做的一切。 Anthropic 認為AGI 是科幻小說衍生的概念,用來指引AI 發展的未來有不可解釋性。其對Agent 和Workflow 的嚴格界定,也透露了這家公司對時髦AI 術語的本能警惕與抵制。 你可以認為,Anthropic 有意抵制日益普遍的AI 炒作(AI Hypes),抗拒任何人和組織以任何形式的AI 先知面目誤導公眾,而是試圖用更精確、科學主義的方式呈現它的AI 研究與產品,並著重於其原理的透明性和可解釋性。它主動談論AI 的安全問題,並且用可解釋的原理,將安全性作為Claude 系列模型的賣點。它甚至不給外界Claude 下一代新模型的預期,無論Sonnet, Haiku 還是傳說中的Opus,都是Claude 3.5家族的成員,因為Dario Amodei 認為只有當神經網路的規模取得顯著增長的情況下,才會誕生一代全新的模型。這應該是Scaling Law 的常識,現在卻需要Anthropic 和Amodei 來重複。 為什麼Anthropic 這麼在意科學、透明和克制地解釋AI 的發展?粗暴的解釋是:Dario Amodei 是科學家,他有生物物理學的博士學位,在百度和Google 的研究職位上延續他的學術生涯,然後加入了OpenAI。許多人津津樂道OpenAI 共同創辦人Ilya Sutskever 與CEO Sam Altman 在理念上不可調和的衝突,可是有沒有一種可能,曾擔任OpenAI 研究副總裁Dario Amodei,與Ilya Sutskever 同時,甚至更早看到AI演進的未來,和它帶來的安全、倫理和其它黑盒子裡的問題?而他要做的,就是用迥異於OpenAI 理念和方法,把OpenAI 的一切都反過來,重新塑造一個人工智慧的未來?
Anthropic 對人工智慧的審慎、可解釋和透明化原則體現了它對人工智慧的工具理性立場,即人們該如何不受誇大、誤導和驅使,按照自己的意志掌控和操作AI,實現人的福祉增益。一個有趣的對比是:OpenAI 命名自帶“AI”,但Anthropic 這個自創的單字確出自希臘語的“anthropos”,意思是human,即人類。不得不說,Anthropic 對OpenAI 的反叛是深入每一個細節的,就連名字都如此。 但Anthropic 對AI 與人類關係的思考又是充滿柔和與溫情的。在Dario Amodei 那篇The Machine of Loving Grace 裡,提及人們對AI 安全問題的低估是憂心忡忡的,討論AI 的定義和理性的,而展望起AI 對人的生命延續、演算法解決病例基因和消除人類精神疾病等領域,則體現了一種平靜的溫暖和篤定—— Amodei 沒有扮演預言一切的先知,而是一如既往地展現了AI 解決人類長期生理和心理健康的可解釋性,提出了具體實現的步驟和原理。這種工具理性和人文主義的「調光」效應,折射了一家人工智慧新創公司罕見的性格。
Anthropic 的科學主義、可解釋性原理、工具理性與人文主義的調光板效應,會讓你想起人類歷史上那家影響深遠的科技公司?我找到的答案是Google。 “成為Google”,至今仍是對一家AI 創業公司的褒揚—— Google 的研究員們最早地提出了奠定生成式人工智慧發展路徑的Transformer 架構,且至今仍是AI 競技場上最重要的玩家之一。 Google 成立之初秉持著整合世界上所有資訊的善意和願景,而且差一點就都做到了。 Google 的創辦人Larry Page 發明了網頁排名(PageRank) 技術,同時推動網頁排名演算法的透明化,公開了Google 搜尋結果產生的原理和步驟,並允許用戶透過「About this result」功能瞭解自己的搜尋記錄和數據如何用來個人化搜尋結果。 當然,更被熟知的是Google 「不作惡」(Don't be evil) 信條。它確實在早期Google 的發展中得到了最大程度的展現—— “作為一個為世界做好事的公司,從長遠來看,我們會得到更好的回饋——即使我們放棄一些短期收益”。這在Google 嚴格在搜尋結果中標註付費內容,並嚴格限制醫療和金融等領域的廣告等方面都可以體現。 毫無疑問,Anthropic 正在閃耀著早期Google 曾經有過的光芒。它追求可解釋性和有方法論的大語言模型生成原理,強調在Agent 開發的流程中保持簡單性和透明度,期待使用者因為Claude 模型而變得明智;這與Google 早期增進信任和透明化的搜尋結果呈現原理非常近似。而Anthropic 提出的「原則AI」 (Constitutional AI),更接近Google 一度奉行的「不作惡」價值觀,是一家科技公司最重要的道德戒律。 我們可以從更多層面來比較Anthropic 和早期Google 在建立科技道德和人類善意方面的實踐(感謝Perplexity的貢獻):
Google 早期的一系列正直、誠實和透明的價值觀和舉措,被寫進了2004年創始人致股東的公開信,成為Google 上市文件中不可或缺的一部分,也推動了早期Google 商業的繁榮。現在輪到Anthropic 來證明:一個透明、可解釋、安全、強大的大語言模型,可以在獲得商業上更大的成功。 越來越多的企業使用者正在為Anthropic 投票。 2024年,Anthropic 的預期收入是10億美元,85%來自API 訂閱,企業市佔率從12%增加至24%。企業對什麼是可靠、安全、高效,符合更高商業倫理與道德的AI,也許比個人使用者有更真實的理解和更迫切的需求。 一個脫胎於OpenAI 的團隊,甚至作為OpenAI 的反面,Anthropic 只有一條路:在更多的場合取代OpenAI。它不僅僅是佔領OpenAI 的市場份額,而是在什麼是正確的、安全的、符合人類願景的AI 的認知上,引領更多的AI 開發者和創作者。 資訊科技革命者身上的人性光輝,在1980年代的比爾蓋茲身上出現過,在2000年代初的Google 兩位創辦人身上出現過。如今,在Dario Amodei 和他創造的Anthropic,我們好像又看到了──在人工智慧時代開啟,人性的光芒最需要閃現的時候。 (矽星人Pro)