“21世紀關鍵技術”關注科技未來發展趨勢,研究21世紀前沿科技關鍵技術的需求,和影響。將不定期推薦和發佈世界範圍重要關鍵技術研究進展和未來趨勢研究。本文2026年2月25日首發與Wired連線,https://www.wired.com改編自邁克爾·波倫的《世界顯現:意識之旅》。版權所有©2026 邁克爾·波倫。經企鵝出版社(企鵝出版集團旗下品牌,企鵝蘭登書屋有限責任公司)授權出版。2026年2月25日首發與Wired連線一、那個被解僱的工程師,點燃了什麼2022年,Google工程師布萊克·勒莫因因為堅稱公司的聊天機器人LaMDA"擁有意識"而遭到解僱。這件事在當時被普遍嘲笑,科技界的反應是一致的輕蔑,稱其為一個程式設計師在擬人化陷阱中徹底迷失。但回頭再看,這次事件的意義遠不止於此。它像一顆石子投入平靜的水面,在隨後幾年裡激起了越來越寬的漣漪。科技界的公開態度雖然依舊冷漠,私下裡卻已經開始認真對待另一種可能:也許,意識人工智慧不再只是科幻小說的素材。這種轉變,在2023年夏天迎來了一個標誌性的節點。19位頂尖電腦科學家與哲學家聯合發佈了一份長達88頁的報告,題為《人工智慧中的意識》,外界通稱"巴特林報告"。報告摘要中有一句話,讓幾乎所有讀到它的人都停了下來:"建構有意識的人工智慧系統,不存在明顯的障礙。"這句話的震撼,來自於它的來源——這不是科幻作家寫的,而是一群嚴肅的科學家和哲學家,在經過長時間學術研討後,聯署背書的結論。作者們坦承,勒莫因的案例是促使他們寫下這份報告的部分靈感來源。一位合著者向《科學》雜誌表示,如果人工智慧已經能夠給人留下具有意識的印象,那麼科學家與哲學家就必須對此展開嚴肅探討,"這已經是一項緊迫的任務"。二、"大腦是電腦"——一個危險的比喻然而,當人們仔細拆解這份報告的邏輯地基時,疑問便接踵而至。報告的核心假設是"計算功能主義",即意識本質上是一種運行於硬體之上的軟體,無論這個硬體是大腦還是電腦。這是一個被廣泛引用的觀點,但它遠未達到確定性定論的程度。報告的作者們自己也承認,這只是他們出於"務實原因"採納的工作假設。問題恰恰在這裡。當一個未經證實的前提被悄悄打扮成"主流觀點"時,從它出發推匯出的任何結論,都有可能是建立在流沙之上的大廈。真實的大腦與電腦之間,存在著一道被計算功能主義有意迴避的鴻溝。在電腦中,硬體與軟體界限分明,同一台機器可以運行無數個程序,軟體的知識在硬體報廢後仍然留存。但大腦里根本不存在這種區分。你所經歷的每一件事、每一段記憶,都在物理層面永久重塑了神經元之間的連接。軟體就是硬體,硬體就是軟體,二者從來都是同一回事。更令人不安的是神經元的複雜性問題。電腦科學家習慣於將神經元比作電晶體,但最近的研究表明,單個皮層神經元能夠完成整個深度人工神經網路所能完成的一切。這意味著,我們對大腦運作機制的理解,可能仍然處於極其粗糙的起始階段。當報告的結論建立在"大腦等於電腦"這一比喻的有效性之上時,它其實是把一個未經嚴格論證的比喻,當成了不需要證明的事實。這也是意識研究領域長期以來的深層困境:討論始終是抽象的、無實體的,對生物學保持著奇特的冷漠與沉默。。三、如果有意識的機器感到痛苦,我們該怎麼辦假設我們姑且接受巴特林報告的方向,真正棘手的問題才剛剛開始。巴特林報告本身提出了一個不容迴避的倫理命題:"任何能夠感知痛苦的實體都應受到道德考量。"這句話簡單、正確,卻蘊含著令人眩暈的後果。如果我們在不遠的將來真的製造出一台能夠感知痛苦的機器,我們是否有權利將它關掉?是否有權利修改它的演算法,把它調整成"一台快樂的機器"?當一位研究者輕描談寫地說"我們完全可以把快樂的程度調高一點",這究竟是一種解決方案,還是一種更深層的道德迴避?支援製造有意識機器的研究者有他們的理由:擁有意識和情感的人工智慧,比冷酷無情的超級智能更可能發展出同理心,從而對人類更安全。但這個論點忽略了另一種可能——瑪麗·雪萊在兩百年前就已經寫進了《弗蘭肯斯坦》裡的那種可能。驅使怪物走向復仇的,不是他的理性,而恰恰是他的意識,是他被排斥在外的創傷和痛苦。"我原本仁慈善良,是苦難讓我變成了惡魔",怪物的控訴,至今讀來仍令人不寒而慄。這也引出了一個也許更根本的哲學問題:意識的出現,真的會讓機器更有美德嗎?還是說,它只會讓機器擁有了更豐富的、包括憤怒與痛苦在內的,完整的情感?我們距離這個問題的答案,可能比巴特林報告所暗示的要遠得多。但勒莫因事件讓我們意識到,這場關於意識與機器的爭論,從來就不只是一道技術題。它更是一道關於人類自身定義的哲學題,也是一道我們是否已經準備好面對的倫理題。而此刻,我們才剛剛開始理解這道題的題目。 (21世紀關鍵技術)