#人機互動
人機互動時代即將到來,我們準備好了嗎?
我們需要考慮人機互動所可能引發的一系列風險。圖片來源:Getty Images/iStockphotoEmma Ruttkamp-Bloem 比勒陀利亞大學教授我們在與機器人互動時面臨的風險,與人際關係中的風險不同——這一點需要我們深思。社會需要對機器人相關概念進行明確定義,因為不同文化對人機互動的接受程度存在很大差異。我們還需要反思社交機器人和具有“道德主體”的潛在AI代理融合所涉及的倫理和風險。許多人珍視與家人和朋友共度時光的記憶,這些記憶塑造了我們的人格,並增強了我們應對世界挑戰的韌性。正是因為我們願意冒險將他人帶入自己的個人空間和內心世界中,才使得這些關係顯得尤為寶貴。今天,我們面臨著這樣的挑戰:我們在與機器人互動時所面臨的風險,會與我們在人際關係中面臨的風險有怎樣的不同?與機器人互動,可能會如何改變我們的記憶?具體來說,我們賦予機器人什麼樣的角色,而這又會如何影響我們的個人成長以及探索世界的方式?在此,我考慮了在人際關係與人機互動之間的差異,並將探討我們所承擔的風險如何在這兩種互動方式中發生變化。這些差異包括例如可能會出現的新的欺騙方式,以及互動的非互惠性。本文的重點並非詳細列舉這些差異,而是突出它們所帶來的主要風險和關注點。對機器人進行明確定義我提出的第一個關鍵觀點是,我們的思考應該以對核心概念的清晰定義為基礎。這樣做的必要性之一,是因為不同文化對人機互動的接受程度差異巨大,最重要的是,這種互動挑戰了我們對“何而為人”的理解。此處,“人機互動”的解讀是基於社交機器人而非工業機器人的語境。社交機器人被理解為具有自主性(或半自主性)的物理機器,它們通過模仿人類的行為和交流方式與人類進行互動和交流。它們可以部署在不同的環境中,包括教育、兒童保育、醫療保健或陪伴,但前提是這種互動總是包含某種形式的人際交流。一類核心的社交機器人是所謂的類人機器人,這些機器人被設計成像人類一樣。這引發了倫理問題以及對技術信任的討論。在某些使用場景中,例如用於精神健康問題的護理機器人和陪伴機器人(特別是性愛機器人),確實存在侵犯人權的風險。此外,將機器人擬人化,即故意設計出人類能夠產生同理心的機器人,也引發了人們的擔憂:雖然“外形上討人喜歡”的機器人在社會環境中實現目標的可能性更高,但僅僅憑藉其外表,它們的使用和與人類的互動可能會產生潛在操縱性的影響。機器人做出道德決定的風險我的第二個觀點是,我們需要關注社交機器人和潛在人工智慧代理與“道德代理”融合所涉及的風險。機器倫理學的爭論不僅在於人工智慧系統是否應該能夠在道德敏感的環境中做出決策,還在於是否應該允許它們產生可能導致直接行動的價值判斷,例如為老年人提供護理的機器人。在這些爭論中,出現了各種來自倫理和人權角度的擔憂。這些問題包括如何尊重和促進人類尊嚴、透明性和問責性等方面的風險。在賦予社交機器人某種形式的個人身份時,尤其是在陪伴機器人的背景下,會出現一系列相關問題。其中一個擔憂是隱私保護不足的風險。如果一台具備機器學習能力的社交機器人儲存了與“它的”人類互動中生成的資料,是否應當以使第三方分享成為可能的方式進行儲存,或是以使機器人發展出“身份”的方式進行儲存?隨著機器人技術與更具“主體性”的AI融合,這些擔憂可能會加劇。作為人類意味著什麼?我的第三個觀點聚焦於“何而為人”這一概念本身。 與機器人的社互動動會影響人類如何定義自己嗎?這是好事還是壞事?它最終會促成“溫和奇點”的出現嗎?像OpenAI 首席執行官Sam Altman最近寫道的那樣,“溫和奇點”指的是人工智慧帶來的科學進步將極大地提高人類的生活質量和生產力。一系列相關問題圍繞著我們是否應當保護我們目前所理解的“人類意味著什麼”這一問題展開。這些問題指向了深刻且歷久彌新的哲學難題,而這些問題如今比以往任何時候都更加值得關注。反思以確保繁榮如果人類想要與機器人和人工智慧等新興技術共同繁榮發展,那麼思考人際互動與人機互動的風險差異至關重要。雖然由於當前技術和經濟方面的限制,社交機器人的全球普及可能還遙不可及,但我們應當早已從經驗中學到,負責任地參與新興技術不僅僅是確保政策制定跟上其發展的步伐,還在於確保自身能夠自下而上、穩健且具有前瞻性地參與該技術。這反過來又會自動為其監管和治理提供依據。理解並應對人機互動帶來的風險,是實現這種自下而上的參與的第一步。 (世界經濟論壇)