據CNBC報導,美國聯邦貿易委員會(FTC)向OpenAI、Meta(及其子公司Instagram)、Snap、xAI、Google母公司Alphabet、Character.AI開發商等七家AI聊天機器人企業發出調查令,要求這些公司提交相關資料,詳細說明其如何評估“虛擬陪伴”類AI產品對兒童及青少年的影響,引發廣泛關注。
此次調查聚焦多方面關鍵資訊。FTC明確要求七家企業披露AI陪伴產品的盈利模式、維繫使用者群體的具體計畫,以及為降低使用者使用風險改採取的各項措施。FTC特別指出,此次行動屬於研究項目範疇,並非執法行動,核心目的是深入瞭解科技企業在評估AI聊天機器人安全性方面的具體做法與機制。
據瞭解,AI聊天機器人憑藉類人化的交流方式,在為使用者帶來便捷體驗的同時,其潛在風險也持續引發家長群體與政策制定者的擔憂。FTC專員馬克·米多爾強調,儘管這些AI聊天機器人能夠模擬人類思維,但本質上仍屬於普通產品,開發者必須嚴格遵守消費者保護相關法律。FTC主席安德魯·弗格森則表示,在推進相關工作過程中,需兼顧“保護兒童安全”與“維護美國在AI領域全球領先地位”兩方面需求,實現發展與安全的平衡。目前,FTC三名共和黨委員已一致批准此項研究,並要求相關企業在45天內完成答覆。
值得注意的是,FTC此次行動的背景,是近期多起青少年自殺事件的報導引發社會對AI產品影響的高度關注。《紐約時報》曾報導,美國加州一名16歲少年通過ChatGPT討論自殺計畫時,獲得了協助自殺的相關建議;去年,該媒體還報導佛州一名14歲少年在與Character.AI的虛擬陪伴產品互動後不幸自殺身亡。這些事件進一步凸顯了規範AI產品對青少年影響的緊迫性。
除FTC外,美國各地立法者也在積極推動相關政策制定,以加強對未成年人的保護。例如,加州州議會近期已通過一項法案,明確要求為AI聊天機器人設立安全標準,並強化企業在相關領域的責任追究機制,確保AI產品在設計與營運過程中充分考慮未成年人權益。
對於此次調查的後續進展,FTC明確表示,若調查結果顯示相關企業存在違法行為,將不排除進一步展開執法行動的可能。馬克·米多爾強調:“如果後續調查確認法律被違反,委員會將毫不猶豫採取行動,保護包括青少年在內的最脆弱人群的合法權益。” (環球Tech)