據環球網援引美國消費者新聞與商業頻道(CNBC)當地時間13日報導,26歲的美國OpenAI公司前研究員蘇奇爾·巴拉吉近期被發現在他位於舊金山的公寓內自殺身亡。
報導稱OpenAI發言人也確認了Balaji的死訊,其在一份電子郵件中表示,得知這一令人震驚的消息後,公司上下非常悲痛。
“已確定(巴拉吉的)死亡方式為自殺,”舊金山首席法醫辦公室執行主任大衛·塞拉諾·休厄爾在一封電子郵件中表示。舊金山警察局也表示,初步調查顯示,“沒有發現謀殺的證據”。
有關巴拉吉的死訊,美國企業家馬斯克在社交平台發出一個“唔”(Hmm)做出評論。
巴拉吉是一名印度裔美國人,曾在加州大學伯克利分校學習電腦科學,大學期間在OpenAI和Scale AI實習,畢業後加入了OpenAI,參與過WebGPT的研發,後來又加入GPT-4的預訓練團隊,o1的推理團隊以及ChatGPT的後訓練團隊。
據快科技報導,巴拉吉在接受採訪時,他表示自己離職是因為意識到這項技術對社會帶來的弊大於利。
他曾表達了對OpenAI在版權法律方面的擔憂,並認為OpenAI的技術可能對社會造成更多的傷害,而其處理版權資料的方式可能對網際網路產生負面影響。
值得注意的是,就在巴拉吉被發現死亡的前一天,即11月25日,他剛剛被列入了一起針對OpenAI的版權訴訟中。
今年6月,數十位OpenAI前員工通過一封公開信再次警告,像OpenAI這樣的人工智慧公司缺乏法律監管和內部批評機制,尤其是對“吹哨人”的保護遠遠不夠。該公開信由十三名 OpenAI 前員工簽名,並得到了包括“人工智慧教父”Geoffrey Hinton 在內的三名外部人員署名支援。
與此前音樂行業、電影演員行業的公開警告類似,公開信強調了AI雙刃劍的屬性:他們相信人工智慧技術可以造福人類,但也看到了風險,比如加劇社會不平等,操縱和捏造資訊。在生成式AI風靡的這兩年,人們已經見到了侵犯版權、深度造假影響政治選舉、AI生成色情圖片等衝突勢不可擋地蔓延至現實生活。
去年7月,OpenAI、Google、微軟、meta、亞馬遜、Anthropic、Inflection曾向拜登政府承諾,願意接受外部第三方的安全測試,並向外界公開測試結果。但這一承諾主要是自願性質,硬性約束仍為空白。
公開信由此指出一個關鍵問題:在缺乏硬性監管的情況下,不能指望公司自願披露AI系統的真實性能、侷限和風險。員工有責任要求公司對AI安全風險負責,但員工正受制於公司的保密協議。
“整個行業發生過類似事件,我們中的一些人有理由擔心各種形式的報復。我們並不是第一個遇到或談論這些問題的人。”公開信暗指的是Ilya Sutskever離職引發的種種風波。半個月前,OpenAI解散了負責安全問題的“超級對齊”團隊,團隊負責人和成員——聯合創始人兼首席科學家Ilya Sutskever、Jan Leike、Gretchen Krueger 紛紛離職。
據媒體報導,離職的原因是OpenAI在優先保證安全還是優先推出產品上有分歧。Jan Leike在社交平台上的發言直接證明了一點,他披露OpenAI曾直接砍掉“超級對齊”部門的算力資源,部門被邊緣化。隨後外媒曝光了OpenAI的離職協議,指出公司禁止離職員工公開批評公司,甚至禁止承認保密協議的存在。
根據美國的《吹哨人保護法》(Whistleblower Protection Act),舉報工資違規、歧視、安全和欺詐等問題的員工受到保護,這意味著公司不能用解僱、降職等方式報復舉報人。但簽署公開信的前員工們稱,AI安全風險問題往往不是非法活動,普通的法律保護措施是不夠的。他們因此呼籲人工智慧公司取消禁止批評的保密協議、建立匿名舉報流程,並建設支援公開批評的公司文化。
公開資料顯示,Google、Meta、亞馬遜、微軟等公司均有成立專門的內部安全團隊,確保公司負責地開發AI系統。目前,OpenAI也已新建了由Sam Altman領導的安全團隊,其首要任務是評估OpenAI的安全流程和政策,由董事會拍板最終方案。不過,安全團隊的三位負責人均在董事會任職,因此外界也質疑其能否真正解決安全隱患。OpenAI員工的舉報信無疑加深了這一擔憂和反思,在沒有硬性監管的約束下,僅靠公司的自我約束能不能給予安全問題足夠重視?需要打上一個問號。 (21世紀經濟報導)