“AI可能滅絕人類,堪比核戰爭!” 超350位大佬聯名發聲

“電影《終結者》中的情境會不會發生?”



NVIDIA輝達(英偉達)市值一度超過萬億美元,AI風頭正盛的背後,公眾的擔憂也越來越多,科技圈再次流出了一封重磅公開信。

當地時間5月30日,非營利組織“人工智能安全中心”(Center for AI Safety)在其官網發布一封聯名公開信,稱AI這一堪比“疫情和核戰爭”的技術或對人類構成生存威脅。



整個聲明只有一句話,22個單詞:

“減輕人工智能帶來的滅絕風險,應該與大流行病和核戰爭等其他社會規模的風險級別一樣,成為一個全球性的優先事項。”

拜登政府近幾個月表示,人工智能對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。




OpenAI創始人領銜,超350位AI大佬簽名

目前已有超350位AI大佬簽署了上述聯名公開信,包括OpenAI首席執行官Sam Altman、谷歌DeepMind首席執行官Demis Hassabis和Anthropic首席執行官Dario Amode三大AI公司掌門人等。



圖靈獎獲得者、被譽為人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也赫然在列。

名單裡也不乏中國學者的身影,包括中國工程院院士、清華大學智能產業研究院(AIR)院長張亞勤,中國科學院自動化研究所人工智能倫理與治理研究中心主任曾毅,清華大學副教授詹仙園。

其他簽署人還包括微軟首席技術官Kevin Scott,前聯合國裁軍事務高級代表Angela Kane,Skype聯合創始人Jaan Tallinn,Quora首席執行官Adam D'Angelo。

他們表示,雖然公眾一直在承認人工智能的風險,但還有更多挑戰需要討論。他們還想“為越來越多的專家和公眾人物創造共同知識,他們也認真對待先進人工智能領域存在的一些最嚴重的風險”。

值得一提的是,目前,微軟創始人比爾·蓋茨沒有簽署這一聯名信。



“危險!立刻停下所有大型AI研究”

自去年ChatGPT發布以來,科技行業掀起了一場競爭激烈的AI競賽,同時也引發公眾對於這項未知技術的恐懼。

今年3月份,Bengio、馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI創始人Emad Mostaque等科技大佬發表聯名公開信,呼籲暫停比GPT-4更強大的人工智能係統的訓練,暫停時間至少為6個月。

公開信強調了AI在迅猛發展,但卻沒有對其進行相應的規劃和管理:

“最近幾個月人工智能實驗室掀起AI狂潮,它們瘋狂地開展AI競賽,開發和部署越來越強大的AI。

不幸的是,目前為止,沒有任何人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。”

信中提到,如今人工智能在一般任務上變得與人類一樣有競爭力,我們必須問自己:

“是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?

是否應該冒著失去對人類文明控制的風險?

答案是否定的,公開信指出,只有當我們確信強大的AI系統的效果是積極的,其風險是可控的,才應該開發。

因此,公開信呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能係統的訓練,時間至少持續6個月。

“我們應該從危險的競賽中退後一步,……讓如今最強大的模型更加準確、安全

讓我們享受一個漫長的人工智能夏天,而不是毫無準備地匆忙進入秋天。”



AI教父:痛悔畢生工作,無法阻止人類AI大戰

5月初,深度學習泰斗、人工智能教父Geoffrey Hinton突然宣布離職谷歌,終於可以暢所欲言地談論AI的風險了。



正是對人工智能風險深深地擔憂,讓這位深度學習巨佬直言:“我對自己的畢生工作,感到非常後悔。”

在媒體報導中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險!

在一次採訪中,Hinton表示“我們幾乎已經讓學會計算機如何自我改進了,這很危險,我們必須認真考慮,如何控制它。

他曾指出,谷歌和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽。如果沒有某種全球性的監管,這場競賽將不會停止!

他表示自己很擔憂,GPT-4迭代會對人類構成威脅,強AI從大量數據中能夠學到意想不到的行為。

他擔心有一天真正的自主武器ーー那些殺人機器人ーー會成為現實。


圖片來自《西部世界》


上世紀80年代,Hinton曾是卡內基梅隆大學的計算機科學教授,但因為不願接受五角大樓的資助,他選擇了離開CMU,前往加拿大。當時,Hinton強烈反對在戰場上使用AI,他將其稱為「機器人士兵」。

從人工智能的開創者到末日預言者,Hinton的轉變,也許標誌著科技行業正處於幾十年來最重要的一個拐點。(華爾街見聞)