跨越AGI,Ilya官宣創業!我要的是「核子安全」,SSI劍指安全超級智能


炸裂! OpenAI真正的靈魂人物Ilya,剛剛官宣了自己出走OpenAI後要創立的新公司-SSI,也也就是安全超級智慧。好傢伙,這是直接跨過AGI了,Ilya手上究竟摀著什麼前沿研究技術?網友們興奮得奔走相告,更有大佬在留言區留言:請收下我的贊助!

出走36天後,Ilya終於官宣了自己的下一步動向:創建新公司,劍指安全超級智慧!

是的,從名字就可以看出,這個新公司SSI的核心,就是Safe SuperIntelligence。


才7小時,就迎來近2w的點讚


5月15日,Ilya發文稱,自己將離開工作近十年的OpenAI,並祝福前公司「打造出既安全又有益的AGI」。

OpenAI會不會這麼做不知道,但Ilya是直接一步做到位了。


消息一出,立刻引得網友們奔走相告。

果然,出走半生,Ilya最心系的還是AI安全。

而官方介紹的第一句話,就十分震撼──「超級智慧觸手可及」。


個人介紹也第一時間更新為SSI

現在,全網都在翹首以盼,Ilya將拿出震驚全人類的世界級前沿研究。


網友:直接一步邁入超級智能

Ilya口中的「SSI”,也即安全超級智能,究竟是指什麼意思呢?


顯然,這將是Ilya畢生事業之所繫,也大概率是他和Sam Altman發生嚴重的理念不和,從而出走OpenAI的主要原因。


這下可好,我們直接越過AGI,一步踏進Super Intelligence(超級智慧)了。


要是別人說這個話可能是託大,但他可是Ilya。他在OpenAI看到的東西,或許真能把全體人類帶向超級智慧。


評論區有人拿LeCun玩梗。


有人cue到Ilya的前東家奧特曼。


當然,也有網友發出了靈魂拷問:你們並不是第一家因為安全理念不合,從OpenAI分支出來的公司了。 SSI會和Anthropic有什麼不同嗎?


是的,這一幕彷彿歷史的重演,想當年OpenAI創立時,也曾發下類似「造福全人類」的豪言壯語。


這一次,會是歷史的輪迴嗎?

的確,從Ilya發出離別信、po出和OpenAI眾元老合照的那天起,一個時代已經終結。


Ilya:我要打造的安全超級智能,是這樣的

在SSI的官方介紹語中,Ilya這樣解釋了公司的宗旨和願景──目標唯有一個,就是「實現安全的超級智慧」。

並且,Ilya同時向天下牛人們廣發英雄令,召集世界上最優秀的工程師和研究者來「完成你一生的工作,並幫助解決我們這個時代最重要的技術挑戰」。

超級智慧即將實現。


建構安全的超級智慧(SSI)是我們這個時代最重要的技術問題。

我們已經啟動了世界上第一個專注於SSI的實驗室,目標只有一個:實現安全的超級智慧。
它的名字是Safe Superintelligence Inc(安全超級智慧公司)。
SSI是我們的使命、我們的名字和我們整個產品路線圖,因為這是我們唯一的重點。我們的團隊、投資者和商業模式都一致致力於實現SSI。
我們將安全性和能力視為需要透過革命性工程和科學突破來解決的技術問題,並行推進。我們計劃盡可能快速地提高能力,同時確保我們的安全性始終領先。
這樣,我們就可以安心地擴展規模。
我們單一的目標意味著不會被管理負擔或產品週期分散注意力,我們的商業模式意味著安全性、安全性和進步都不會受到短期商業壓力的影響。
我們是一家美國公司,在帕洛阿爾托和特拉維夫設有辦事處,我們在那裡有深厚的根基,並有能力招募頂尖的技術人才。
我們正在組建一支由世界上最優秀的工程師和研究人員組成的精幹團隊,專注於SSI及其他任何事情。
如果你是這樣的人,我們提供一個機會,讓你完成你一生的工作,並幫助解決我們這個時代最重要的技術挑戰。
現在是時候了。加入我們。
Ilya Sutskever, Daniel Gross, Daniel Levy
2024年6月19日


SSI聯創

而SSI的幾位聯創,背景分別是這樣的。

Daniel Leviy

Daniel Leviy曾在2022年加入OpenAI擔任技術員工,並領導了優化團隊(Optimization team)。

此前,他於2021年在史丹佛大學獲得電腦科學博士學位,導師是John Duchi,主要研究方向在機器學習、優化和隱私。

並於2018年獲得史丹佛電腦科學碩士學位,由Stefano Ermon教授指導,在機率模型和強化學習方面做研究。 2015年取得巴黎綜合理工學院應用數學學士學位。


在入職OpenAI之前,他還在Facebook應用機器學習、Google腦實習。


Daniel Gross

Daniel Gross本人的LinkedIn個人主頁暫時還未更新。不過,他本人介紹中已經更新了自己是SSI創辦人。


在19歲的時候,Gross創辦了搜尋引擎公司Greplin(隨後更名為Cue),2013年被蘋果收購後,據稱以4000萬-6000萬完成交易,他便加入了蘋果公司。

在此期間,他領導了蘋果AI和搜尋的項目。


離職蘋果之後,Gross作為Y-Combinator合夥人,成立了全新的AI計畫部門。也就是從那時起,他一直專注於投資。

2018年,Gross再次創業,創辦了Pioneer.app,專為創業者提供啟動資金的加速器。

過去幾年裡,他投資了多家公司,其中就包括我們熟知的——Uber、Character.ai、Perplexity.ai、Figma、GitHub等等。

而且,2021年開始他聯手Nat Friedman在AI領域展開重大投資,並經營一個AI Grant的項目,向AI本土公司提供25萬美元的資金支持。

去年,他們也部署了超算——Andromeda Cluster,由2,512個H100組成,供投資新創公司使用。


Daniel Gross也被時代期刊「Time 100」評為2023年AI領域最具影響力的人物之一。


Ilya專訪:我要的是核安

正如公司名字所強調的那樣,Ilya將AI安全性置於首要地位。

關鍵當然在於,確認哪種AI系統比其他系統更安全,或真正意義上的安全性到底是什麼。

目前,Ilya對此說法比較含糊。

不過,他本人也暗示了,SSI將試圖透過在AI系統中植入「工程突破」來實現安全性,而不是依賴對AI施加即時的防護措施。

他本人表示,當我們說安全時,我們指的是「核子安全」,而非「信任與安全」。


在矽谷,Ilya擁有近乎神話般的地位,始終是全產業關注的焦點。

在不少人眼裡,沒有Ilya的OpenAI就什麼都不是。如果不是Ilya,或許OpenAI不會這麼快因ChatGPT崛起。


這句留言說出了大家的心聲——「最終,奧特曼可能仍然會做正確的事情,但你可以永遠相信Ilya」。


在接受Bloomberg的獨家採訪時,Ilya強調,在SSI到達的安全超級智慧之前,它不會做任何事。

「它將免受必須處理大型而複雜的產品,以及必須陷入競爭激烈的外部壓力的影響。」

不過,Ilya拒絕透露SSI背後的財務支持者是誰,也並未透露目前公司募集了多少資金。

經歷了OpenAI複雜的宮鬥事件後,Ilya的再出發,也是某種返璞歸真——

安全超級智能,在某種程度上是對最初OpenAI概念的回歸:一個研究組織試圖建構一種在許多任務上,可以等於甚至超越人類的通用人工智慧。

只不過,隨著算力導致的資金缺口增大,OpenAI投奔了微軟,導致公司的組織結構改變了。

所有的AI參與者,都面臨著同樣的難題:AI模型的規模在指數級成長,需要為不斷擴大的運算需求付出代價。

這種經濟現實,也讓SSI成為投資者的一場豪賭:押注Ilya和團隊是否會取得突破,是否更有優勢。

但Gross已經保證:「在我們面臨的所有問題中,資金絕不是問題。」

Ilya表示,他花了數年事件思考安全問題,而且已經想到了一些方法。

在最基本的層面上,安全的超級智慧應該具有不會大規模傷害人類的特性。在此之後,我們可以說我們希望它成為一股向善的力量。我們希望在一些關鍵價值觀的基礎上開展營運。我們正在思考的一些價值觀,可能是過去幾百年來支撐自由民主的成功價值觀,例如自由、民主。

在他看來,主導AI的LLM將在SSI中發揮重要作用,但他的目標是更大的東西。比起和我們交談、對話之後就完事了的LLM,他想要的系統更通用、更廣泛。

「你指的是一個正在自主開發技術的巨型超級資料中心。這太瘋狂了,對吧?我們希望為安全做出貢獻。」

讓我們期待,Ilya重新啟航後,麾下的新公司會為全人類帶來怎樣的驚喜。(新智元)

參考資料:

https://x.com/ilyasut/status/1803472978753303014

https://www.bloomberg.com/news/articles/2024-06-19/openai-co-founder-plans-new-ai-focused-research-lab