#Altman
OpenAI奧特曼黑料大起底,他憑什麼捏死普通人的未來?
矽谷從不相信聖人,只相信商業贏家,而山姆·奧特曼(Sam Altman)顯然深諳此道。在公眾面前,他是那個憂心忡忡警告AI可能毀滅人類的技術救世主;但在幕後,他卻被眾多共事者描繪成一個為達目的不擇手段的冷酷操盤手。《紐約客》雜誌耗時數月,對100多位直接瞭解奧特曼行事風格的身邊人進行了深度訪談。這些現任高管、前任骨幹乃至曾經的至交好友,拼湊出了一個極其割裂的真實畫像:他擁有近乎洗腦般的強大說服力,卻也極度漠視欺騙他人所帶來的後果,還操縱身邊最親近的人。2013年自殺身亡的天才程式設計師亞倫·斯沃茨(Aaron Swartz)在去世前曾向朋友警告過奧特曼。他說:“你需要明白,山姆永遠不能信任。他是個反社會者。他什麼事都做得出來。”十幾年後,OpenAI的前董事會成員、公司高管、微軟的高級主管,甚至曾經和奧特曼一起創業的夥伴,都在重複類似的判斷。一位董事會成員說得非常直接:“他不受真相的約束。他有兩種幾乎從未在同一個人身上見過的特質:第一是強烈的取悅他人的願望,在任何互動中都希望被喜歡;第二是近乎反社會般地漠視欺騙某人可能帶來的後果。”從十多年前被同行指控為不可信任,到如今將微軟等資本巨頭玩弄於股掌之間,究竟是怎樣的商業邏輯,才讓這樣一個極其危險的人握住了通往未來的最高權力?“我跟蹤了伊利亞”:天才科學家是如何被拉攏的OpenAI的起點並不像外界想的那麼光鮮。2015年,奧特曼和埃隆·馬斯克(Elon Musk)等人一起創立了這個非營利組織。他們的口號是:人工智慧可能是人類歷史上最危險的技術,所以不能讓Google這樣的商業公司獨大。OpenAI的章程明確寫著,董事會的責任是把人類安全放在公司利益之上。但問題從一開始就出現了:誰來執行這個承諾?奧特曼不是技術天才。他身邊的人都說,他缺乏編碼或機器學習方面的專業知識,甚至經常用錯基本技術術語。他的核心手腕在於極強的說服力。他當年最大的招聘目標是伊利亞·蘇茨克維(Ilya Sutskever),一位被稱為同代最有天賦的人工智慧科學家。蘇茨克維當時在Google,年薪高達600萬美元,OpenAI根本無力匹配。但奧特曼用話術洗腦,稱Google不幸的是沒有把“做正確的事”放在第一位。他後來甚至開玩笑說:“我跟蹤了伊利亞。”另一個目標是達里歐·阿莫代伊(Dario Amodei),一位頂尖的生物物理學家。奧特曼約他在印度餐廳吃晚飯,甚至故意發簡訊說“我的優步出車禍了,晚到十分鐘”,以換取阿莫代伊“希望你沒事”的同情回覆。在飯桌上,奧特曼極力附和阿莫代伊對人工智慧安全問題的擔憂,成功讓他深信這是一家專注於安全的人工智慧實驗室。正如網友(@nkulw)在看完《紐約客》長文後一針見血的評論:“這篇文章最讓人有共鳴的地方在於,它揭露了人工智慧領域高層追逐利益、謊話連篇的真面目。當十億美元擺在眼前時,幾乎沒有人堅守原則,因為他們的原則本來就很薄弱。”阿莫代伊後來花了幾年時間,詳細記錄了奧特曼的種種行為,標題就叫《我在OpenAI的經歷》,副標題標註為“私人:請勿分享”。這些超過兩百頁的筆記此前從未公開。他在裡面寫道,奧特曼的目標是建立一個“專注於安全的人工智慧實驗室”,但這或許只是一個幌子。很快,阿莫代伊就發現事情遠沒有那麼簡單。“他的話幾乎肯定是胡說八道”:安全承諾如何被一步步架空2017年,OpenAI內部開始探討轉型為營利性公司的可能。馬斯克想要多數控制權,奧特曼則堅持首席執行長的位置應該歸他。蘇茨克維給兩人發了一封長郵件,主題是“誠實的想法”。他寫道:“OpenAI的目標是讓未來變得美好,並避免AGI獨裁。所以,建立一個你可能成為獨裁者的結構是個壞主意。”馬斯克最終憤而離開。2023年,他正式起訴奧特曼和OpenAI欺詐,直言自己被“精心操縱”了。該訴訟目前仍在進行中。馬斯克走後,奧特曼順利成為首席執行長。但他開始向公司不同派系開出相互矛盾的空頭支票。他向部分研究人員保證會削弱總裁格雷格·布羅克曼(Greg Brockman)的管理權力,同時又和布羅克曼、蘇茨克維達成了秘密協議:只要另外兩人認為必要,他就主動辭職。布羅克曼後來承認這個協議存在,但辯稱是非正式的,還試圖粉飾奧特曼是“純粹的利他主義”。2019年,OpenAI與微軟洽談一筆十億美元的重磅投資。負責安全團隊的阿莫代伊向奧特曼提交了一份按重要性排序的安全要求清單,最核心的一條是“保留合併與協助條款”。該條款規定,如果別的安全項目率先跑通通用人工智慧,OpenAI必須停止競爭,轉而協助對方。按照正常的商業邏輯,這簡直是天方夜譚,但OpenAI在公眾視野裡本就不該是一家只顧利益的正常公司。奧特曼滿口答應。但在交易即將敲定時,阿莫代伊驚覺合同裡被暗中加入了一項條款,賦予了微軟阻止OpenAI進行任何合併的絕對權力。他找奧特曼當面對質,奧特曼卻矢口否認。阿莫代伊當場把條款逐字讀出來,指著白紙黑字,最後不得不找來另一位同事向奧特曼強行確認該條款的真實存在。阿莫代伊在筆記裡絕望地寫道:“OpenAI的問題就是山姆本人。”2020年,徹底心灰意冷的阿莫代伊帶領幾位核心同事離開OpenAI,創立了Anthropic,如今已成為OpenAI最致命的競爭對手之一。類似的戲碼在接下來的幾年裡反覆重演。2022年底,一位加州大學伯克利分校的博士生因為對AI安全問題深感憂慮,收到了奧特曼的招募郵件。奧特曼在信中聲稱自己極度擔心“未對齊的人工智慧”帶來的威脅,打算投入十億美元設立專項獎金,鼓勵全球學者研究此課題。這位博士生雖然“聽說過關於山姆極其圓滑的模糊謠言”,但最終還是被這套願景打動,請假加入了OpenAI。然而僅僅幾個月後,奧特曼對那個十億美元獎金絕口不提。他轉而主張成立一個內部的“超級對齊團隊”,承諾將撥給該團隊公司計算資源的20%,其實際價值遠超十億美元。官方公告甚至聳人聽聞地表示,如果對齊問題得不到解決,通用人工智慧將導致人類失去控制權甚至面臨滅絕。但殘酷的現實是,四位在該團隊工作的核心人士透露,分給他們的算力資源僅佔公司的百分之一到二。而且這些所謂的資源,大多被分配在最老舊、晶片性能最差的叢集上,真正頂級的硬體全被抽調給了那些能快速變現的賺錢業務。在被徹底架空後,該團隊於次年黯然解散,所謂的安全使命徹底淪為一句口號。“他歪曲、扭曲、重新談判、背棄協議”:連微軟都受不了了奧特曼的商業手腕不僅讓內部人士膽寒,也讓外部資本巨頭如履薄冰。微軟向OpenAI累計投入了約130億美元,是其絕對的最大金主。但多位微軟高級主管透露,儘管首席執行長薩提亞·納德拉(Satya Nadella)一直極其克制地履行投資義務,但雙方的信任基礎已岌岌可危。一位微軟高管在接受《紐約客》採訪時毫不留情地控訴:“奧特曼無時無刻不在歪曲、扭曲事實,隨時準備重新談判並背棄既定協議。”今年早些時候,OpenAI剛剛向微軟重申其作為“無狀態”模型獨家雲提供商的地位。但就在同一天,它轉頭就宣佈與亞馬遜達成一筆高達五百億美元的交易,授權亞馬遜成為其企業AI智能體平台的獨家經銷商。微軟高層認為這公然違背了此前的排他性協議,甚至明確表示願意就此對簿公堂。這位高管更是下了一個極其嚴重的論斷:“我認為奧特曼最終將被歷史定性為伯尼·麥道夫(Bernie Madoff)或薩姆·班克曼-弗裡德(Sam Bankman-Fried)那個等級的驚天騙子,雖然現在看來可能性很小,但這絕對是真實存在的隱患。”感到後怕的不只是微軟。一位曾和奧特曼共事過的科技巨頭高管直言:“他擁有著令人毛骨悚然的說服力,就像施展了絕地心靈控制術一樣,完全不在常人的道德邏輯層次裡。”有網友(@krishnanrohit)對此提出了一個極其尖銳的邏輯漏洞:如果大家都覺得他不可信,那為什麼在他被短暫解僱後,OpenAI團隊近99%的員工都以辭職相要挾,極力要求他回歸?這難道不是他深得人心的鐵證嗎?這個問題確實擊中了核心。讓我們把時間撥回2023年秋天,看看OpenAI的董事會究竟為何決定動手。“我覺得山姆不是那個應該把手指放在按鈕上的人”2023年11月,奧特曼正悠閒地在拉斯維加斯觀看F1賽車比賽。突然,他接到了一個毫無徵兆的視訊通話,蘇茨克維代表董事會冷冰冰地宣讀了一份簡短聲明:他被正式開除了。董事會在隨後發佈的公開聲明中,極其克制地表示奧特曼被免職是因為“在與董事會的溝通中未能始終如一地保持坦誠”。但這背後的深層博弈遠比幾句公關辭令要血腥得多。在爆發的前幾個月裡,蘇茨克維已開始秘密向董事會其他成員傳送預警備忘錄。他敏銳地察覺到OpenAI距離真正實現通用人工智慧已經越來越近,而他對奧特曼掌控這種終極力量的恐懼也隨之到達了頂峰。他曾極其嚴肅地對一位董事會成員說:“我認為山姆絕不是那個應該把手指放在發射按鈕上的人。”為了扳倒奧特曼,蘇茨克維和信任的同事暗中蒐集了長達70頁的內部聊天記錄與人力資原始檔。為了防止在公司監控系統中留下痕跡,他們甚至採用最原始的手機拍照方式取證,並通過“閱後即焚”的軟體向其他董事會成員傳送材料。一位收到備忘錄的成員事後回憶稱:“他當時徹底嚇壞了。”這些備忘錄字字見血,詳細指控了奧特曼如何向高管和董事會成員長期歪曲事實,並在內部安全協議上瘋狂做手腳。其中一份備忘錄開篇就寫著“山姆表現出了一貫的模式”,而排在第一項的罪名,正是“撒謊”。解僱消息猶如一顆核彈,瞬間引爆了整個矽谷。作為最大金主的微軟表示自己完全被蒙在鼓裡。納德拉用“非常震驚”來形容當時的感受,並表示根本無法從任何人那裡得到那怕一句真實的解釋。OpenAI的早期投資者、領英聯合創始人裡德·霍夫曼(Reid Hoffman)甚至開始四處打探奧特曼是否捲入了貪腐或性騷擾等明確的刑事犯罪。他事後爆粗口回憶道:“我他媽根本不知道發生了什麼,我們試圖尋找貪污或性醜聞的實錘,但什麼也沒找到。”遭遇罷免的奧特曼當天立刻飛回舊金山那套價值2700萬美元的豪宅,迅速組建了自己的“流亡指揮部”。他的死忠盟友、愛彼迎聯合創始人布萊恩·切斯基(Brian Chesky),以及矽谷以手段極其凶狠著稱的危機公關大師克里斯·萊恩(Chris Lehane)火速入局。一個豪華的律師團直接在他臥室旁的家庭辦公室裡安營紮寨,開始策劃絕地反擊。解僱事件發酵僅幾小時後,即將敲定一筆天價投資的風險投資公司Thrive果斷按下了暫停鍵,並在資本層面強硬施壓,暗示只有奧特曼官復原職,真金白銀才會到帳。緊接著,微軟高調宣佈將為奧特曼及任何願意出走的OpenAI員工設立一個直接競爭的全新項目。與此同時,一封要求奧特曼回歸的聯名公開信在公司內部瘋狂流傳,在利益與資本的雙重裹挾下,絕大多數員工都簽下了自己的名字。僅僅五天之後,一場兵不血刃的政變宣告成功,奧特曼強勢復職。而曾經試圖將他趕下台的董事會成員蘇茨克維、海倫·托納(Helen Toner)和塔莎·麥考利(Tasha McCauley)則被毫不留情地清洗出局。作為妥協的離職條件,他們要求必須對針對奧特曼的指控進行徹底調查,包括他惡意挑撥高管關係以及隱瞞深層財務糾葛等劣跡,並要求重組一個能獨立進行監督的新董事會。然而,極具諷刺意味的是,新洗牌進來的兩位核心成員——前哈佛大學校長勞倫斯·薩默斯(Lawrence Summers)和前Facebook首席技術官佈雷特·泰勒(Bret Taylor),完全是在與奧特曼進行了極其深度的利益互換後才敲定的。麥考利後來在作證時無奈地表示,她早就看穿了泰勒對奧特曼唯命是從的底色。如今,OpenAI的員工們私下裡將這段歷史戲稱為“滅霸的響指(the Blip)”。在漫威宇宙裡,這意味著角色短暫消失後,又毫髮無損地回到了原點,一切舊秩序照常運轉。網友(@MattZeitlin)敏銳地指出了這場鬧劇背後更深層的悲哀:“如果那些聲稱要打造超級智能的頂級大腦,在現實中卻總是被聰明、野心勃勃卻謊話連篇的奧特曼當猴耍,我們又憑什麼相信他們能駕馭並對齊未來的超級智能?”“他太沉迷於自己的自信了”:調查結果根本不敢形諸文字重掌大權後,奧特曼假惺惺地同意對這場“近期風波”進行所謂的獨立審查。OpenAI高調聘請了曾負責安然和世通等世紀大案內部調查的頂尖律所WilmerHale來操刀此事。但據六位元深度接觸該調查的人士爆料,這場審查從一開始就被人為切斷了所有的透明度。調查人員甚至故意避開聯絡公司內部的關鍵知情人士。一名員工在試圖主動向薩默斯和泰勒提供線索時絕望地發現,調查組只對“董事會內鬥的皮毛”感興趣,而對奧特曼長期的誠信污點選擇性失明。更多的知情人則因為缺乏最基本的匿名保護機制,而徹底放棄了發聲。一位內部員工給出了極其一針見血的定性:“所有的流程都在為一個早已內定好的結果服務,那就是宣告他無罪。”2024年3月,OpenAI官宣奧特曼徹底洗清嫌疑,但詭異的是,公司拒絕公佈任何書面調查報告。官方網站上只掛了一篇不痛不癢的八百字聲明,含糊其辭地承認內部存在“信任破裂”。參與調查的核心人員事後吐露了極其魔幻的真相:之所以沒有發佈書面報告,是因為他們根本就沒敢留下任何文字記錄,所有的調查結果僅僅以口頭形式草草匯報。接近調查的人士隱晦地指出,審查從未得出“山姆是誠信典範”的結論。但這場調查的底層邏輯早就被偷換了:他們不去查誠信問題,而是把所有精力耗在尋找明確的經濟犯罪實錘上。既然查無此證,結論自然就是他可以繼續穩坐釣魚台。面對這種黑箱操作,許多現任和前任員工感到了極度的三觀震碎。奧特曼對外堅稱,他確信所有新進董事會成員都完整聽取了口頭匯報。但一位知情人士直接撕破了偽裝:“這絕對是徹頭徹尾的謊言。”一些良知未泯的董事會成員甚至私下警告,關於調查報告誠信度的持續發酵,極有可能引發新一輪的災難性複查。在一眾控訴中,前董事會成員蘇·尹(Sue Yoon)給出的側寫最為發人深省。她認為奧特曼與其說是一個“口蜜腹劍的惡棍”,不如說是一個徹底被自我編織的神話所催眠的狂徒。他的所作所為如果放在正常的現實商業邏輯中,簡直荒謬絕倫。但他早已脫離了現實世界,他活在一個只有算力、資本與強權主導的絕對真空裡。“他不受真相的約束”:從食人族孤島到兆帝國保羅·格雷厄姆(Paul Graham)作為Y Combinator的掌門人,也是奧特曼發跡早期的重要精神導師。早在2008年奧特曼只有23歲時,格雷厄姆就為他寫下過一句極具前瞻性的判詞,這句話後來在矽谷被奉為經典:“你可以把他空降到滿是食人族的荒島上,五年後再回去看,他絕對已經成了那裡的國王。”一位網友在重溫這句評語後冷漠地跟帖稱:既然他連食人族都能搞定,那你就不該對他如今為了贏而不擇手段的吃相感到驚訝。在當年,格雷厄姆的本意是極高的商業讚美。但歷經十餘年的殘酷洗禮後,那些真正領教過奧特曼手腕的至親同事們,對這句話早已有了令人不寒而慄的全新解讀。不可迴避的是,奧特曼身上還背負著更為私密的倫理指控。他曾被親生妹妹安妮(Anne Altman)在一項民事訴訟中控告,稱其從她3歲、他12歲起,便開始對其進行長期的反覆性虐待。儘管奧特曼本人、他的母親以及他的兄弟對此全盤否認,但這無疑為他的道德底色蒙上了一層濃重的陰影。此外,極其惡劣的場外傳聞始終如影隨形。右翼名嘴塔克·卡爾森(Tucker Carlson)曾在毫無實證的情況下,在節目中公然暗示奧特曼與一名關鍵告密者的離奇死亡有著千絲萬縷的聯絡。在各大競爭對手的辦公室和頂級風投的內部局上,多位知情人士更是毫不避諱地暗示奧特曼在私生活上有著追逐未成年人的變態嗜好,這一說法在矽谷的私密圈層裡早已是公開的秘密。但嚴謹的《紐約客》編輯部耗時數月,進行了多達幾十次的深度背景調查,最終未能找到能夠支撐這一說法的實質性證據。面對這些驚天指控,奧特曼的公關回應滴水不漏:“這純粹是競爭對手毫無底線的抹黑。任何關於我與未成年人發生性關係、僱傭性工作者或參與謀殺的指控,都是百分之百的捏造。”在採訪末尾,他甚至極其圓滑地補充了一句,說自己“有點感激”雜誌社耗費如此巨大的精力“來幫他自證清白”。奧特曼大方承認自己目前的約會對像是達到法定年齡的年輕男性,而幾位與他交往過的人士也出面背書,表示這種關係沒有任何強迫與不妥。正如資深科技女戰神卡拉·斯威舍(Kara Swisher)極其辛辣的點評:“矽谷這幫掌握著天量財富的科技巨頭們私下裡玩得有多髒,遠比我聽說的關於山姆的這些花邊新聞要惡劣一百倍。只不過他恰好是一個身處舊金山的同性戀者,所以這種私人取向被對手極度武器化了而已。”“我不在乎錢,我更在乎權力”在一次極其引人注目的國會聽證會上,奧特曼曾被議員當面質問是否靠AI攫取了巨額財富。他給出的回答堪稱完美:“我在OpenAI沒有持有那怕一股股權。我做AI,純粹是因為我熱愛它。”在法律層面上,這句話至今挑不出毛病。但多位熟知內情的人士(甚至包括奧特曼的心腹)暗示,這種為了維持“聖人”人設的股權隔離,很快就會隨著資本運作被徹底打破。根據最新的法律檔案披露,總裁布羅克曼已經變相持有了公司價值約兩百億美元的巨額股份,以此類推,作為絕對核心的奧特曼,其暗中鎖定的利益份額只會是一個更加恐怖的天文數字。一位曾與他並肩作戰的前員工,向媒體拋出了奧特曼私下裡說過的一句極其可怕的真心話:“我從來不在乎錢,我真正在乎的,是凌駕於一切之上的權力。”事實正是如此。2024年,OpenAI以摧枯拉朽之勢完成了人類歷史上最大的一輪私人融資,狂攬超過1200億美元的資本彈藥。據華爾街可靠消息證實,它正在全速衝刺首次公開募股(IPO),其潛在估值劍指一兆美元。在資本狂歡的同時,奧特曼正以一種近乎瘋狂的節奏,在全球範圍內大肆圈地,瘋狂建設著海量的人工智慧基礎設施。他盯上的超級金主之一是阿聯,其背靠的AI巨頭G42手中握有高達1.5兆美元的恐怖主權財富。不僅如此,奧特曼還拋出了一個名為ChipCo的驚天計畫,企圖從海灣國家強行抽取數百億美元的巨資,在美國和中東腹地打造壟斷級的晶片代工廠與算力資料中心。就在川普重返白宮的第二天,奧特曼便迫不及待地站在羅斯福廳,高調宣佈了極其激進的“星門計畫”(Stargate)。這個耗資五千億美元的龐大合資怪獸,誓要將美國徹底改造成一個AI軍事化堡壘。回想OpenAI成立之初,對全人類做出的最鄭重承諾便是“絕對安全地實現人工智慧”。但時至今日,這種曾經被視為最高底線的安全擔憂,早已淪為矽谷資本家和華盛頓政客酒桌上的無聊笑料。2025年,副總統J·D·范斯(JD Vance)在巴黎的一場頂級人工智慧峰會上公開定調:“想在這場世紀國運之戰中勝出,我們就絕不能被所謂的安全焦慮綁住手腳。”緊隨其後,白宮人工智慧政策操盤手大衛·薩克斯(David Sacks)更是將安全顧慮斥責為可能導致美國輸掉科技冷戰的“腦殘式自殘行為”。在政商合謀的狂歡中,奧特曼毫不掩飾地表達了對川普政府鬆綁政策的讚賞,稱其為“一種極其令人耳目一新的商業變局”。在這種絕對逐利的最高指令下,OpenAI內部曾經那些專注於AI倫理與安全的制衡團隊遭遇了滅頂之災。超級對齊團隊被強行解散後,其核心領軍人物蘇茨克維和萊克雙雙負氣離職。蘇茨克維轉頭就拉起了一支名為“安全超級智能”的新軍以示抗議;而萊克則在社交平台X上留下了絕望的遺言:“在這個被利益徹底腐蝕的帝國裡,嚴苛的安全文化和制衡流程,終究還是讓位給了那些能快速變現的光鮮產品。”一直致力於評估科技安全風險的權威智庫“未來生命研究所”(諷刺的是,奧特曼早年還曾大力資助過該機構),在最新出爐的AI企業存在風險成績單上,毫不留情地給OpenAI打出了最差的F級。當然,在這場極度內卷的安全裸奔中,沒有一家巨頭是清白的:Anthropic拿了D,而老牌霸主GoogleDeepMind也不過只混到了一個極其慘淡的D-。隨著權力的極度膨脹,奧特曼對“商業底線”的公開表述也在發生著極其微妙的變異。早年間,他曾信誓旦旦地宣稱,經營一家手握人類命運的AI公司,必須接受“遠超世俗的更高誠信要求”。但如今,他的口徑已經被圓滑的公關話術徹底包裝:“我認為這個世界上有很多企業,都會對社會產生不可估量的影響,這其中必然好壞參半。”在意識到這句話過於冷血後,他又極其敷衍地補發了一份聲明,聲稱“是的,這確實需要極高的誠信水平,我每天都在被這份沉重的責任感壓得喘不過氣來”。但資本市場的旁觀者,顯然早已看穿了這套粉飾太平的說辭。網友(@kakashiiii111)在社交平台上發表了一段令人脊背發涼的總結。回顧奧特曼過去兩年的操盤軌跡,一條極其危險的行事模式已昭然若揭:持續撒謊、釋放誤導性資訊、憑空捏造活躍使用者資料。他通過向所有人許下無數根本不打算兌現的空頭支票,來死死套牢投資者和合作夥伴。這一切的終極目的只有一個:確保OpenAI這座燒錢機器始終能獲得源源不斷的流動性。如今,連老黃的輝達都被綁上了這輛瘋狂的戰車,一旦OpenAI崩盤,輝達的市值同樣會迎來海嘯。這位看透本質的讀者斷言,奧特曼極有可能就是那根最終刺破AI百年泡沫的毒針,而在矽谷的牌桌上,每個人都對這個隨時可能爆炸的籌碼心知肚明。結語把時間倒回2023年,就在那場極其凶險的逼宮大戲爆發前不久,奧特曼在一次內部分享中,無意間吐露過一段關於“人工智慧模型為何必須說謊”的極度腹黑的邏輯。他當時極其冷靜地分析道:如果你只是單純地在底層程式碼裡限制模型,要求它“對於不確定的事實絕對閉嘴”,在技術上完全可以實現。但這樣做的致命代價是,“它將徹底喪失那種讓全人類為之瘋狂痴迷的魔力”。這段冷血的技術論斷,或許正是奧特曼真實人生的最精準隱喻。他最恐怖的商業武器,從來不是敲打出一行絕妙的程式碼,而是他極其敏銳地嗅到了不同群體的慾望,並用一套無懈可擊的話術,成功給全世界洗腦,讓所有人深信:他所推銷的東西,正是人類迫切需要的解藥。他極其精準地踩中了一個極其割裂的歷史節點:一方面,普羅大眾對各種科技圈的狂轟濫炸早已麻木甚至充滿敵意;另一方面,那些真正有能力叩開通用人工智慧大門的頂級極客們,卻又因為恐懼這種力量的反噬而躑躅不前。面對這個死局,奧特曼打出了一張所有傳統推銷員都不敢打的險牌。他毫不避諱地用最極端的末日論調,向全世界渲染AI失控將如何把人類文明徹底抹除。而在成功製造了全人類的頂級恐慌後,他圖窮匕見,順理成章地將自己包裝成了那個唯一有能力在懸崖邊上把控全域的終極救世主。也許這一切從2015年那個飯局開始,就是一場極其縝密的連環局;又或者,他只是在一路狂奔中,憑藉極其可怕的商業直覺,摸索出了這套必贏的駭客帝國法則。但無論如何,現實的帳本給出了最殘酷的答案:他贏麻了。當一個極度渴望被愛,卻又對欺騙毫無愧疚感的矛盾體站上權力之巔,沒人知道AI最終會開向何方。 (網易科技)
關於何時IPO OpenAI內部現分歧:Altman希望四季度 而CFO認為尚未準備就緒
OpenAI CEO Sam Altman表示希望最早於今年第四季度完成IPO,而CFO Sarah Friar 對公司收入能否支撐5年內逾6000億美元支出承諾仍存疑慮,認為公司尚未具備上市條件。華爾街見聞OpenAI在激進擴張路線與財務審慎之間的內部張力正浮出水面。據The Information報導,首席執行長Sam Altman私下表示希望最早於今年第四季度完成IPO,而首席財務官Sarah Friar今年早些時候已向同事表達了截然相反的看法,認為公司尚未具備上市條件。Friar的顧慮直指公司財務現實:OpenAI已承諾在未來五年內支出逾6000億美元租用伺服器,同時警告投資者,公司至2030年的現金消耗將超過此前預測的兩倍,燒錢規模或超過2000億美元。據一位與Friar交流過的人士透露,她對公司收入增速放緩能否支撐如此規模的支出承諾仍存疑慮。與此同時,競爭對手Anthropic正在侵蝕OpenAI的市場份額,進一步加劇了外部壓力。針對外界對兩人關係出現裂痕的報導,Altman與Friar聯合發表聲明稱,雙方"在將持久的算力獲取作為OpenAI核心戰略"這一點上"完全一致",並表示過去一年多來兩人均"直接參與了每一項重大算力決策"。IPO時間表存在分歧儘管Friar持保留態度,OpenAI已開始著手IPO前期準備工作。公司已聘請Cooley及Wachtell Lipton Rosen & Katz兩家律所,並與高盛和摩根士丹利的IPO承銷團隊展開非正式接觸。Altman的上市意願還帶有明顯的競爭動機,他私下表示希望OpenAI的IPO早於Anthropic完成,而後者目前正在討論於今年第四季度上市。若IPO成行,此次交易規模將有望躋身史上最大IPO之列。Friar對快速上市的牴觸並非無跡可尋。她去年11月在接受《華爾街日報》採訪時曾公開表示,IPO"目前不在計畫之內",因為公司仍在致力於"將公司調整至與當前規模相匹配的狀態"。內部權力架構悄然生變在組織架構層面,一個不尋常的變化早已發生:Friar自去年8月起不再直接向Altman匯報,轉而嚮應用業務負責人Fidji Simo匯報。CFO直接向CEO以外的高管匯報,在大型公司中屬於罕見安排。據多名與兩人密切共事的人士透露,Altman已將Friar排除在若干涉及財務規劃的重要討論之外。其中一個案例是,Altman在近期與OpenAI一位主要投資方討論伺服器支出時未邀請Friar參與,而此前就同一議題進行的會議她曾出席。一名與會者稱,她的缺席"顯眼且令人尷尬"。另有人士表示,在今年早些時候一場涉及重大財務決策的高管等級會議中,Friar同樣未受邀請。天價算力承諾暗藏財務風險OpenAI當前的算力支出計畫規模空前。OpenAI已簽署的伺服器租賃合同總額約達6650億美元,涵蓋:甲骨文(約3000億美元,五年期,自2027年起);微軟(2500億美元,至2032年);亞馬遜雲服務(約1380億美元,八年期);CoreWeave(220億美元,五年期);Cerebras(100億美元)等多家合作方。這些承諾並非普通的雲端運算合同。Friar曾解釋稱,AI資料中心建設周期長達數年,OpenAI必須提前預訂產能。"我必須在今天做出決策,確保我們在2028、2029乃至2030年擁有足夠算力,如果我今天不下訂單,資料中心就不會出現。"在一個案例中,據The Information此前報導,OpenAI與甲骨文就資料中心建設費用超支問題籤署了風險共擔協議,這在雲端運算客戶合同中屬罕見條款。目前,OpenAI已擱置此前自建資料中心的計畫。收入增速與現金消耗的雙重壓力外部競爭格局正在加速收緊。Anthropic已在向企業及應用開發者銷售AI模型方面超越OpenAI,GoogleGemini則持續侵蝕ChatGPT在消費級聊天機器人市場的主導地位。OpenAI今年將未來五年的收入預期上調了27%,但同期也私下向投資者披露,至2030年的現金消耗將超過去年夏天預測值的兩倍。此外,該公司告知投資者,去年的毛利率低於預期,原因在於使用者需求超出預期,公司不得不以更高價格臨時採購算力。Anthropic聯合創始人兼CEO Dario Amodei今年2月在Dwarkesh Patel播客中直言資料中心超前投資的危險性,措辭暗指OpenAI:"如果我判斷失誤,那怕只差一年……你就會破產。我的印象是,一些公司並沒有認真算過這筆帳,他們並不真正理解自己正在承擔的風險。"這與Friar在內部流露出的擔憂高度呼應。一位與兩人密切共事的人士如此形容這位CFO的處境:"她面對的是一位胸懷大志、希望在支出上全力以赴的創始人,這是一份很難的工作。" (invest wallstreet)
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?
Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢/OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?/月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的Meta 一邊裁700人一邊獎高管,祖克柏這把AI賭得有多狠?我看到這條時,第一反應就是:Meta 對 AI 的執念,已經開始直接拿人開刀了。3月25日,Meta 在美國啟動新一輪裁員,涉及數百名員工,核心波及 Reality Labs,也包括 Facebook、全球營運、招聘和銷售團隊;紐約時報給出的數字更狠,僅 Reality Labs 一線就約700人被裁。公司嘴上說是“組織重組”,部分人還能轉崗,甚至要搬城市,但背景誰都看得懂——祖克柏還在往 AI 裡繼續砸錢,要追 OpenAI、Anthropic 和 Google。(CNBC 紐約時報)更擰巴的是,裁員消息傳出的前後,Meta 又給核心高管準備了新的股票激勵計畫,說是為了在 AI 豪賭期穩住關鍵人物。我看著都覺得刺:前腳砍掉 Reality Labs 和業務線員工,後腳給高層加“留任籌碼”,而且公司 1 月才在 VR 部門裁過 1000 多人。Meta 現在像在公開宣佈,舊戰略可以繼續流血,新戰場只能是 AI——可問題是,這場加注最後燒掉的,究竟是成本,還是公司內部的信任?(CNBC 紐約時報)Reddit 終於對機器人動手了!可你上網發言,先要證明自己是人?我最先注意到的,不是 Reddit 要打擊機器人,而是它終於把“誰像人、誰不是人”這件事擺上檯面了。3月25日,Reddit 宣佈,今後會給為使用者提供服務的自動化帳號打標籤,同時要求被懷疑是機器人的帳號完成人類驗證。平台說這不是全站普查,只有在發帖速度、操作模式等訊號“看起來不對勁”時才觸發;過不了驗證,帳號可能直接受限。驗證手段也很現實,點名了 Apple、Google、YubiKey 的 passkeys,甚至 Face ID、World ID。(TechCrunch)這事最有意思的地方在於,Reddit 沒打算禁止 AI 寫帖或評論,只是不想讓機器人假裝成真人混進社區。我一邊覺得它說得很克制,一邊又覺得這幾乎是在承認:今天的社交平台,已經很難單靠內容本身判斷“誰在說話”。同一時間,Reddit 還說自己平均每天移除約10萬個帳號,繼續清理垃圾和可疑 bot。平台想保匿名,又得證明你是人,匿名社區這張老王牌,到了 AI 時代還撐得住嗎?(TechCrunch)Harvey 又融2億美元,法律AI不只是風口,已經開始吞行業了?我看到 Harvey 這輪融資,腦子裡冒出的不是“又一家獨角獸”,而是:律師行業真的開始被 AI 改寫了。3月25日,法律 AI 公司 Harvey 宣佈完成 2 億美元融資,估值達到 110 億美元,這輪由 新加坡主權基金 GIC 和 Sequoia 領投;更誇張的是,它去年 12 月的估值還只有 80 億美元,幾個月就又抬了一截。公司給出的營運資料也很硬,產品已覆蓋 1300 多家機構、超過 10 萬名律師,服務場景包括合同審查、合規、盡調和訴訟。(CNBC)更刺激的是,Harvey 講的已經不是“輔助工具”故事了。公司披露,今年1月年經常性收入已到1.9億美元,客戶裡還有 NBCUniversal 和 HSBC 這種大企業,新增資金則會繼續砸向 AI agents 和全球嵌入式法律工程團隊。我看這已經不是“律師用不用 AI”的問題,而是大所和法務團隊還要不要繼續按舊人海模式運轉。OpenAI、Anthropic 在天上卷模型,Harvey 這種垂類公司,已經開始在地面上直接收行業門票了。(CNBC)川普科技顧問委員會 幾乎半個矽谷都進白宮了,誰還敢說AI只是商業戰?我看到名單時有點恍惚,這那是普通顧問團,簡直像把美國科技權力中樞直接搬進白宮。3月25日,川普任命首批24名總統科學技術顧問委員會成員,名單裡包括 Meta 的馬克·祖克柏、輝達的黃仁勳、甲骨文的拉里·埃裡森、Google聯合創始人謝爾蓋·布林、AMD 的蘇姿丰等重量級人物;委員會由 David Sacks和白宮科技政策辦公室主任 Michael Kratsios共同牽頭,任務是給總統提供科學、技術、教育與創新政策建議。(美國之音 華爾街日報中文網)更有張力的是,這個委員會討論的不只是 AI 本身,白宮明確點到了勞動力市場、國家安全、國土安全和美國科技領導地位。我會覺得這事危險又真實:以前科技公司是去華盛頓遊說,現在更像被請進來一起寫規則。前腳美國還在爭論 AI 該不該被嚴管,後腳最有資源、最有晶片、最有平台的人已經坐到了桌邊——政策是要約束巨頭,還是乾脆由巨頭定義下一輪政策?(美國之音 華爾街日報)PDD 營收還在漲,利潤卻先掉頭,Temu 的低價神話開始疼了?我看到拼多多母公司這份財報,最戲劇化的不是數字差,而是節奏變了。PDD Holdings 3月25日披露,2025年第四季度營收 1239.12 億元,同比增長 12%,折合約 180 億美元;但歸母淨利潤只有 245.41 億元,同比下滑 11%,約合 35.1 億美元,低於市場大約 40 億美元的預期。管理層嘴上講的是“高品質發展”和下一個十年的供應鏈投入,我看到的卻是一個靠效率著稱的平台,開始用利潤給增長續命。(Yahoo Finance 華爾街日報)更微妙的是,外部環境和競爭壓力,PDD 自己也沒再掩飾。財報裡明確說,為了滿足消費者變化、維持生態穩定,公司必須持續投資,而這些投入“不可避免會影響財務表現”;華爾街日報的說法更直接,PDD 正在努力留住平台商家。前腳 Temu 還在全球用低價沖城略地,後腳利潤已經被成本和生態壓力咬了一口。問題來了,平台能一直讓消費者便宜、讓商家留下、還讓股東滿意嗎?(Yahoo Finance 華爾街日報)Arm 不只賣設計了,自己下場做晶片,Rene Haas 這是要掀桌子?我看到 Arm 這一步,真的有種“供應商突然坐上牌桌”的感覺。Arm 不再滿足於給別人授權架構,這次直接推出首款自研資料中心 CPU——Arm AGI CPU,目標非常明確,就是盯著 agentic AI這種持續推理、規劃、行動的工作負載來打;而且它不是概念稿,由 TSMC 用 3nm 工藝代工,官方還給出很硬的參數:最多 136 個 Arm Neoverse V3 核心,主打高密度、高頻寬和低時延。(Arm Newsroom WIRED)更刺激的是,Arm 明知道這會得罪一批老夥伴,還是往前走了。官方宣稱,AGI CPU 單機架性能可達 x86 平台的兩倍以上,早期系統已經可用,2026 年下半年會更大範圍鋪開;WIRED 對 Rene Haas 的訪談則把這層衝突說透了——Arm 一邊談文化轉向,一邊在 SoftBank 支援下自己做晶片,這對過去依賴 Arm IP 的客戶來說,幾乎等於“合作方親自下場競爭”。以前 Arm 是裁判,現在它想當選手,生態還會像以前那樣安靜嗎?(Arm Newsroom WIRED)快手 財報穩住了,真正搶戲的卻是可靈AI開始自己賺錢了!我看快手這份成績單,最扎眼的已經不是短影片主業,而是 AI 終於開始像生意了。快手 3月25日披露,2025 年第四季度總營收 396 億元,同比增長 11.8%,和市場預期基本一致;經調整淨利潤 55 億元,同比增長約 16%。但真正有戲劇性的,是它親手把“可靈 AI”從講故事階段拽進了收入表:Kling AI 單季收入達到 3.4 億元人民幣,說明這類文生視訊產品,終於不只是在刷存在感。(PR Newswire Bloomberg)更猛的是速度。公司還披露,2025年12月,可靈AI單月收入已經超過 2000 萬美元,折算成年化收入跑速約 2.4 億美元。我會覺得這很像一個訊號:平台公司過去總說“AI 會提高效率”,現在終於敢把 AI 單獨拉出來談變現。同一時間,國內大模型和視訊生成都在卷價格、卷效果、卷生態,快手卻先把收入做出來了。問題是,可靈接下來會成為新增長曲線,還是只是財報裡最亮的一塊反光?(PR Newswire Bloomberg)OpenAI 下個模型剛訓完,部門先改名成“AGI部署”,Altman 這次太敢了?我看到這條內部備忘錄消息時,最先愣住的不是模型進展,而是 OpenAI 的語氣已經像在提前宣佈新時代。Alex Heath 援引內部備忘錄稱,Sam Altman 告訴員工,OpenAI 下一代模型已完成預訓練,內部代號叫 “Spud”,並且他直接放話,“幾周內”會有一個“非常強”的模型,足以真正加速經濟。同時,公司還調整組織架構,把 Safety 併入 Research,把 Security 調整到 Scaling 體系。(The Decoder The Information)更耐人尋味的是,Fidji Simo 負責的產品組織被改名為“AGI Deployment”。我讀到這兒的時候,幾乎能感覺到 OpenAI 想傳遞的情緒:它不只想做模型,還想把“AGI 如何落地”先佔個名字。同一時間,外界看到的是 Sora 被收縮、算力往新模型傾斜,內部看到的卻是安全、擴展、產品重新排兵佈陣。前腳還在解釋安全治理,後腳已經把“部署 AGI”寫進組織名裡,OpenAI 這是領先的自信,還是把壓力直接攤在檯面上了?(The Decoder The Information)Manus 賣身Meta後,目前正在接受是否違反外商投資相關規則的問詢路透 3 月 25 日援引英國《金融時報》稱,Manus 聯合創始人、CEO 肖弘和首席科學家季逸超,本月在北京被監管部門約談後,被告知在審查期間不得離境,但仍可在境內活動。被審查的核心,是 Meta 對 Manus 的收購是否違反外商投資相關規則;這筆交易去年 12 月公佈,路透此前引述消息稱,估值大約在 20 億到 30 億美元。(Reuters Financial Times)需要說說明的是,目前審查是完全遵循相關的法律法規,並非所謂的「違法」審查,也並不意味著該筆收購交易就此終止。Meta 這邊的回應很平靜,直接說交易“完全符合適用法律”,並預計會有“適當結果”;而 Manus 則被曝正在積極尋求法律和諮詢支援。(Reuters Financial Times)蔡崇信 說CEO永遠安全!AI都快變虛擬員工了,他還這麼篤定?我看到蔡崇信這句“CEO 崗位永遠安全”時,第一反應不是輕鬆,反而是更刺耳了。3月23日西門子 RXD 大會上,阿里巴巴集團主席蔡崇信和西門子全球 CEO 博樂仁對話時表示,智能體不會取代 CEO,因為 CEO 最稀缺的不是執行力,而是時間和精力。他的邏輯很直接:以前 CEO 得嚴控直屬匯報人數,避免被管理事務拖垮;有了智能體後,CEO 反而能管更多事,把時間騰給戰略和未來。(新浪科技)可我覺得這句話真正的衝擊,不在“CEO 安全”,而在它默認了大量中間層和執行層會先被 AI 重構。同一場對話裡,蔡崇信還強調,阿里的核心戰略是**“未來一切都將由 AI 驅動”**,阿里要靠雲基礎設施支撐所有想用 AI 的企業。前腳說 AI 不會替代 CEO,後腳又說企業未來一切都由 AI 驅動,這種表態聽上去像是在安慰塔尖,可塔身已經開始搖了,不是嗎?(新浪科技)月之暗面 創始人放話:從今年開始,AI研究會越來越像AI自己做的我讀到楊植麟這段發言時,最強烈的感覺是:研究員的位置,可能也要被重新定義了。3月25日,在2026中關村論壇年會上,月之暗面創始人楊植麟表示,從今年到明年乃至未來若干年,AI 的研究和研發方式會發生重大變化,越來越多研究將由 AI 主導完成。他說得很具體,未來每位研究員都會配備大量 AI Token,這些資源能幫助合成新任務、新環境、定義獎勵函數,甚至探索新的網路架構。(新浪科技 東方財富)更有張力的是,他不是在談一個遙遠想像,而是在給時間表。從今年開始,研發會逐步加速,人與 AI 的分工會被重新切開。我看這句話真正刺痛人的地方在於:過去大家還在爭“AI 能不能幫研究員提效”,現在頭部創業者已經直接把 AI 放到“主導研發”的位置上。前腳行業還在追參數、追訓練卡數,後腳討論已經變成“誰先讓 AI 參與設計下一代 AI”,那研究員接下來到底是在做研究,還是在管理研究?(新浪科技 鳳凰網科技)飛豬 把旅行外掛塞進一堆AI應用裡,訂票這件事真要交給助手了?我看到飛豬這次發 skill,最直接的感受就是:旅行平台終於不甘心只做“被搜尋到”的那一端了。3月25日,飛豬發佈首個全品類出行旅遊技能外掛“flyai”,已經上線 ClawHub、GitHub等平台,開發者和使用者可以在 OpenClaw、悟空、Kimi Claw等數十個“龍蝦”應用裡安裝使用。意思很明白,飛豬不想等使用者打開 App 再下單,它要先鑽進各類 AI 助手的工作流裡,把訂機票、訂酒店、做行程這套動作提前佔住。 (AI Daily Insights)
Sam Altman表態:若政府強迫我監控國民,我寧願去坐牢!炮轟Dario:政府理應比公司有更大的權力
這兩天,大洋彼岸正在召開著華爾街乃至整個科技圈最重要的年度會議:摩根士丹利會議。大家都在關注著OpenAI CEO 究竟會說些什麼。就在今天,奧特曼的講話終於流出來了。“政府理應比私營公司擁有更大的權力。”當地時間3月5日,OpenAI 首席執行官 Sam Altman 在摩根士丹利 TMT 大會上,拋出了這句讓整個矽谷震動的“投名狀”。可以看出,經歷了這過去7天的驚心動魄與思考掙扎,這位掌舵者對於“AI終極控制權”有了公開定論。炮轟 Anthropic:別搞“獨裁式讚美”在今天的摩根士丹利會議上,Altman 面對近期 OpenAI 與國防部(DoD)深度繫結的質疑,語氣前所未有的強硬。首先,他承認了“吃相難看”。他表示,OpenAI 在 Anthropic 拒絕合同後迅速補位,確實看起來有些“投機且草率(opportunistic and sloppy)”,但他的目的是為了“降溫”而非挑起戰爭。此外,針對 Anthropic CEO 指責他通過“讚美川普”換取合同,Altman 在會上進行了反擊,稱這種將公司決策凌駕於民主合作之上的行為是不可取的。“如果公司僅僅因為不同意當權的政治領導層,就拋棄民主規範,這對社會是有害的。”“我寧願坐牢,也不會越過紅線”為了平息使用者對“老大哥在看著你”的恐懼,Altman 當眾立誓,OpenAI 接入軍事網路有三條死理:絕不用於國內大規模監控。絕不用於自主殺戮武器。最炸裂的一句:“如果政府非要強迫我利用 AI 監控美國公民,我寧願去坐牢或辭職,也絕不妥協。”Sam 這番話,無疑是在為7天前,自己深處漩渦中心,魔幻得甚至有點戲劇的一幕定性收尾。驚魂一週:引發OpenAI內部大罷工要把時間撥回到 5 天前,當時的 Altman 遠沒有今天這麼淡定。在 Anthropic 與美國防部合作協議談崩了之後,Sam Altman 一面宣佈支援 Anthropic,一面在數小時後宣佈了 OpenAI 已與國防部達成合作協議。由於該合作在 Anthropic 被列入黑名單後迅速公佈,OpenAI 受到了一些批評。同時,ChatGPT 在應用市場上的解除安裝率直線上升。網友們的反映強烈,用手機投票,最終將 Claude 推上了蘋果應用程式商店的榜首。之後的幾天裡,Altman 也承認,這件事看起來“有些投機,而且處理得不夠嚴謹”。他在週四表示,公司當時的真實意圖是緩和局勢。“情況確實很複雜,我們也在忙很多其他事情,”Altman 說。“但上週,當事情開始演變成一場衝突時,我們越來越清楚地意識到,局勢可能會變得非常糟糕。”接下來,Altman 的“投機”操作在這一週內,引發了矽谷對OpenAI的地震級反應——內部反水了: 100 名 OpenAI 員工聯名抗議,拒絕為“戰爭機器”寫程式碼。使用者出逃了: 就在 OpenAI 宣佈簽下國防部訂單後,ChatGPT 的解除安裝率激增,而對手 Claude 一夜之間沖上了蘋果 App Store 榜首!甚至到了地面示威的底部: 在舊金山總部外,人們在人行道上塗鴉追問:“你們的底線在哪裡?”在這種巨大的輿論壓力下,OpenAI 在本週一緊急修改了合同,要求美國國防部明文承諾:不得將 AI 用於非法監控和自主殺戮。Altman 的深夜Q&A:如果AGI開發是個“國有化”項目,或許會更好在上週六的一場深夜 Q&A 中,他曾流露出一種近乎“悲觀”的預感:“長期以來我一直在想,如果開發 AGI(通用人工智慧)是一個政府項目,或許會更好。”他甚至公開討論了“國有化”的可能性。為什麼? 因為他看到 Anthropic 因為拒絕合作被列入“供應鏈風險名單”;他看到《國防生產法》像達摩克利斯之劍一樣懸在科技巨頭頭上。“如果監控國民,我會辭職”如果 ChatGPT 的使用者知道該軟體也被用於監視美國境內的非美國居民,他們會作何感想?值得注意的是,對於注重隱私的開發者來說,Sam 在問答環節也帶來了一項保證:政府不會訪問你的 ChatGPT 資料。當被問及 OpenAI 是否會確保使用者資料安全,或者美國國防部是否能夠查看任何人的未標記消息時,Sam 回答說:“是的(資料是安全的)。他們絕對做不到這一點。”同時,Sam堅定地補充說,即使美政府聲稱合法,OpenAI 也絕不會進行大規模的國內監控,“因為這違反了憲法……如果真的通過憲法修正案使其合法化,我們會怎麼辦?也許我會辭職……”“我害怕人工智慧公司擁有凌駕於政府之上的權力。我也害怕政府認為大規模國內監控是可以接受的。如果國家/憲法真的變成那樣,我不知道我每天該如何來上班。”對於那些仍然擔心美軍方將如何使用該軟體的人,OpenAI 研究員員 Boaz Barak 也在 X 上回答了相關問題,並提醒大家 OpenAI 多年來一直在其所有模型中嵌入“紅線”,以應對“其他高後果風險……例如生物武器化和網路濫用”。Barak 最終指出,工具使用者群體和廣大公眾或許也能發揮作用——因為總得有人敦促立法者採取行動。“人工智慧對我們的自由構成獨特的風險,不能僅僅交給個別機構和公司來解決。我們迫切需要監管和立法來保障我們的自由。”AGI的終極控制權歸誰,Altman最後攤牌從上週末感慨“AGI 或許該歸國家管”,到今天在摩根士丹利高喊“政府應比公司更有力”,Altman 完成了一次完美的AGI掌控權的態度轉身。他很清楚,在 2026 年的政策氣候下,AI 已經不再只是個技術工具那麼簡單。他承認了自己在這件事上“投機”了,最後他也選擇了政府對於AI的掌控權。“關於人工智慧在國防領域的使用邊界,最終應由民選領導者來決定,而不是由科技公司的高管來決定。”歡迎在評論區留下大佬的看法,我們正在見證歷史。 (51CTO技術堆疊)
20 年生命 vs 2 小時訓練,Sam Altman 開始算「人肉成本」
如果幾年前有人跟我說,「你以後可能會看到科技公司 CEO,用人類的生存成本來為 AI 辯護」,我大概會覺得這是科幻小說裡的情節。但這個看似荒誕的場景,真的發生了。AI 行業最嚴厲的父親不久前的印度 AI 峰會上,Sam Altman 面對 AI 能源消耗的質疑時,給出了一個讓人意外的回應:「訓練一個人需要 20 年的生命和這期間吃掉的所有食物,相比之下,討論 AI 的能源使用是『不公平』的。」這不是簡單的狡辯,而是一種全新的敘事策略——當你的產品被指控太耗能時,不妨算算人類的「訓練成本」。01 「人肉成本」的精妙算計Altman 的邏輯表面上很簡單:一個人從出生到成年,需要消耗 20 年的食物、住房、教育資源,而訓練一個 AI 模型只需要幾個月。從「投入產出比」來看,AI 似乎更划算。這個比較背後藏著一個巧妙的概念偷換。人類的成長不是純粹的「訓練」,而是生命本身。一個 20 歲的人不僅具備了工作能力,還有情感、創造力、道德判斷,以及無法量化的人生體驗。而 AI 模型無論多麼強大,都只是在特定任務上的工具。但 Altman 的比較確實觸及了一個有趣的角度。如果把人類社會看作一個巨大的「訓練系統」,那麼培養一名程式設計師的總成本確實驚人:20 年基礎教育、4 年大學、若干年工作經驗,再算上背後的社會基礎設施投入。有開發者在 Twitter 上調侃:「按這個邏輯,我應該感謝公司沒有直接用 AI 替代我,畢竟我的『訓練成本』確實挺高。」02 從兆承諾到六千億現實Altman 選擇在這個時間點拋出「人肉成本論」,背景頗為微妙。就在幾天前,OpenAI 剛剛大幅調整了財務預期——原本宣稱的 1.4 兆美元基礎設施投入,悄悄縮水到 6000 億美元。這個調整釋放了一個訊號:即使是 OpenAI,也開始正視 AI 訓練的成本壓力。當初豪氣萬丈的兆計畫,在現實的能源帳單面前變得謹慎。與此同時,OpenAI 的商業化步伐在加速。從考慮在 ChatGPT 中加入「Instagram 風格」的廣告,到與 Tata 集團的戰略合作,再到 GPT-5.2-Codex 的發佈——每一步都在尋找更高效的盈利模式,以平衡巨額的訓練成本。Altman 的能源辯論,更像是為這種商業化轉向提供理論支撐。如果 AI 訓練比人類「培養」更環保,那麼大規模投入 AI 就有了道德正當性。如果 AI 模型的能效比人類更高,那麼用 AI 替代人工就不僅是商業選擇,還是環保責任。這場能源辯論的背景,是整個科技行業對 AI 環境影響的集體焦慮。資料中心的耗電量正在以驚人速度增長。訓練一個大型語言模型的碳排放,相當於幾百次跨大西洋航班。當各國政府都在制定碳中和目標時,AI 公司面臨著前所未有的壓力。Altman 的「人肉成本論」,本質上是一種防禦性的敘事策略——與其被動解釋 AI 為什麼耗能,不如主動重新定義「什麼是合理的能源消耗」。這讓筆者想起他在峰會上的另一個表態:需要類似國際原子能機構的組織來監管 AI。表面上是呼籲監管,實際上是在為 AI 的「核能級」影響力做鋪墊:既然 AI 像核能一樣重要,那麼相應的能源消耗就是必要代價。但這種敘事面臨一個根本問題——AI 和人類並不是非此即彼的關係。03 被忽視的第三種可能Altman 的比較預設了一個前提:AI 和人類是競爭關係,我們必須選擇更「高效」的那一個。但現實遠比這個二元對立複雜。AI 的價值不在於替代人類,而在於增強人類能力。一個經驗豐富的程式設計師配合 AI 工具,產出效率遠超純 AI 或純人工。從這個角度看,真正的問題不是「AI 比人類更環保嗎」,而是「如何讓 AI 的能源消耗產生最大價值」。一位能源政策研究者在接受採訪時指出:「關鍵不是 AI 用了多少電,而是這些電有沒有用對地方。如果 AI 能幫助最佳化電網、減少能源浪費,那麼訓練成本就是划算的投資。」OpenAI 最近推出的安全功能和風險標籤,某種程度上也是在回應這個問題——通過更精準的應用,讓每一分算力都用得更有意義。Altman 的「人肉成本論」雖然聽起來荒誕,但它揭示了一個深層次的哲學問題:在演算法時代,我們如何衡量價值和成本?當 AI 能夠在 2 小時內完成人類 20 年才能掌握的技能,傳統的成本效益分析是否還適用?當機器學習的邊際成本趨近於零,人類勞動的價值該如何重新定義?這些問題沒有標準答案,但不能迴避討論。從印度 AI 峰會上 Altman 與 Anthropic CEO Dario Amodei 拒絕握手的緊張場面,到關於 AI 廣告的口水戰,再到如今的能源辯論——每一次爭議背後,都是對 AI 未來形態的不同想像。Altman 選擇用「人肉成本」為 AI 辯護,實際上是在重新界定效率的含義。但效率從來不是唯一標準,還有公平、可持續、以及我們想要生活在什麼樣的世界。當科技 CEO 開始計算人類的「訓練成本」時,也許我們該問的不是這筆帳算得對不對,而是:我們是否願意生活在一個把人類當作「低效 AI」的世界裡。 (極客公園)
Altman放話:2028年,超級智能將超越人類
行業將關鍵詞從AGI(通用人工智慧)切換為超級智能:超級智能模型可在3個月內掌握全球藥物研發知識,能耗僅相當於藥物科學家20年消耗能源的1/50。圖片由AI生成“2028年底,人類將迎來早期形態的超級智能,資料中心承載的智能體量有望超越人類生物大腦總和。”近日舉行的新德里印度人工智慧影響峰會上,OpenAI CEO山姆·奧爾特曼(Sam Altman)表達了上述觀點。全球AI領域焦點正從生成式模型的迭代最佳化,逐步轉向超級智能的落地時間表與規則探討。奧爾特曼與Meta超級智能實驗室負責人亞歷山德·王(Alexandr Wang)同台定調:AI將從輔助工具,走向在推理、創造與問題解決上根本性超越人類的新階段。會上,奧爾特曼呼籲建立參照“國際原子能機構(IAEA)”模式的全球AI監管機構,以應對這一劃時代躍遷。當然,這並非空泛呼籲,此前IAEA通過全球協同監管,實現了核能技術的可控發展,奧爾特曼試圖將這一模式複製到超級智能領域,規避技術失控風險。亞歷山德·王則提出“個人超級智能”路線,地區性的人才與市場將成為普惠化超級智能的關鍵陣地,而中國電信此前推出的“星辰超級智能體”,已在信貸稽核、網路維運等場景實現自主拆解任務、協同完成複雜工作,成為“個人超級智能”落地的雛形參照。這場高調宣言,是全球AI產業、資本與技術研發深度繫結的集中亮相,標誌著超級智能競賽已進入規模化推進階段。超級智能時間表:技術迭代與產業佈局同頻當前,全球AI巨頭已全面轉向超級智能研發,核心目標是突破現有模型侷限,實現從“輔助人類”到“超越人類”的能力躍遷。OpenAI、Meta等頭部企業紛紛加大研發投入,放鬆內部技術迭代約束,優先保障超級智能相關技術的快速落地,其核心邏輯是搶佔下一代AI技術的話語權,避免在技術迭代中掉隊——這一點與此前AI企業在通用模型研發中的謹慎態度形成鮮明對比,也凸顯了超級智能在行業發展中的核心地位。從全球佈局來看,科技巨頭正加速推進超級智能技術的全球化落地,通過技術輸出、人才合作等方式,擴大自身技術影響力,搶佔全球市場份額。亞歷山德·王提出的“個人超級智能”路線,正是依託這一優勢,試圖實現超級智能的普惠化應用,打造差異化競爭優勢。這一背景下,資本已提前入場,成為超級智能競賽的重要推手。支援AI技術加速研發的超級政治行動委員會Leading the Future,2025年末手握約3900萬美元資金,來自OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)與風投家馬克·安德森(Marc Andreessen)等,核心用途是資助超級智能相關基礎設施建設與技術研發。典型案例便是該委員會重點支援愛達荷州資料中心建設,推動審批流程簡化,為超級智能所需的大規模算力基礎設施“開綠燈”。行業共識是:超級智能不只是演算法競賽,更是能源、晶片與物理基礎設施的軍備競賽,資本的持續注入的是技術落地的關鍵支撐。但行業內部並非鐵板一塊,關於超級智能的發展路徑與節奏,出現了明顯分歧。以奧爾特曼、薩克斯為代表的技術加速派,主張快速推進技術迭代與落地,將超級智能視為推動產業升級的核心引擎,舉例稱若超級智能落地醫療領域,可將新藥研發周期從10年壓縮至1年,帶動生物醫藥產業爆發式增長。以部分行業學者、環保人士為代表的謹慎派,則警惕技術落地帶來的就業衝擊、環境壓力與安全風險,拿出自動駕駛AI替代卡車司機、AI文案替代初級內容創作者的案例,質疑超級智能將導致大規模失業,加劇社會兩極分化。這種分歧也導致部分企業在技術推進中適當放緩節奏,兼顧技術創新與社會影響。從話語策略看,行業將關鍵詞從AGI(通用人工智慧)切換為超級智能。技術演進表述為“必然、不可逆、超越人類”,為下一代AI技術的商業化與產業化鋪路。一旦奧爾特曼的2028預言兌現,智力邊際成本將趨近於零,藥物研發、法律服務、內容生產等行業將被徹底重構。例如當前AI輔助律師處理案件檢索需數小時,而超級智能可瞬間完成案例匹配、法律條文解讀與辯護方案生成,直接衝擊初級法律從業者崗位。但高度集中的資料中心模式,也帶來能耗、供電與地方抵抗等剛性約束,亞利桑那州鳳凰城就因資料中心能耗過高、擠佔居民用電,引發當地民眾抗議,成為超級智能基礎設施落地的現實阻力。能耗正當化:AI訓練類比為“人類培育”峰會期間,奧爾特曼另一組引發爭議的表態,直指AI最敏感的能耗與水耗議題。他公開反駁“AI過度消耗資源”的批評,稱相關擔憂“過時或完全虛構”,並提出一套全新比較框架:不應只對比單次AI推理與人腦思考的能耗,而應計入人類成長、教育、生存所需的全生命周期成本。按此口徑,大規模計算叢集的能源投入,反而比培養同等認知能力的人類更“高效”——他舉例稱,培養一名資深藥物研發科學家需25年(從教育到成長為專家),消耗大量糧食、能源與教育資源,而超級智能模型通過訓練,可在3個月內掌握全球藥物研發知識,能耗僅相當於這名科學家20年消耗能源的1/50。他同時為資料中心用水辯護,稱現代閉式循環冷卻技術已大幅降低資源依賴,舊有蒸發冷卻系統的負面敘事與現實脫節,舉例說明OpenAI位於德克薩斯州的資料中心,採用閉式循環冷卻技術後,水耗較傳統資料中心降低70%,每處理1PFlops算力的水耗,僅相當於居民一天的用水量。這一修辭轉向,是OpenAI對“計算優先”模式的戰略性正當化:將AI訓練類比為“人類培育”,以此緩解行業與社會對資源消耗的擔憂、為GPT-6等下一代模型的巨量能源與資本開支鋪路。若AI被定義為“更高效的智能生產方式”,其高能耗便可被解讀為生產率淨增益,而非環境淨損失——這一點在OpenAI與微軟合作的Azure雲資料中心體現得尤為明顯,雙方宣稱,該資料中心的AI算力產出,相當於10萬名人類工程師的工作效率,而能耗僅為同等人力的1/10。但這套邏輯面臨現實與科學雙重挑戰。人類大腦功耗僅約20瓦,而前沿大模型一次完整訓練耗電量,相當於數千美國家庭一年用電——例如GPT-5模型訓練一次,能耗約為1.2萬兆瓦時,相當於美國一個3000人小鎮一年的總用電量。奧爾特曼強調的是資訊處理規模效率,而非熱力學效率——在物理底層,矽基智能仍遠落後於生物智能。Zoho CEO斯里達爾·文布(Sridhar Vembu)等業內人士直接反駁:將技術與人類等價,忽視了生命的內在價值與不可替代的社會需求,舉例稱AI可生成詩歌,但無法復刻人類詩人的情感體驗;可診斷疾病,但無法給予患者人文關懷。長期看,AI能耗與全球可持續目標的衝突將持續激化。預測顯示,2030年AI相關電力需求將大幅增長,老舊電網難以承接,最典型的案例便是美國加州,2025年夏季因AI資料中心能耗激增,導致多次電網負荷預警,加州電力公司不得不限制資料中心運行,這也印證了奧爾特曼的“能耗無害論”與現實的脫節。當前,全球科技企業正試圖通過技術最佳化、清潔能源應用等方式緩解這一矛盾,探索超級智能與可持續發展的平衡路徑。這或許也意味著,超級智能競賽正式進入技術與資本的主航道。奧爾特曼的2028時間表、科技巨頭的研發投入、資本的全力押注、能耗議題的話語重構,共同構成超級智能產業發展的完整圖景。未來24個月,AI行業將走向高度集中:只有極少數玩家能承擔超級智能的資本與資源門檻,中國電信“星辰超級智能體”的落地案例,也預示著超級智能的競爭已從單純的技術比拚,延伸到產業落地能力的較量。Meta力推的“個人超級智能”,則預示著巨頭將把頂級能力封裝進消費硬體,從對話機器人走向主動式智能體。超級智能究竟是產業升級的引擎還是社會發展的挑戰?這一命題將深度影響全球AI產業的發展走向,並決定下一代AI技術的治理模式。而OpenAI們真正需要回答的問題是:當智能可以被規模化生產,人類的位置,又該如何安放? (鈦媒體AGI)
新德里這場對話,Sam Altman 把 AI 最難的題說透了
AI 能力在加速,這是共識。但真正的問題是什麼?2026 年 2 月 20 日,OpenAI CEO Sam Altman 在新德里的一場訪談裡,給出了他的答案:四道題。能力到那了?算力夠不夠?工作怎麼變?社會跟得上嗎?他沒給標準答案,但把每道題的難點說清楚了。比如 First Proof 為什麼能做對 7 道研究題,Codex 在印度為什麼增長最快,算力瓶頸到底卡在那,工作到底是被替代還是被重寫。拋開字斟句酌的公關話術,這是一次難得的坦率交底。我們整理了訪談的核心內容:AI 能力到那了?算力天花板在那?工作會怎麼變?治理為什麼最難?第一道題|能力到那了:已經跨入“研究級”門檻關於 AI 的真實能力邊界,Altman 強調,過去這一年,模型絕不只是“變聰明了一點”,而是任務難度完全不同了。過去一年,模型從高中數學跨到了研究級數學;從能解釋程式碼,到能生成可運行的應用;從回答物理概念,到推導物理學的新結果。1、從做題到做研究Altman舉了兩個例子: 在 First Proof 實驗(11位頂尖數學家發起的AI測試)中,模型面對10 個研究級數學問題,成功解出了7個。這7道題都有完整推導過程,靠的是邏輯推演。在理論物理學領域,AI也開始推導新的物理學結果,觸及人類知識的前沿。2、工程師的工作重心在變程式設計領域的變化更直觀。很多開發者現在給Codex一個功能描述,它就能生成初版應用:介面、互動、邏輯都有。印度成了全球使用者增長最快的市場。Altman說,大量年輕開發者跳過了傳統程式設計師必經的底層訓練,直接上手就能做出作品。這在開發者群體快速增長的國家特別明顯。3、AGI 已經很接近主持人問到 AGI還有多遠。 Altman的回答很直接:已經很接近了。他給出了一個很有意思的視角:如果時間倒退回六年前,告訴大家有一個系統能做前沿研究、能寫複雜程序、能勝任各種高難度的知識工作,當時的大多數人一定會驚呼“這就是 AGI”。只不過現在,我們身在其中,逐漸對強大的工具習以為常了。按照目前的速度,到 2028 年底,全球 AI 系統同時處理的工作量,可能會超過全人類的總和。從數學、物理、程式設計這些最難突破的領域看,今天 AI 能完成的,已經包括過去只有高技能人才才能處理的知識工作。看懂了今天 AI 這種驚人的能力躍升,我們才能真正明白,為什麼 Altman 接下來會如此急迫地談論“算力瓶頸”。第二道題|算力夠不夠:遠遠不夠主持人問:未來三到五年,AI 最大的限制是什麼?Altman 毫不猶豫地說:算力。 能不能讓足夠多的人,用上足夠強的 AI?這是當下最現實的問題。1、強模型有,但 GPU 不夠用Altman 透露,團隊在實驗室裡看到的模型能力,比公開版本要強得多。之所以沒有全量發佈,是因為算力成本太高。我們有頂級的模型,卻沒有足夠的 GPU 來支撐它全天候為所有人服務。為瞭解決這個問題,OpenAI 在多條線上同時推進:繼續加深與輝達的合作;支援新興晶片公司做推理端的最佳化;同時推進 OpenAI 自己的自研晶片計畫。外界將此解讀為“多線平行”,但 Altman 給的理由極其簡單:要把更強的 AI 推向更廣泛的人群,算力必須大幅擴張。所有能擴產能的路,都必須走。2、真正的天花板:不是水,而是電針對外界流傳甚廣的“每次呼叫 AI 要消耗 17 加侖水”的說法,Altman 明確予以否認。他表示水的使用量被嚴重誇大了,真正需要關注的是能源。他給出了一個對比:訓練一個高智商的人類同樣極其耗能。你需要投入 20 年的時間,以及這 20 年裡他吃掉的所有食物;甚至,還需要算上過去數千代人在進化中學會躲避掠食者、發展出科學,你才有了今天的智慧。相比之下,當模型訓練完成後,AI 回答一個問題的能源效率,其實已經趕上了人類。但真正的挑戰在於“規模”。 下一代資料中心的耗電量將是驚人的。模型越來越龐大,使用者急劇增加,每次呼叫都需要海量晶片協同工作。未來的算力命脈,將極度依賴核能、風能、太陽能,甚至需要為 AI 專門建造超級能源站。3、未來的需求到底有多大?Altman 反問了一個問題:“你個人希望有多少個 GPU 隨時待命為你工作?”答案從來沒有低於過 1 個。甚至有人開口就要 1000 個。試想一下,如果全球 80 億人每人都需要 1000 個專屬 GPU,那就是 80 兆個。這個規模,短期內根本做不到。這意味著,算力需求的上限遠超我們當下的想像。當 AI 徹底融入每個人的工作流,呼叫量將是現在的數十百倍,算力會像今天的水和電一樣,成為最底層的社會基礎設施。這也是為什麼 Altman 感嘆:“擴充算力,可能是人類歷史上最複雜的合作工程。”靠傳統的人力去搞基建,絕對完不成這個任務。好消息是,未來的 AI 和機器人會反過來幫我們建造這些設施。4、基建搞到太空裡?現在還太早。當被問及是否有建造“太空資料中心”的極端可能性時,Altman 明確表示:在目前的情況下,這個想法非常荒謬。發射成本、GPU 的太空維修、能源的穩定供應…… 這些問題一個都還沒解決,近十年內,軌道資料中心都不可能大規模落地。如果說第一道題是在講 AI “能做什麼”,那麼第二道題的核心就是:“你能不能用得上”。 在這場競賽裡,率先掌握穩定且龐大算力的組織,就能拿走下一輪效率革命的入場券。第三道題|工作怎麼變:性質在變,不會消失在對話中,主持人問到最敏感的問題:AI 會讓多少人失去工作?Altman 說,過去一年他看到的變化是:工作沒有消失,但做事方式完全不同了。1、知識型崗位受衝擊最明顯過去一年,程式設計師群體感受最明顯。Altman拿自己舉了個例子:“我本人就是學軟體工程出身的,但我當年學程式設計的那套方法,現在已經徹底過時了。手工編寫C++程式碼的時代,已經結束了。”軟體工程師還需要,但工作內容變了。以前寫程式碼是從零開始搭結構、寫邏輯、偵錯;現在,大段的初版程式碼都由AI一鍵生成,人做的是結構調整、細節修正、風險檢查、體驗提升。這個變化不只發生在程式設計領域。影視創作也一樣:字節跳動 2 月發佈的Seedance 2.0,能從幾句文字描述直接生成電影級視訊片段,導演賈樟柯用它創作了短片《賈樟柯的舞蹈》。大多數知識工作都類似:AI 生成初稿,人負責方向、質量和判斷。2、新機會在那裡?每次技術革命都會洗牌,但最終總會湧現更多的新崗位,只不過這次的浪潮來得更快、更猛。Altman 總結了三個正在發生的趨勢:“超級個體”崛起: 過去開發一個產品需要設計、前端、後端、營運齊上陣;現在,一個人配上一套 AI 工具鏈,就能打造一家完整的“一人公司(OPC)”。創作門檻大幅降低: 不僅僅是程式設計,視訊剪輯、產品設計、文案寫作,過去需要長年專業訓練的技能,現在幾天就能上手。企業內部分工在變: 純做財務的人可以利用 AI 搭建流程自動化系統;不懂程式碼的營運也能直接生成實用的內部工具。用 Altman 的一句話概括就是:“AI 讓很多專業技能變簡單了:以前要專門學,現在會用工具就夠。”3、什麼能力變得更重要?與 AI 深度協作的能力: 會提出好問題(Prompt),會審查生成結果,會組合各種 AI 工具。你要把 AI 當作一個需要磨合的長期合夥人。極致的適應力: 技術迭代在瘋狂加速,過去十年的跨度現在一年就能跑完。能不能在劇變中迅速找到自己的新生態位,是生死攸關的能力。對“人”的深刻理解: AI 再強大,也不知道“什麼樣的設計能直擊人心”、“什麼樣的功能最懂人性的軟肋”。這是人類獨有的嗅覺。此外,Altman 強調了“情感連接”的不可替代性。比如圖像生成 AI 剛出來時,很多人哀嘆插畫師完了。對於批次生產的商業設計(比如生日賀卡)確實如此;但在純藝術領域,AI 生成的畫作價格很低,而人類藝術家創作的作品價格依然在漲。因為人們在乎的是作品背後的那個人。同樣,他提到最近去醫院的經歷,他在意的是護士的細心照料與情感安撫。如果換成一個冷冰冰的機器人,再聰明、再精準,他也會感到排斥。有些工作的核心價值,建立在人與人的連接之上。4、教育方式也在調整既然工作性質變了,教育體系就必須隨之徹底重構。Altman 說,AI 不會讓孩子變懶,關鍵是教學方式能不能跟上工具變化。他回憶起自己上學時,Google剛剛問世。中學老師覺得:如果能直接在Google上查,為什麼還要背歷史日期?他的回答是:死記硬背本來就是浪費時間。幾年後,老師們逐漸接受了,教育系統也在演進。新工具帶來的過程都是這樣:能力提升,要求也提升,我們開始教人們更深入地思考、創造更多。如果學生一直被要求“背內容”、“做重複練習”,自然會被 AI 替代。但如果強調思考方式、項目能力、如何用工具解決問題,AI 反而會讓學習更高效。教育的重點,也將會從“會不會”轉向“怎麼用”。未來的每個人競爭力在於誰能更快把 AI 融入日常工作,讓自己從重複勞動中解放出來,把時間用在更高價值的部分。第四道題|社會跟得上嗎:這是最難的前三道題講了能力、算力、工作。最難的題是:社會跟得上嗎?模型訓練速度在加快,能力在跳躍,可能一年就跨越多代。但社會結構的變化,職業體系、企業流程、法律框架、公共認知,不可能同步跟進。Altman 說:能力提升容易,學會怎麼用才難。1、治理的核心:給社會留出適應時間面對外界對 AI 失控的恐慌,Altman 坦言,他最擔心的是大眾對“治理”的誤解。很多人把監管等同於“阻擋技術前進”,卻忽略了監管的真正目的:是幫助社會打好地基,去安全地擁抱這種前所未有的新能力。他給出了破局的三個關鍵點:逐步開放新功能。新功能上線,使用者學習,行業適應,風險暴露,再調整。這就是“迭代部署”的意義:給社會留出適應時間,不是一次性放開。讓更多人用得起最強工具。如果只有少數人用得起,創新、教育、創業都會受限。普惠既降低風險,也擴大機會。真正的風險來自不會用。模型不懂人類價值,但人懂。問題出在不知道怎麼正確使用,不具備判斷能力,用老辦法應對新工具。2、治理靠分散智慧,各國在探索現在,各個國家正在嘗試不同的監管方法。Altman 認為這是好事:接下來幾年,我們會看到很多不同的嘗試,觀察那些有效、那些無效。世界會傾向於更有效的方法。他尤其強調,當 AI 滲透到千行百業,單靠任何一家科技巨頭,都不可能搞懂所有領域的細節風險。Altman 說:“好的辦法是讓各行各業的人都來討論,而不是只靠科技公司制定規則。”各行各業參與能減少風險,但不能消除不確定性。面對這樣強大的技術,Altman 說,最重要的是保持謙遜。我們最好的猜測也可能是錯的,AI 的發展已經帶來了很多意外,未來還會有更多。結語|說透了什麼這場新德里的訪談,Altman 講了四道題:能力到那了:已經能做研究級工作算力夠不夠:遠遠不夠工作怎麼變:性質在變,不會消失社會跟得上嗎:這是最難的他沒給答案,但把每道題的核心矛盾說清楚了。能力在跨越,算力在追趕,工作在重塑,社會在適應。誰能更快把 AI 融入日常工作,誰就能在這輪變化中佔據主動。 (AI深度研究員)
OpenAI 凌晨開槍:公司倒閉的第一原因,是你招了太多“人”
“公司失敗的第一原因,永遠是人招多了。”這是昨天凌晨,矽谷傳來的最寒冷的一聲槍響。在 2026 年初的這場直播上,OpenAI CEO Sam Altman 撕掉了最後一層溫情的面紗。對全球最頂尖的開發者,輕描淡寫地扔下了一枚核彈:"We are planning to dramatically slow down how quickly we grow because we think we'll be able to do so much more with fewer people." (我們計畫大幅放緩增長速度,因為我們要用更少的人做更多的事。)你沒聽錯。全球最頂級的 AI 公司,手握著改變世界的技術,它的第一反應不是擴軍備戰,而是開始“嫌棄”人類了。注意,這是來自全球 AI 領頭羊的訊號。過去十年,矽谷的鐵律是“Headcount(人頭數)= 增長”。但現在,OpenAI 在主動剎車。它在向所有老闆傳遞一個極其危險的訊號:傳統的僱傭邏輯已經崩塌,未來的公司是“超級個體”與“無限算力”的組合。01.僱傭邏輯的崩塌在這場直播中,最令人背脊發涼的一段話,發生在一場關於面試的問答裡。為什麼 OpenAI 敢停止擴招?因為單位人效的衡量標準變了。Altman 描述了他們理想中的面試場景:不再是考你如何手寫紅黑樹,也不是考你 LeetCode 刷了多少題。他們要看的是:"Sit you down with something that would have been impossible for one person to do in two weeks... and watch them do it in ten minutes or twenty minutes." (把你按在椅子上,給你一個以前單人兩周絕對幹不完的任務……然後看著你在10到20分鐘內搞定。)這就是 2026 年的及格線:20分鐘 = 2周。這對老闆來說:未來的公司形態,是“超級個體 + 無限算力”,而不是“千人團隊 + 複雜的KPI”。如果你還在靠堆人頭來做增長,你就像是在熱兵器時代,還在練習拼刺刀。真正的降維打擊是:我的一個員工帶著一堆 AI Agent(智能體),能在20分鐘內幹掉你一個部門兩周的產量。這就是 Sam 口中的“無限博士後(Unlimited Post-docs)”待遇。正如 Altman 所言,軟體工程並沒有消失,但形態徹底變了。以前你是砌磚的,現在你是設計圖紙並看著機器人砌磚的——如果你還想親手砌磚,你就是公司的負資產。02.隱私的徹底讓渡這裡有一個殘酷的邏輯死結:每個人都想成為那種“以一當百”的超級個體,但你有沒有想過,憑什麼 AI 能幫你做到?前提是,它必須比你更懂你。當 WorkOS 的提問者希望將 ChatGPT 帳號與公司身份整合時,Altman 坦承了一個極其激進的個人習慣。他已經跨過了“隱私恐懼”的門檻,進入了“完全功利主義”的階段:"I am ready for ChatGPT to just look at my whole computer... and just know everything." (我已經準備好讓它讀取我的整個電腦,知道我的一切。)他甚至直言,他不想在那兒手動分類“這是工作記憶,這是個人記憶”,因為他“懶(lazy)”。 他希望 AI 能自動理解他生活的層級和複雜規則。這極其可怕,也極其真實。作為 OpenAI 的 CEO,他比誰都清楚資料隱私的風險,但他依然選擇讓渡隱私。為什麼?因為價值實在太高了。當 AI 能瞬間幫你調取三年前的一封郵件並結合昨天的會議紀要起草方案時,99% 的人會像 Altman 一樣,一邊罵著監控,一邊把所有權限都點“Allow”。03.“罐頭人”悖論技術狂飆突進,但人類的心理防線卻在收縮。Altman 在對話中提到了一個極具諷刺意味的現象:AI 越完美,人類越討厭它。他提到了一個詞:"Clanker"(罐頭人/破銅爛鐵)。這是《星球大戰》裡對機器人的蔑稱,現在成了網路上對 AI 生成內容的歧視性稱呼。"'Clanker' is my favorite one [slur]... I think it just evokes people's emotional reaction." (“罐頭人”是我最喜歡的那個蔑稱……它激發了人們的情緒反應。)Altman 分享了一個反直覺的觀察:消費者其實分不清誰畫的更好,但一旦他們知道這是 AI 畫的,欣賞度就會**“dramatically”(戲劇性地)下降。這給了所有內容創作者一個極其重要的啟示:在 2026 年,"Human Made"(純手工)將成為奢侈品標籤。人們閱讀小說、欣賞畫作,本質上不是在消費內容,而是在消費“另一個人的生命體驗”。當我們讀完一本好書,我們想去瞭解作者的生平;但如果書是 AI 寫的,這種連接感瞬間崩塌,變成了一種 Altman 口中的“悲傷的把戲”。未來的商業邏輯會極其分裂:底層的工具流:交給 AI,追求極致的降本增效(100倍成本縮減)。頂層的體驗流:強調人的參與,人的痛苦,人的不完美。04.尾篇在對話的最後,一位來自越南的學生問出了那個終極問題:在 AI 時代,我們到底該學什麼?Altman 沒有推薦程式設計,也沒有推薦 提示詞工程。他給出的答案是三個看似“虛無縹緲”的詞:High Agency、Generate Ideas、Resilience別誤會,這並不是那套“只要努力就能成功”的職場雞湯。在“20分鐘幹完2周活”的殘酷背景下,這三個詞有更血腥的解讀:高能動性意味著沒有老闆告訴你該做什麼。因為老闆也沒空管你,你要麼自己找到破局點,要麼被系統自動最佳化掉。產生想法意味著當執行成本趨近於零(20分鐘),想法的質量就是一切。如果你只會執行,你的價值就是零。韌性不是讓你在被裁員時不哭,而是當你的工作被 AI 瞬間秒殺時,你能立刻擦乾冷汗,問出:“好,那我怎麼利用這個工具去做更牛逼的事?”工具的門檻已經平了。未來只有兩種人:一種是被 AI 的洪流沖刷得無影無蹤的“執行者”,另一種是騎在 AI 背上,指揮千軍萬馬的“暴君”。OpenAI 已經停止擴招了。現在的顯微鏡,移到了你的身上。 (科技然後呢)