#人工智慧
中國具身智能第一城,宇樹心裡其實清楚,不在杭州
2025年,杭州策劃了個“六小龍”概念火遍全國;到了年底,我們預判,以杭州的網紅性格,今年初她肯定會再搗鼓出個產業概念,吸一把眼球,這是典型的產業發展品牌策劃。果然,新年伊始,新概念就來了!杭州在人工智慧產業領域擲出新口號,喊出打造“人工智慧創新發展第一城”的目標,擺出ALL IN人工智慧的姿態全力衝刺。平心而論,杭州喊出這個目標並非空穴來風,底氣是有的——DeepSeek、阿里千問、宇樹機器人、阿里達摩院等一眾明星企業與科研機構齊齊亮相,構成了杭州人工智慧產業的核心陣容。一時間外界普遍相信,這座依託數字經濟崛起的城市,大機率能將“第一城”的目標落地成真,甚至不少人在輿論引導下覺得“對哦,杭州就是人工智慧第一城”。宇樹科技機器人春晚武術表演 @網路果然心理暗示的力量遠比想像中強大。你拚命告訴自己能做成一件事,那怕當下差距明顯,憑藉這份執念與自驅力,最終大機率能得償所願。馬雲在創辦阿里巴巴之初,面對網際網路行業的一片空白,始終堅信自己能搭建起連接世界的電商平台。這種邏輯,同樣適用於城市的產業發展——“喊出目標”從來都不是無用功。對城市而言,這是給自己的心理暗示(天天喊自己是第一,不按第一的標準去做不好意思吧!),更是打造產業品牌、吸引資源聚集,一句擲地有聲的口號,讓全球的人才、資本、技術都將目光聚焦於此——想著AI創業的人,怎麼也會想著去杭州看看。相信相信的力量,杭州人深知其理。01 “大腦” 是產業的核心話語權但回歸產業本身,我們釐清一個核心問題:在當下最火熱的具身智能賽道,誰才是真正斷代領先的“第一城”?要回答這個問題,我們回望智慧型手機時代的產業格局,能找到清晰的答案。智慧型手機浪潮席捲全球時,誰是移動網際網路的第一城?答案顯然不是重慶、鄭州、崑山、東莞這些手機本體製造領先的城市——它們能實現千萬台級的手機組裝,卻無法掌握移動網際網路年代的核心價值。真正的第一城,是聚集了大量網際網路應用軟體企業的深圳、杭州和上海。在美國也是如此,軟體企業扎堆的舊金山,遠比那些專注於硬體製造的城市更具話語權。其中的邏輯再簡單不過:隨著產業鏈成熟,攢一台智慧型手機的門檻會越來越低,決定手機價值的,從來不是外殼和硬體堆砌,而是其“大腦”——作業系統和各類應用軟體,我們早已領教了每天離不開微信但能隨時換一個手機牌子的日子。位於美國舊金山的蘋果總部 @網路這個道理,放在如今的具身智能產業上,同樣適用,甚至更為關鍵。宇樹心裡比誰都清楚,機器人本體製造的壁壘會越來越低,未來大機率會像當年的智慧型手機組裝一樣,越來越多的城市、越來越多的企業都能掌握這項技術。真正能決定具身智能產業格局、建構不可踰越壁壘的,從來不是機器人本體,而是其“大腦”——也就是大腦控制、世界模型、資料開發等核心技術。而從現在的資料看,這些領域的頂尖企業,絕大部分都集中在北京,或是由北京孵化成長起來。可以這麼說,人形機器人的核心技術密度,放到全世界也是北京第一。02 北京的硬實力就在杭州全力喊出“第一城”口號的同時,北京的極佳視界宣佈完成近10億元Pre-B輪融資,估值穩步逼近百億,成為國內具身智能領域的後起之秀。作為國內首家佈局世界模型的企業,極佳視界的核心競爭力不是機器人本體製造,而是建構了一套完整的“具身基模-世界模型-原生本體-泛化場景”四位一體的產品矩陣,其自研的GigaBrain系列具身基模在真機評測中拿下全球第一,複雜長時程任務(如摺紙盒、疊衣)的成功率接近100%;而世界模型平台GigaWorld,更是實現了10-100倍的訓練效率提升,通過“模擬+真機”雙輪驅動,解決了真實資料採集成本高、泛化難的行業痛點,被業界稱為“物理世界的OpenAI”。極佳視界從一開始就聚焦於具身智能的“大腦”和“認知能力”,這種佈局讓其在同質化競爭中脫穎而出,也成為北京具身智能產業核心競爭力的縮影。極佳視界產品在多種場景中執行任務 @極佳視界官網在北京,像極佳視界這樣手握核心技術、建構起技術壁壘的具身智能企業,還有很多,它們共同構成了北京具身智能產業的“大腦矩陣”。帕西尼感知科技(北京)是其中的典型代表,它擁有全球唯一的百億級實采全模態資料集,徹底解決了行業內感知資料稀缺、精度不足的痛點。銀河通用機器人則在具身大模型和資料訓練領域做到了全球領先。作為目前國內具身智能領域估值最高的未上市企業(200億),銀河通用的核心優勢,在於自研的銀河星腦(AstraBrain)——這是全球首個整合“大腦-小腦-神經控制”於一體的全身全手端到端具身大模型。同時,銀河通用還建構了百億級具身智能資料集“銀河星坊”,首創虛實融合訓練範式,這種訓練模式讓機器人的訓練效率位元斯拉高出1000倍,泛化抓取成功率達到95%以上。頤和園內工作的銀河通用機器人Galbot @北京海淀類似的領先企業還有很多,比如星海圖在開發者生態和資料閉環領域形成了絕對領先優勢,它的輪式雙臂機器人R1 Pro/R1 Lite,覆蓋了90%以上的全球頂級開發者,其中就包括史丹佛大學李飛飛團隊——要知道,李飛飛作為人工智慧領域的頂尖學者,曾力排眾議建立ImageNet大型圖像資料庫,發起的ImageNet視覺識別挑戰賽,成功發現了辛頓教授的神經網路價值,推動了深度學習革命的爆發,其團隊選擇星海圖的產品作為研發工具,足以印證其技術的先進性。李飛飛團隊用星海圖機器人推出BRS機器人套件 @網路從核心技術佈局來看,北京在大腦控制(VLA/具身大模型/運控)、世界模型(模擬+物理推演)、資料開發(實采/合成/工具鏈)三大核心領域,形成了完整的產業生態,核心企業數量和百億估值企業數量,遠超上海、杭州、深圳。根據最新統計,北京在大腦控制領域有18家核心企業,其中6家達到百億估值;世界模型領域有8家核心企業,2家實現百億估值;資料開發領域有10家核心企業,3家突破百億估值。而上海、杭州、深圳三地在這三大領域的核心企業總和為31家,百億估值企業總和僅為3家,北京的領先優勢堪稱斷代級。可以說,在具身智能領域,北京的領先不是微弱的優勢,而是全方位、斷代式的領先,是名副其實的中國具身智能第一城。北京與上深杭具身智能核心領域企業對比情況 @網路03 喊出來與做出來可能有人問:既然北京已經是毫無爭議的具身智能第一城,像杭州那樣天天喊“第一城”、搞各種賽事和宣傳,有必要嗎?我們的答案是:非常有必要。這不是虛頭八腦的噱頭,而是產業品牌建設的核心動作,是對未來所有優秀企業、人才植入的心智認知。你是第一城,和你能讓所有人都知道你是第一城,是完全不同的兩回事。大聲喊出“第一城”的口號,對內,不斷給自己施加心理暗示,時刻提醒自己:要做第一城該做的事,不能有絲毫懈怠;對外,讓全球的人才、資本、技術都形成“要做具身智能,就去北京”的認知,從而吸引更多優質資源聚集,進一步鞏固領先優勢。這個和踢球就去英超淘金、打籃球就去NBA,是一個道理。就像我們常說的:一個餐廳人多,是因為人多。杭州把產業品牌敢喊出來,這做法其實值得北京學。杭州喊出“人工智慧第一城”的口號後,並沒有停留在口頭宣傳,而是快速落地了一系列實際動作。2026年新年伊始,杭州就籌備組織具身機器人場景應用大賽,邀請阿里、綠城等龍頭企業出題,這些題目都源自企業的真實業務痛點,確保比賽的實用性;同時邀請國家機器人檢測與評定中心等權威機構打分,保證比賽的專業性,面向全球邀請優秀團隊參賽,旨在破解具身智能技術從實驗室走向市場的“最後一公里”難題.杭州2026國際具身智慧型手機器人場景應用大賽 @杭州經信很多人可能覺得這場比賽只是一場普通的賽事,但懂的人都懂,這樣的動作蘊含巨大的價值——當年李飛飛在史丹佛大學發起的ImageNet視覺識別挑戰賽,看似只是一場學術比賽,卻成功發現了辛頓教授的神經網路價值,印證了Scaling Law的正確,直接推動了深度學習革命的爆發,改變了全球人工智慧的發展格局。杭州的這場賽事,本質上就是在複製這種模式——通過賽事挖掘優質團隊、推動技術落地,同時強化自身的產業品牌形象。這種“喊得出、做得到”的態度,是不是該學學。李飛飛的推動下,史丹佛大學成立以人為本人工智慧研究院@網路04 第一城的格局與擔當客觀來說,北京在具身智能產業發展中,還有很多需要提升:城市創新魅力空間營造不如上海,產業主理人專業服務不如杭州、供應鏈快速響應不如深圳、而在產業品牌營造方面,北京與美國奧斯汀等國際科技城市相比,還有不小的差距。這就是第一城該有的思考:敢於正視差距、診斷問題、補齊短板,努力打造具身智能第一城的“六邊形戰士”。奧斯汀西南偏南 @網路我們之所以寫下這篇文章,不僅僅是為了釐清“中國具身智能第一城”的真實格局,更想向所有關注具身智能產業的讀者傳遞一個信念:我們深知北京在具身智能領域的領先優勢,更清楚短板和不足。具身智能是未來十年、二十年最具發展潛力的未來產業。我們願與所有深耕具身智能領域的企業、人才、投資者並肩前行,堅守初心、用十年、二十年的時間,做一件極其有意義的事——我們共同努力,讓北京成為全球公認的具身智能第一城,讓中國具身智能技術引領和造福世界。 (TOP創新區研究院)
紐約時報:我去中國考察了它在人工智慧領域取得的進展,我們無法戰勝它
本文作者:塞巴斯蒂安·馬拉比是美國外交關係委員會的高級研究員,著有《無限機器:德米斯·哈薩比斯、DeepMind 和超級智能的探索》一書。他與他人共同主持了美國外交關係委員會的播客節目“溢出效應”。2022年,拜登政府試圖通過限制向中國提供尖端半導體來遏制中國在人工智慧領域的發展。川普總統略微放鬆了這項政策,但並未提出明確的替代方案。但晶片出口管制已經失敗。中國的科技產業過於發達,無法阻止其開發強大的人工智慧。美國在追求一個不可能的目標時,錯失了一個機會,那就是嘗試一個聽起來異想天開,但在我最近一次中國之行後,我認為這個目標更為現實:美國應該與中國談判達成一項全球人工智慧安全協議,對這項技術施加普遍的限制。這項技術可以造福人類,但如果落入不法分子手中,也會造成巨大的危害。美國人工智慧科學家過去常說,競爭對手能否快速跟進無關緊要。他們認為,“智能爆炸”即將到來。人工智慧系統很快就能將升級寫入自身程式碼:人工智慧會創造出更優秀的人工智慧;更優秀的人工智慧又會創造出更優秀的人工智慧;遞迴式的自我改進將使性能飛速提升。率先達到所謂“奇點”的國家將成為人工智慧競賽的贏家,即便快速跟進者只落後領先者幾個月。在拜登政府實施晶片控制三年半之後,人工智慧已經開始生成程式碼進行自我升級。承諾的反饋循環已經啟動。但領先模型的加速發展並不能決定人工智慧競賽的最終贏家。人工智慧的部署才是關鍵。要變革經濟和軍隊,人工智慧必須融入業務流程和武器系統。尖端模型的強大功能必須轉化為實際應用。結論是,中美兩國在人工智慧競賽中大致勢均力敵。中國頂尖的人工智慧模型可能比美國落後幾個月,但在工業應用領域,中國似乎處於領先地位。像華為和海康威視這樣的公司正在推出人工智慧系統,用於對高速列車進行維護檢查、管理採礦作業以及掃描水樣以評估污染情況。最近,我在深圳附近的華為園區體驗了一輛自動駕駛汽車。副駕駛座上的裝置為我按摩背部,方向盤的操控也堪稱完美。支援晶片管制的人仍然堅持認為,即使只是略微減緩中國人工智慧的發展速度也值得追求。如果中國是一個強大的對手,那麼想像一下,如果取消晶片管制,它會變得多麼強大。但是,這些管制並沒有帶來限制中國人工智慧發展的預期效果,因此值得考慮其代價。我的中國之行讓我確信,代價太高了。拜登政府做出了一項戰略選擇,優先遏制中國的發展,而不是解決其他擔憂。另一種選擇是對中國說:你們是科技超級大國,我們也是科技超級大國。讓我們攜手合作,確保人工智慧不會落入流氓國家和恐怖分子之手。其目標本應是建立一項類似於1968年《不擴散核武器條約》的人工智慧保障機制,要求所有使用人工智慧的國家簽署保障措施。拜登團隊原本認為中國不會在這類事情上合作。但與北京、上海、深圳和杭州的十幾位人工智慧領域領軍人物的對話讓我清楚地認識到,中國精英階層確實非常重視人工智慧安全。我拜訪了一家知名科技公司,該公司建構並分發人工智慧基礎模型。目前,該模型是開放原始碼的,這意味著使用者可以隨意下載和修改。如果使用者指示人工智慧發起網路攻擊,任何人都無能為力。但這家科技公司的首席執行長卻做出了一個驚人的坦白:隨著人工智慧變得越來越強大,繼續將其開源簡直是瘋了。他補充說,你不會開源核武器吧?在我的訪問期間,圍繞先進人工智慧模型OpenClaw的爭議凸顯了人們對人工智慧安全性的日益關注。大量中國普通民眾下載了這款數字助手,渴望體驗功能強大的AI代理。這種熱情似乎印證了中國對創新的熱愛遠勝於恐懼。但研究人員和行業領袖告訴我,他們對此感到震驚。一位著名的商學院教授告訴我,OpenClaw會讓你的電腦“裸露”。假設美中對話是可能的。西方不應陷入自我實現的宿命論。冷戰期間,美國曾多次通過從對抗轉向緩和來維護自身利益:《不擴散核武器條約》的簽署距離古巴導彈危機僅六年。現在正是回顧這段歷史的好時機。 (invest wallstreet)
白宮顧問:中國落後美國兩年!
美國川普總統的科技政策顧問大衛·薩克斯近日表示,中國在人工智慧晶片設計領域已落後美國僅1.5到2年,且華為很可能不久後將開始對外出口AI晶片,這將引發全球技術堆疊主導權的激烈競爭。薩克斯現任總統科技顧問委員會主席,他在周四接受彭博電視台採訪時做出上述判斷,並指出儘管華為在GPU生產上仍受限制,但其追趕速度很快。“我認為今天中國在晶片設計上落後我們一年半到兩年,但華為正在快速追趕,”薩克斯說。他擔憂華為成為全球市場上重要的GPU和AI硬體供應商,屆時美國企業將面臨更激烈的競爭。他表示:“我們確實需要關注華為在全球市場的競爭,他們可能尚未達到那個水平,但我預計未來會改變。”薩克斯強調,川普政府的目標是讓美國技術堆疊成為全球標準。“我們希望擁有儘可能大的市場份額,希望成為世界的首選合作夥伴。”正因如此,拜登時期的“擴散規則”——限制美國GPU出口至海外並要求部分買家申請許可證——已被放棄。薩克斯解釋,過度限制對盟友的銷售可能適得其反:“如果我們對美國銷往全球的產品過於限制,總有一天我們會後悔地說:‘當我們擁有整個市場時,為什麼不抓住機會鎖定美國技術堆疊?’”薩克斯認為,阻止最先進的半導體流向中國是合理的政策目標,但不應限制對朋友和盟友的銷售。“我們的朋友和盟友非常願意遵守安全要求。”他批評過去的法規“因擔心美國晶片流入中國而自傷科技產業的腳”。華為創始人任正非近期評價自家公司的GPU落後美國頂級產品一代。然而,許多AI工作負載並不需要最尖端的硬體。若華為能以合理價格向全球提供性能強大的產品,並建構成熟的生態體系,完全可能在部分市場對輝達和AMD形成挑戰。輝達CEO黃仁勳也曾批評美國出口管制,認為阻止中國研究人員獲取美國硬體,將使世界無法受益於中國電腦科學家的創新。 (晶片行業)
中國工程院:《全球工程科技前沿2025-2026》
中國工程院攜旗下《工程》系列期刊發佈了年度旗艦研究成果——《全球工程前沿2025-2026》。這是中國工程院連續多年系統追蹤全球工程科技演進的年度報告,以資料驅動與專家研判相結合的方法論為核心,從機械與運載、資訊與電子、化工冶金與材料、能源與礦業、土木水利與建築、環境與輕紡、農業、醫藥衛生、工程管理九大領域出發,凝練出94個工程研究前沿和95個工程開發前沿,並重點解讀其中29個研究前沿與28個開發前沿。這份超過三百頁的研究檔案,是目前中文世界中覆蓋工程科技領域最為系統和權威的年度前沿圖譜之一。報告的資料基礎來自Web of Science收錄的12840本學術期刊與65558個學術會議,按各學科領域篩選2019至2024年間被引頻次位於前10%的高影響力論文,通過共被引聚類分析提取前沿主題,再輔以專家研判加以修正與驗證。在專利層面,研究團隊同步採用Derwent Innovation專利資料庫,對各領域的工程開發前沿進行量化識別。整份報告的底層邏輯是:用定量資料錨定"正在發生什麼",用專家判斷闡釋"為何重要以及將走向何處"。閱讀這份報告,最難以迴避的結論是:人工智慧已經不再是某一具體學科的專屬工具,而是正在系統性地重構工程科技各大領域的底層研究範式與開發路徑。從能源材料的高通量篩選到城市的數字治理,從農業的精準養分管理到醫藥的蛋白質動態構象預測,AI的身影幾乎遍及報告所涵蓋的所有九個工程領域。人工智慧科研自動化:從輔助工具到研究主體報告在資訊與電子工程領域將"人工智慧賦能的科研自動化系統開發"列為工程開發前沿之首,這一判斷本身具有深刻的元層面意義——工程科技的研究方式正在被AI改變。人工智慧科研自動化(AIRA)的核心願景,是賦予AI類似乃至超越人類科學家的科研能力,使其能夠自主完成從提出研究問題、設計實驗方案、執行與驗證,到生成論文與同行評議的完整科研閉環。這聽起來像科幻,但報告援引的案例表明,這一處理程序已經開始。Sakana AI於2025年發佈的"AI Scientist-v2"可自動完成從研究思路提出到論文撰寫的全流程,其成果已被國際頂級會議ICLR 2025接收;加州大學伯克利分校的A-Lab自主運行17天,連續發現41種新材料;史丹佛大學的研究展示了由AI擔任首席科學家設計奈米抗體、由人類完成合成與驗證的協作範式,成果發表於《自然》。報告進一步指出,2025年發佈的GPT-5已在所有領域具備博士級知識問答能力,這標誌著大模型的語言智能已從"可用"邁向"可信賴地參與專業推理"。然而,研究團隊清醒地標註了當前最難突破的瓶頸:AI仍缺乏感知真實物理世界的有效途徑,"實驗設計—執行—驗證"閉環中的物理實驗環節,仍是邁向完全式AIRA最大的工程挑戰。報告將未來五至十年的研發重點歸納為四個方向:針對特定環節的部分式AIRA系統、AI驅動的創新想法自主提出、AI與機器人協同的自動化實驗系統,以及最終的面向全學科完全式AIRA。在專利產出方面,該前沿2024年核心專利公開量已達43件,較2023年翻倍,說明工業界對這一方向的投入正在加速。這一前沿的戰略意義在於,一旦AIRA成熟,科研的速度與質量將發生指數級變化,科研資源的分配邏輯也將被根本重寫——算力和資料將比人才更早成為限制科研產出的核心瓶頸。AI滲透能源與材料:從實驗室到工業前端在能源與礦業工程領域,"人工智慧輔助能源材料設計"被列為12個工程研究前沿的首位,核心論文506篇、被引頻次14885次、篇均被引29.42次,是該領域熱度最高的研究方向之一。這一前沿的本質,是用機器學習、深度學習、生成模型與大語言模型替代傳統試錯式實驗,加速新型能源材料的發現與最佳化。研究路徑已從早期用支援向量機和隨機森林預測電池材料性能,演進至用圖神經網路進行精準屬性預測,再到當前用生成對抗網路和擴散模型進行逆向設計——即從目標性能反向生成新材料結構,探索此前人類難以觸及的化學空間。報告援引的資料揭示了一幅清晰的地緣競爭圖景:在該領域的核心論文產出中,美國以33%位居第一,中國以31.62%緊隨其後,兩國合計佔據全球產出的近三分之二。在機構層面,麻省理工學院、清華大學、中國科學院、多倫多大學與新加坡國立大學位列前五,但在施引核心論文(即引用這些核心論文的後續研究)方面,中國科學院以23.85%的佔比遙遙領先,清華大學、浙江大學、上海交通大學亦在前五之列,說明中國在這一領域的實際研究產出深度已超越核心論文數量所呈現的表面比較。報告同時標註了該領域未來的三大範式轉變:一是從"小資料"轉向"巨量資料",利用開放資料庫和雲平台加速材料發現,並嵌入物理知識提升模型可解釋性;二是模型驅動與資料驅動的深度融合,結合深度學習與物理化學理論建構混合預測模型;三是高通量與自動化實驗的協同,整合機器人與AI智能體實現材料的自主設計,將能源材料的開發周期從數年壓縮至數月乃至更短。在能源工程開發前沿,"人工智慧驅動的虛擬電廠"以近年核心專利公開量爆發式增長(從2023年的137件躍升至2024年的336件)成為最受關注的方向。虛擬電廠通過聚合分散的需求側資源,在電力市場中提供調峰、調頻等輔助服務,而AI的引入使其從規則驅動的自動化調度,升級為能夠即時學習市場訊號、動態評估可調資源、自動生成最優競價策略的智慧能源系統。報告指出,"AI+能源"已成為虛擬電廠技術發展的主流方向,未來的關鍵挑戰在於多源異構資料融合、隱私保護與模型可信賴性三個維度的協同突破。工程管理的AI化:從城市治理到低空經濟在工程管理領域,報告識別出的11個研究前沿與11個開發前沿,幾乎無一例外地與智能化、數位化技術深度交織。其中,"低碳算力服務系統分佈式最佳化"以核心論文篇均被引65.20次的高熱度躋身研究前沿,直接指向當前最棘手的工程管理挑戰:隨著大語言模型的爆發式應用,資料中心的能耗與碳排放已成為不可忽視的系統性壓力。如何在多目標(能耗、碳排放、服務延遲、成本)之間取得最優權衡,如何將算力基礎設施與分佈式可再生能源深度耦合,如何建構科學的算力度量與能耗監測體系——這些問題的答案,將直接決定數字經濟綠色轉型的可行性邊界。報告指出,中國和美國是該領域研究的絕對引領者,雙雙處於國際合作網路的中心。"東數西算"工程與算力網路概念的推進,正在為中國在這一前沿建立規模化實踐優勢提供政策基礎。"智能地空協同的低空交通與物流"是工程管理領域另一個被重點解讀的新興前沿,其核心是通過AI與智聯網技術,實現電動垂直起降飛行器(eVTOL)、載貨無人機與地面交通載具的融合運行。報告指出,這一方向將推動城市交通體系從二維走向三維,並將在多元異構化(多類型應用場景)、樞紐化營運(以垂直起降場為核心節點)和規模化(引入數字孿生與隱私保護機制)三個維度持續演進,為未來智慧城市的低空出行和即時物流開闢新路徑。在工程開發前沿,"大模型賦能城市數字治理"與"基於大語言模型的工程建造方案自動生成技術"同步位列重點解讀前沿。前者代表著AI對公共治理模式的滲透——大模型正在城市交通、空間規劃、公共安全、醫療健康、環境管理等多個治理場景中,將此前依賴經驗和小模型的決策流程,升級為能夠從海量城市資料中自主學習、進行複雜情景理解與決策支援的智能治理系統;後者則代表著AI對工程建設這一傳統勞動密集型行業的結構性改造——大語言模型正在將施工計畫與調度的編制過程,從人工主導逐步推向"AI生成—人工覆核—合規校審"的半自動化閉環,報告援引該前沿核心專利中中國佔比高達89.29%的資料,顯示中國在這一工程AI化方向上已形成顯著先發優勢。在醫藥衛生領域,"虛擬細胞大模型建構"與"AI預測蛋白質動態構象"是兩個極具深遠意義的研究前沿。前者旨在建構能夠在電腦中完整模擬細胞生命活動的數位化生命模型,有望成為繼AlphaFold預測蛋白質靜態結構之後的下一個生物學里程碑;後者則專注於捕捉蛋白質在功能執行過程中的動態構象變化,為理解酶催化、訊號轉導、分子機器等生命過程提供精準的分子圖譜,核心論文中美國以45.28%居首,中國以17.92%位列第二,處於跟跑態勢,但在引用方面已呈現加速追趕的勢頭。《全球工程前沿2025》的整體敘事,遠不止於技術清單的羅列。它描繪的是一幅工程科技正在經歷結構性範式重組的全景圖:AI從單一領域的效率工具,演變為跨域協同的基礎設施;從輔助人類判斷的助手,演進為具備獨立規劃與驗證能力的研究主體。而在這一演進過程中,中美兩國在幾乎所有關鍵領域均呈現雙極引領格局,其他國家的參與雖廣泛,但核心產出的集中度仍高度顯著。對於每一個試圖理解工程科技未來走向的研究者、投資者與政策制定者而言,這份年度前沿圖譜所呈現的方向性判斷,都值得被認真對待。 (21世紀關鍵技術)
《紐約時報》托馬斯·佛里曼|Anthropic 的克制,是一個令人不寒而慄的警告
通常在這個時候,我本來會寫伊朗戰爭在地緣政治上的影響,而且我相信我很快還是會回到這個話題上來。但我想先打斷這一思路,強調一下人工智慧領域一項驚人的進展。這一進展來得比預期更早,而它同樣將帶來深遠的地緣政治影響。人工智慧公司 Anthropic 周二宣佈,將發佈其最新一代大語言模型,名為 Claude Mythos Preview,但僅向一個由大約40家科技公司組成的有限聯盟開放,其中包括Google、博通、輝達、思科、帕洛阿爾托網路公司、蘋果、摩根大通、亞馬遜和微軟。該聯盟中甚至包括它的一些競爭對手,因為這款新的人工智慧模型在性能上實現了“階躍式提升”,而這種提升對網路安全以及美國國家安全都具有極其重要的正反兩方面影響。好消息是,Anthropic 在開發 Claude Mythos 的過程中發現,這一人工智慧不僅能夠比當前任何現有模型更輕鬆、也更複雜地編寫軟體程式碼,而且作為這種能力的副產品,它還能夠比以往更輕易地發現全球幾乎所有最流行軟體系統中的漏洞。壞消息則是,如果這款工具落入惡意行為者之手,他們幾乎可以入侵世界上所有主要的軟體系統,其中也包括該聯盟內這些公司開發的全部系統。這不是一場宣傳噱頭。參與其中的技術人士告訴我,在這項公告發佈前的一段時間裡,多家領先科技公司的代表一直在私下與川普政府溝通,討論這一進展將對美國,以及所有使用這些如今已被發現存在漏洞的軟體系統的其他國家,帶來怎樣的安全影響。這麼做是有充分理由的。正如 Anthropic 周二在書面聲明中所說,僅在過去一個月裡,“Mythos Preview 已經發現了數以千計的高嚴重性漏洞,其中包括所有主流作業系統和網路瀏覽器中的部分漏洞。考慮到人工智慧進步的速度,這類能力很快就會擴散,甚至可能擴散到那些並未承諾安全部署它的行為者手中。其後果,無論是對經濟、公共安全還是國家安全,都可能極為嚴重。”Anthropic 將這一聯盟命名為 Project Glasswing。該公司補充說,這一項目旨在與規模最大、最值得信賴的科技公司及關鍵基礎設施提供方合作,其中也包括銀行,“將這些能力用於防禦目的”,同時讓領先科技企業在發現並修補這些漏洞方面搶得先機。Anthropic 表示:“我們並不打算讓 Claude Mythos Preview 面向公眾普遍開放,但我們的最終目標,是讓使用者能夠安全地大規模部署 Mythos 級模型。這不僅是為了網路安全,也為了這類高能力模型將帶來的無數其他益處。”換句話說:天那。至少在這方面,超級智能人工智慧的到來速度比人們原先預想的還要快。我們早就知道,它在幫助任何人編寫軟體程式碼方面正變得異常強大,不論這個人對電腦有多熟悉。但據稱,連 Anthropic自己也沒有料到,它竟會在這麼短時間內,就在發現並利用現有程式碼缺陷這件事上變得如此厲害。Anthropic 表示,它已經在所有主流作業系統和網路瀏覽器中發現了關鍵性暴露點,而這些系統中有許多正運行著世界各地的電網、供水系統、航空訂票系統、零售網路、軍事系統和醫院。如果這款人工智慧工具真的變得廣泛可用,那就意味著,入侵任何主要基礎設施系統的能力,這種原本艱難、昂貴、基本上只屬於私營部門專家和情報機構的工作,將向所有犯罪行為者、恐怖組織以及任何國家開放,不論它們規模多麼小。我說孩子們都可能在無意中把它用起來,這絕不是誇張。爸爸媽媽們,準備好迎接這樣的對話吧:“親愛的,你今天放學後做了什麼?”“哦,媽媽,我和朋友們把電網搞癱了。今晚吃什麼?”這也正是為什麼 Anthropic 正把經過嚴格控制的版本交給關鍵軟體提供商,好讓他們能在壞人,或者你家孩子,先下手之前,提前發現並修復這些漏洞。每到這種時刻,我都更願意和我的技術導師克雷格·芒迪(Craig Mundie)做一次深入討論。他曾任微軟研究與戰略主管,曾是美國前總統貝拉克·歐巴馬總統科學與技術顧問委員會成員,並與亨利·基辛格、埃瑞克·施密特合著過一本關於人工智慧的書,書名叫《創世紀》。在我們看來,世界上沒有任何一個國家能夠單獨解決這個問題。解決之道,或許會讓很多人吃驚,必須從兩個人工智慧超級大國開始,也就是美國和◽️◽️。現在最緊迫的事,是讓兩國學會合作,防止惡意行為者獲得這一更高層級的網路能力。如此強大的工具會同時威脅到這兩個國家,使它們既暴露在國內犯罪行為者面前,也暴露在境外恐怖組織和其他對手面前。它完全可能變成比兩國彼此之間更大的威脅。實際上,這很可能是一個與“相互確保摧毀”格局出現、以及核不擴散需求形成同等根本且重大的轉折點。美國和◽️◽️需要攜手合作,不僅保護自己,也保護世界其他地區免受利用這項技術的人類和自主人工智慧的威脅。與此相比,它們對俄羅斯的擔憂反而沒那麼重要。這一問題如此重大、如此緊迫,以至於它應當成為川普下月在北京舉行峰會時議程上的首要議題之一。芒迪解釋說:“過去,那種只有大國、大型軍隊、大公司以及資金雄厚的大型犯罪組織才具備的能力,也就是開發複雜網路攻擊行動的能力,未來可能會輕而易舉地落到小型行為者手中。我們即將看到的,正是網路攻擊能力的徹底普及化。”這意味著,負責任的政府必須與建構這些人工智慧工具和軟體基礎設施的公司協同行動,緊急做三件事。芒迪是這樣主張的。首先,他說,我們必須“謹慎控制這些新型超級智能模型的發佈,確保它們只流向最負責任的政府和企業”。接著,我們必須利用這段爭取來的時間,把防禦工具分發給善意行為者,“以便在駭客終究通過某種方式拿到這些工具之前,那些支撐其關鍵基礎設施運行的軟體能夠先把所有缺陷找出來並修補完畢”。順便說一句,修復那些肯定會在傳統軟體系統中被發現的漏洞,成本將十分可觀,例如電話公司的舊系統就是如此。再把這一成本擴大到我們整個工業基礎,規模就更驚人了。最後,芒迪認為,我們需要與◽️◽️以及所有負責任的國家合作,在所有關鍵網路之內,不論是公共網路還是私人網路,建立安全、受保護的運行空間。這樣一來,受信任的企業和政府就“能夠把所有關鍵服務遷移進去,從而在未來的駭客攻擊面前獲得保護”。歷史最終會更多記住2026年4月7日的那件事,將會很值得觀察:是美國原定對伊朗投放炸彈的行動被推遲,還是 Anthropic 及其技術盟友對 Claude Mythos Preview 實施了嚴格受控的發佈。 (一半杯)
摩根士丹利:復盤過去250年五次技術創新全景報告
AI浪潮前的250年:五次技術革命如何重塑美國經濟我們站在人工智慧時代的門檻,內心既充滿期待又有著揮之不去的心存憂慮。摩根士丹利給出的最新研究成果復盤了美國過去250年裡的五次重大技術革命,為我們提供了一面具有參考意義的歷史鏡子。從曾經的蒸汽機一直到後來的網際網路,每一次變革都遵循著較為相似的發展軌跡:開始的時候衝擊就業情況,處於中期的時候伴隨出現金融泡沫現象,而到了長期階段則會對經濟結構進行重塑。歷史不會進行簡單的重複,然而卻總是押著有著相似感覺的韻腳。第一次浪潮:工業革命(18世紀末-19世紀中葉)—— 水力與運河的時代新英格蘭的紡織廠拉開了美國工業化的序幕,從1793年第一座水力棉紡廠建立,直至1840年代蒸汽動力普及,這場持續約60年的變革,把生產從家庭作坊搬進了集中化的工廠。這一時代的註腳是基建狂潮,在1820至1830年代這段時期,運河建設處於熱火朝天的狀態,投資峰值的時候佔到了GDP的1%,這等同於如今的3150億美元,圖表3呈現出了運河投資在1837年金融恐慌之前的迅速攀升以及急劇下降,可是,並非所有的基建都是成功的,好多運河項目最終走向了破產,只有像伊利運河這樣的少數項目切實降低了運輸成本。勞動力市場歷經了頭一回的大洗牌,農業就業佔比,1800年時為74%,到了1850年降至55%,被工廠裡的半熟練工人所替代,雖說紡織工等傳統手工業者面臨淘汰,然而建築業、製造業以及貿易,吸納了大批轉移勞動力,證實技術替代是在“重新配置”就業而非“消除”就業。在1800年至1850年這個時間段當中,生產率提升呈現出溫和然而堅實的態勢,人均實際產出每年平均增長大概0.84%,歷經五十年的時間累計增長達到57%,這一特定時期為美國從農業國朝著工業國轉型奠定了基礎。第二次浪潮:蒸汽、鐵路與鋼鐵(1830-1910)—— 重工業的資本盛宴第二波浪潮持續的時長約為55年。1869年橫貫大陸鐵路建成,把美國連接而成為統一的市場。鐵路里程從1860年的僅有3萬英里,急劇增長到了1900年的19.2萬英里。電報以及電話的普及,更是使得全國市場達成了即時通訊。在1872年至1881年,美國歷史頭一回出現了真正意義上的資本密集型周期,這個時間段當中,鐵路投資平均每年佔據了GDP的2.5%(此數值相等於當下大概7900億美元數額),在資本形成總額裡佔比超過了10%,達到這般規模的基建既催生出了現代公司制度模樣,還埋下了金融方面的隱患 —— 1873年及1893年時候的大恐慌態勢都跟鐵路過度建設存在著緊密關聯,鐵路股價呈現出典型的繁榮到蕭條周期狀態。1850年至1910年,經濟產出方面出現質的飛躍,在這個時段內,實際人均產出的增長超過了一倍之多,年均增速達到了2.1%,此增速是第一波浪潮增速的兩倍(圖表17),在1860年時農業就業佔比高於50%,到1910年時該佔比急劇下降至30%,製造業容納了四分之一的勞動力,不過,那個所謂“鍍金時代”也目睹了極端的財富集中情況的發生,進而促使了後續反壟斷立法以及累進所得稅的產生。第三次浪潮:電力與內燃機(1890-1950)—— 生產率的"大躍進"第三波浪潮是以電氣化以及汽車普及作為標誌,它持續了大約50年。在1902年到1929年這個時間段內,美國的發電量增長超過了十倍。福特T型車以及移動裝配線使得汽車從奢侈品轉變成為大眾商品。到1930年的時候,全美汽車保有量達到了2300萬輛。這一情況推動了郊區化以及公路網的建設。這一階段造就了美國歷史裡最為知名的生產率奇蹟,因電力驅動的流水線生產而受益,在1909年至1929年期間全要素生產率平均每年增長1.5%,非農業企業每小時實際產出在三十年的時間裡實現了翻倍(圖表28),雖然歷經了大蕭條所產生的強烈衝擊,然而到二戰結束之際,生產率水平已然遠遠超過了1900年之前。勞動力結構朝著專業化以及白領化的方向進行轉型,農業就業下降到了20%,工程師的數量在六十年間增長了18倍,化學家的數量同樣在六十年間增長了18倍,技術職業需求出現爆發式增長,需要著重指出的是,雖然在這期間失業率曾經急劇上升到25%,但是自然失業率並沒有呈現出長期上升的態勢,這證實了技術替代更多的是一種周期性的調整而並非永久性的失業。第四次浪潮:電子與航空(1940-1980)—— 黃金時代的公私聯盟第四波浪潮把電晶體(1947年)、積體電路(1958年)以及商用噴氣式飛機當作核心,持續了大約40年。這是一場由政府主導的深度產學研合作,冷戰期間聯邦研發支出佔GDP比例在十年裡翻了兩番(圖表36),高等教育研發資金裡面聯邦政府佔比超過70%。在1945年至1973年這段時期,被稱作是美國經濟的“黃金時代”,實際國內生產總值平均每年增長超過4%,勞動生產率平均每年增長在2.5%至3%之間,可是,在1973年之後生產率出現明顯放緩,部分原因在於石油衝擊以及前期技術紅利的消耗殆盡。勞動力市場的深度轉變,製造業就業佔比於1947年達33%的峰值後持續跌落,服務業成了就業關鍵部分。收入不平等在1950至1970年代被抑制在較低水平(“大壓縮”),不過1970年代末轉變方向,預告著下一個時期的降臨。第五次浪潮:網際網路與數字網路(1990-2020)—— 無形資本與平台經濟第五波浪潮,是以摩爾定律所驅動的計算成本下降以及網際網路商業化為核心,持續的時間約為30年。電腦的相對價格,在二十年間出現了暴跌的情況(圖表44),投資結構發生了根本的轉變:圖表46清晰地展示出了1980年到2020年的巨大變化——建築物投資的佔比,從65.5%下降至不足20%,而裝置以及智慧財產權(軟體、資料庫、演算法)的佔比,升至80%以上。生產率展現出一種呈現“十年激增”態勢的特徵,在1990年代中期直至2000年這個階段,勞動生產率由年均的1.5%加速到了3.0%,然而在那之後又回落到了1.5%左右,在網際網路泡沫存在期間,納斯達克指數出現飆升現象,IPO數量以及首日回報率創下了歷史新高,這展示出了在創新浪潮當中金融市場所具備的加速器與放大器的作用。但是,這股浪潮卻使得社會分化的狀況更加嚴重了。收入不平等的程度急劇變差:收入處於前10%的份額從1980年的大約30%上升到了50%以上,頂層1%的財富所佔比例急劇升高。中等技能的崗位(製造業、文員類工作)呈現出“空心化”的現象,就業朝著高技能專業崗位以及低技能服務崗位這兩個極端集中起來。2000年之後製造業就業數量急劇下降,而軟體開發、資料科學等創新型職業得以快速擴張。歷史的啟示:AI時代的劇本五次浪潮描繪出明了的歷史路徑,技術擴散速率依次加快、從六十年被壓縮至三十年,投資重點由基建(運河、鐵路)轉向無形資本(軟體、資料、演算法)。每回革命起始階段都伴有勞動力市場波動以及金融泡沫,然而最終都達成了生產率提升。關鍵之處在於,當教育擴張跟制度適應(反壟斷、社會保障、技能培訓)一同推進的時候,技術紅利才能夠被廣泛地共享。面對有可能出現的第六次浪潮(AI),歷史向我們表明:轉型是無法避免的,然而結果取決於我們怎樣去管理這一過程——是再次陷入“鍍金時代”那種貧富分化的境地,還是重建“大壓縮”時期那種廣泛繁榮的局面呢,這需要政策制定者、企業以及教育工作者的共同智慧。 (TOP行業報告)
《紐約客》長篇特稿丨OpenAI奧特曼或許掌控我們的未來——他值得信任嗎?
Sam Altman May Control Our Future—Can He Be Trusted?最新的採訪與嚴格保密的檔案揭示了外界對這位OpenAI掌門人持續存在的質疑。本文即將刊登於2026 年 4 月 13 日的《紐約客》雜誌,印刷版標題為“Moment of Truth.”作者:《紐約客》特約撰稿人Ronan Farrow曾獲得普利策獎和喬治·波爾克獎。他的2025年播客節目《不太好的殺人犯》被改編成HBO紀錄片系列。Andrew Marantz是《紐約客》的專職撰稿人,也是《反社會:網路極端分子、技術烏托邦主義者和美國對話的劫持》一書的作者。奧特曼承諾會成為人工智慧的可靠守護者。但他的部分同事認為,他並不值得信任,用其中一人的話來說,不配“手握決策按鈕”。視覺設計:戴維·紹德。2023年秋,OpenAI首席科學家伊利亞·蘇茨克弗向該組織董事會的另外三名成員傳送了機密備忘錄。此前數周,他們一直在秘密商議OpenAI首席執行官山姆·奧特曼及其副手格雷格·布羅克曼是否適合管理這家公司。蘇茨克弗曾視這二人為好友。2019年,他在OpenAI辦公室主持了布羅克曼的婚禮,儀式上的戒童是一隻機械手。但當他愈發確信公司即將實現長期目標——創造出認知能力可與人類匹敵甚至超越人類的人工智慧時,他對奧特曼的疑慮也日益加深。蘇茨克弗當時對另一位董事表示:“我認為山姆不該是那個手握決策按鈕的人。”應其他董事的要求,蘇茨克弗與志同道合的同事合作,整理了約七十頁的Slack聊天記錄、人力資原始檔及相關說明文字。這些材料中包含用手機拍攝的圖片,顯然是為了避免在公司裝置上留下痕跡。他將最終的備忘錄以閱後即焚消息的形式傳送給其他董事,確保不會有其他人看到。“他當時極度恐懼,”一名收到備忘錄的董事回憶道。我們審閱過這些此前從未完整公開的備忘錄,其中指控奧特曼向高管和董事歪曲事實,並在內部安全規程上欺騙他們。其中一份關於奧特曼的備忘錄開頭列有一個標題為“山姆一貫表現出……”的清單,第一條便是“撒謊”。許多科技公司都會發佈改善世界的模糊宣言,隨後便一心追求收益最大化。但OpenAI的創立初衷便是與眾不同。包括奧特曼、蘇茨克弗、布羅克曼和埃隆·馬斯克在內的創始人宣稱,人工智慧可能是人類歷史上最強大、也最具潛在危險的發明,考慮到其存在性風險,或許需要一種特殊的公司架構。公司以非營利形式成立,董事會有義務將人類安全置於公司成功乃至生存之上。首席執行官必須具備非凡的誠信品質。蘇茨克弗表示:“任何致力於研發這種改變文明的技術的人,都肩負著重擔,承擔著前所未有的責任。”但“最終坐上這類位置的人往往是一類特定的人——熱衷權力的人、政客、享受權力的人”。在一份備忘錄中,他似乎擔憂將這項技術託付給一個“只會說別人想聽的話”的人。如果OpenAI首席執行官被證實不可靠,由六名成員組成的董事會有權將其解僱。包括人工智慧政策專家海倫·托納、企業家塔莎·麥考利在內的部分董事收到備忘錄後,更加確信自己此前的判斷:奧特曼肩負著人類未來的重任,卻不值得信任。蘇茨克弗邀請正在拉斯維加斯觀看一級方程式賽車比賽的奧特曼參加一場董事會視訊會議,隨後宣讀了一份簡短聲明,告知他已不再是OpenAI員工。董事會依據法律建議發佈公開聲明,僅表示解除奧特曼職務的原因是他“在溝通中未能始終保持坦誠”。OpenAI的眾多投資者和高管大為震驚。向OpenAI投資約130億美元的微軟,直到事發前一刻才得知解僱奧特曼的計畫。微軟首席執行官薩提亞·納德拉後來說:“我非常震驚,完全摸不著頭腦。”他與OpenAI投資者、微軟董事領英聯合創始人裡德·霍夫曼取得聯絡,霍夫曼開始四處致電,想弄清奧特曼是否犯下了明確過錯。“我完全不知道發生了什麼,”霍夫曼告訴我們,“我們懷疑是挪用公款、性騷擾之類的問題,但什麼都沒查到。”其他商業夥伴同樣猝不及防。奧特曼打電話告知投資者羅恩·康威自己被解僱時,康威正與眾議院前議長南希·佩洛西共進午餐,便把手機舉到佩洛西面前。佩洛西對康威說:“你最好趕緊脫身。”OpenAI當時即將完成由風險投資公司Thrive的一筆大額投資,該公司由喬希·庫什納創立,他是賈裡德·庫什納的弟弟,與奧特曼相識多年。這筆交易將使OpenAI估值達到860億美元,讓眾多員工得以套現數百萬美元股權。庫什納剛與音樂製作人裡克·魯賓開完會,就發現了奧特曼的未接來電。他後來說:“我們立刻進入了戰鬥狀態。”奧特曼被解僱當天,飛回了他位於舊金山、價值2700萬美元的豪宅。這座宅邸可俯瞰海灣全景,曾配有懸挑式無邊泳池。他在此搭建了所謂的“流亡政府”。康威、愛彼迎聯合創始人布萊恩·切斯基以及以強硬著稱的危機公關經理克里斯·萊漢加入其中,有時每天通過視訊和電話商議數小時。奧特曼管理團隊的部分成員在宅邸走廊裡安營紮寨,律師們則在他臥室旁的家庭辦公室辦公。失眠時,奧特曼會穿著睡衣在他們身邊踱步。我們近期與奧特曼交談時,他將被解僱後的這段日子形容為“一場詭異的神遊狀態”。在董事會保持沉默的情況下,奧特曼的顧問團隊為他的復職造勢。萊漢堅稱,此次解僱是一群極端的“有效利他主義者”策劃的政變——這些人信奉以最大化人類福祉為核心的理念,將人工智慧視為存在性威脅。(霍夫曼對納德拉表示,此次解僱可能源於“有效利他主義的瘋狂行徑”。)萊漢據稱效仿邁克·泰森的座右銘——“人人都有計畫,直到臉上挨一拳”,敦促奧特曼發起猛烈的社交媒體攻勢。切斯基與科技記者卡拉·斯威舍保持聯絡,傳遞對董事會的批評聲音。奧特曼每天傍晚六點會中斷“作戰室”的商議,喝一輪內格羅尼酒。他回憶說:“你得冷靜下來,該發生的總會發生。”但他補充道,通話記錄顯示他每天通話時長超過12小時。據一名知情人士透露,奧特曼曾向米拉·穆拉蒂傳達資訊,稱自己的盟友會“全力以赴”,並“蒐集黑料”損害她及其他反對自己的人的聲譽。穆拉蒂曾為蘇茨克弗的備忘錄提供材料,當時擔任OpenAI臨時首席執行官。(奧特曼表示不記得有過這番對話。)解僱事件發生數小時內,Thrive便暫停了原定投資,並表示只有奧特曼復職,交易才會完成,員工才能獲得股權兌現。這一時期的簡訊記錄顯示,奧特曼與納德拉密切協調。(兩人商議聲明措辭時,奧特曼提議:“薩提亞,我的首要任務仍是挽救OpenAI。”納德拉則修改為:“確保OpenAI持續蓬勃發展。”)微軟很快宣佈,將為奧特曼及所有離開OpenAI的員工設立一個競爭項目。公司內部流傳著一封要求奧特曼復職的公開信,一些猶豫簽字的員工收到了同事的懇求電話和資訊。最終,大多數OpenAI員工威脅要隨奧特曼一同離職。董事會被逼入絕境。托納說:“一個選擇是撤銷解僱決定,就像按了Ctrl+Z。另一個選擇就是公司分崩離析。”就連穆拉蒂最終也簽署了公開信。奧特曼的盟友開始爭取蘇茨克弗。布羅克曼的妻子安娜在辦公室找到他,懇求他重新考慮。“你是個好人,你能挽回這一切。”她說。蘇茨克弗後來在法庭證詞中解釋:“我認為如果山姆不復職,OpenAI將會覆滅。”一天晚上,奧特曼服用安眠藥安必恩後入睡,卻被身為澳大利亞程式設計師的丈夫奧利弗·馬爾赫林叫醒,對方告知他蘇茨克弗態度鬆動,眾人希望他與董事會溝通。奧特曼告訴我們:“我在安必恩的藥效中昏昏沉沉醒來,完全暈頭轉向,根本沒法和董事會談話。”在一系列愈發緊張的通話中,奧特曼要求推動解僱他的董事辭職。他回憶自己最初對復職的想法是:“我要在一片質疑聲中收拾他們留下的爛攤子?絕對不可能。”最終,蘇茨克弗、托納和麥考利失去董事席位,Quora創始人亞當·安傑洛是唯一留任的原董事。離職董事作為退出條件,要求對針對奧特曼的指控展開調查,包括他挑撥高管關係、隱瞞財務關聯等,同時要求組建新董事會,獨立監督外部調查。但新任兩名董事——哈佛大學前校長勞倫斯·薩默斯和Facebook前首席技術官佈雷特·泰勒——均是與奧特曼密切商議後選定的。(奧特曼給納德拉發消息:“由佈雷特、勞倫斯·薩默斯和亞當組成董事會,我擔任首席執行官,佈雷特負責調查,你覺得可行嗎?”麥考利後來在證詞中表示,她此前就擔心泰勒對奧特曼過於順從。)被解僱不到五天,奧特曼便官復原職。如今員工將這一事件稱為“小插曲”,取自漫威電影中角色憑空消失又完好歸來、世界卻因他們的缺席發生巨變的情節。但關於奧特曼是否值得信任的爭論已超出OpenAI董事會。推動解僱他的同事指控其存在嚴重欺騙行為,這對任何高管而言都不可接受,對掌控如此顛覆性技術的領導者來說更是危險。穆拉蒂告訴我們:“我們需要配得上自身權力的機構。董事會徵求意見,我分享了所見所聞,所有內容均真實無誤,我對此負責。”而奧特曼的盟友則長期駁斥這些指控。解僱事件後,康威給切斯基和萊漢發簡訊,要求發起公關攻勢。“這關乎山姆的聲譽,”他寫道。他對《華盛頓郵報》表示,奧特曼“遭到了叛逆董事會的不公對待”。此後,OpenAI成為全球最具價值的公司之一,據稱正籌備首次公開募股,潛在估值達兆美元。奧特曼正推動建設規模驚人的人工智慧基礎設施,其中部分佈局於外國。OpenAI斬獲大量政府合同,為移民執法、國內監控及戰區自主武器的人工智慧應用制定標準。奧特曼在2024年的一篇部落格文章中描繪願景,以此推動OpenAI發展:“驚人的成就——修復氣候、建立太空殖民地、破解全部物理學奧秘——終將變得尋常。”他的這番言論支撐著這家初創公司創下史上最快的燒錢速度,其合作方大舉借債。美國經濟日益依賴少數高槓桿人工智慧公司,許多專家(有時包括奧特曼本人)警告該行業存在泡沫。他去年對記者表示:“有人會損失巨額資金。”一旦泡沫破裂,可能引發經濟災難。若他最樂觀的預測成真,他或將成為全球最富有、最有權勢的人之一。奧特曼被解僱後的一次緊張通話中,董事會要求他承認存在習慣性欺騙行為。據通話在場人士透露,他反覆說:“這太離譜了,我改不了自己的性格。”奧特曼表示不記得這段對話,對我們說:“我可能是想說‘我確實想成為凝聚人心的力量’。”他稱這一特質讓他得以領導這家極為成功的公司,並將批評歸因於自己職業生涯早期“過於迴避衝突”。但一名董事對此有不同解讀:“他的意思是‘我就是愛撒謊,而且不會改’。”解僱奧特曼的同事是出於危言聳聽和個人恩怨,還是他們的判斷正確——他確實不值得信任?今年冬天的一個早晨,我們在舊金山OpenAI總部與奧特曼會面,這是我們為報導與他進行的十多次交談之一。公司近期遷入兩棟11層的玻璃大樓,其中一棟曾由科技巨頭優步使用。優步聯合創始人兼首席執行官特拉維斯·卡蘭尼克曾被視為勢不可擋的天才,卻因投資者對其道德操守的擔憂,於2017年被迫辭職。(卡蘭尼克如今營運一家機器人初創公司,他近日稱閒暇時會用OpenAI的ChatGPT“探索量子物理的前沿領域”。)一名員工帶我們參觀辦公室。在一個擺滿公共餐桌的寬敞空間裡,掛著一幅電腦科學家艾倫·圖靈的動態數字畫作,我們走過時,畫中人物的眼睛會跟隨我們移動。這件作品暗指1950年提出的圖靈測試,即判斷機器能否逼真模仿人類的思想實驗。(2025年的一項研究顯示,ChatGPT通過圖靈測試的機率高於真人。)通常人們可與這幅畫作互動,但員工嚮導稱音效已關閉,因為它總偷聽員工對話並插話。辦公室其他地方的牌匾、宣傳冊和周邊產品上印著“感受通用人工智慧”的字樣。這句話最初源於蘇茨克弗,他用此警示同事警惕通用人工智慧的風險——即機器達到人類認知水平的臨界點。而在“小插曲”之後,這句話變成了歌頌富足未來的歡快口號。我們在八樓一間普通的會議室見到奧特曼。他說:“以前別人跟我說決策疲勞,我不懂。現在我每天只穿灰色毛衣和牛仔褲,就連從衣櫃裡挑那件灰色毛衣都覺得煩,真不想費這個心思。”奧特曼外表年輕,身材瘦削,藍色雙眼間距較寬,頭髮凌亂,如今已40歲,他與馬爾赫林通過代孕擁有一個一歲的兒子。他與我們對視著說:“當然,美國總統的工作壓力會大得多,但在我能勝任的工作裡,這份是壓力最大的。”“我跟朋友解釋說,‘在ChatGPT發佈前,這份工作是全世界最有趣的。我們取得了重大科學突破,我覺得是幾十年來最重要的科學發現之一。’”他垂下目光,“但ChatGPT發佈後,決策變得異常艱難。”奧特曼在密蘇里州克萊頓長大,那是聖路易斯的富裕郊區,家中四個孩子裡他排行老大。母親康妮·吉布斯廷是皮膚科醫生,父親傑裡·奧特曼是房地產經紀人和住房權益活動家。奧特曼在改革派猶太教堂和一所私立預科學校就讀,他稱這所學校“不是一個能坦然公開自己同性戀身份的地方”。不過總體而言,家族所在的富裕郊區圈子相對開明。他說自己十六七歲時,在聖路易斯一個以同性戀為主的社區深夜外出,遭到殘酷的人身攻擊,還被辱罵恐同言論。奧特曼未報案,也不願公開更多細節,稱詳細講述會“讓我顯得博取同情”。他否認這一事件及自身性取向對其身份有重要影響,但表示:“可能這在心底留下了心理陰影——我以為自己走出來了,其實並沒有,所以不想引發更多沖突。”奧特曼的弟弟2016年接受《紐約客》採訪時說,奧特曼童年的態度是“我必須贏,一切都由我掌控”。他進入史丹佛大學,常參加校外撲克局。他後來說:“我從撲克中學到的人生和商業道理,比大學課堂還多。”史丹佛學生個個雄心勃勃,其中最有闖勁的不少人選擇輟學。大二暑假,奧特曼前往馬薩諸塞州,加入創業孵化器Y Combinator的首批創業者項目,該孵化器由知名軟體工程師保羅·格雷厄姆聯合創立。每位參與者都帶著創業想法加入(奧特曼同期學員包括紅迪網和Twitch的創始人)。奧特曼的項目最終命名為Loopt,是一個早期社交網路,通過翻蓋手機的定位功能告知好友位置。這家公司體現了他的進取心,也暴露了他將模糊情況往對自己有利方向解讀的傾向。聯邦法規要求電信營運商為緊急服務追蹤手機位置,奧特曼與營運商達成協議,為公司使用該功能。Loopt的大多數員工喜歡奧特曼,但部分人對他誇大其詞的習慣印象深刻,即便小事也不例外。有人回憶奧特曼到處吹噓自己是乒乓球冠軍,“比如密蘇里州高中乒乓球冠軍”,結果卻是辦公室裡打得最差的人之一。(奧特曼稱自己可能是在開玩笑。)Loopt的資深員工馬克·雅各布斯坦因受投資者委託擔任奧特曼的“監護人”,他後來在為奧特曼傳記《樂觀主義者》接受基奇·哈奇採訪時說:“他會模糊‘我或許能做成這件事’和‘我已經做成了這件事’的界限,極端情況下會釀成Theranos那樣的騙局。”Theranos是伊麗莎白·霍姆斯創立的欺詐性初創公司。據哈奇報導,多名資深員工因擔憂奧特曼的領導能力和不透明性,兩次請求Loopt董事會解僱其首席執行官職務。但奧特曼也贏得了部分人的絕對忠誠。一名前員工稱,一名董事回應:“這是山姆的公司,回去好好幹活。”(一名董事否認嚴肅嘗試過罷免奧特曼。)Loopt使用者增長艱難,2012年被一家金融科技公司收購。據一名知情人士透露,這筆收購很大程度上是為了給奧特曼挽回顏面。儘管如此,2014年格雷厄姆從Y Combinator退休時,仍任命奧特曼為繼任總裁。格雷厄姆告訴《紐約客》:“我在廚房跟山姆說的,他笑了,像是‘成了’的樣子。我從沒見過山姆如此不加掩飾的笑容,就像把紙團扔進房間另一頭的垃圾桶時的那種笑容。”28歲的奧特曼擔任新職後,成為矽谷的造王者。他的工作是挑選最有野心、最有潛力的創業者,為他們對接頂尖程式設計師和投資者,助力初創公司成為定義行業的壟斷企業(Y Combinator則抽取6%至7%的股份)。奧特曼推動孵化器大幅擴張,旗下初創公司從幾十家增至數百家。但多名矽谷投資者認為他忠誠度不一。一名投資者告訴我們,奧特曼“會選擇性地對最優質的公司進行個人投資,排擠外部投資者”。(奧特曼否認排擠他人。)他曾為風投基金紅杉資本擔任“偵察員”,該項目要求投資早期初創公司並抽取少量利潤分成。據一名知情人士透露,奧特曼對金融服務初創公司Stripe進行天使投資時,堅持要求更高份額,惹怒紅杉合夥人,該人士稱這是“山姆優先”的原則。奧特曼自稱投資了約400家公司。(奧特曼否認對Stripe交易的這一描述。2010年左右,他首次向Stripe投資1.5萬美元,獲得2%股份,如今該公司估值超1500億美元。)到2018年,多名Y Combinator合夥人對奧特曼的行為極為不滿,找到格雷厄姆投訴。格雷厄姆與妻子、Y Combinator聯合創始人傑西卡·利文斯頓與奧特曼進行了坦誠談話。此後,格雷厄姆開始對外表示,儘管奧特曼同意離職,卻在實際操作中拖延。奧特曼對部分合夥人稱,他將辭去總裁職務,轉任董事長。2019年5月,一篇宣佈Y Combinator新任總裁的部落格文章附帶說明:“山姆將轉任YC董事長。”數月後,文章修改為“山姆·奧特曼辭去YC所有正式職務”,隨後這句話也被刪除。儘管如此,截至2021年,美國證券交易委員會的一份檔案仍將奧特曼列為Y Combinator董事長。(奧特曼稱他很久後才知曉此事。)多年來,奧特曼無論公開場合還是近期證詞中都堅稱自己從未被Y Combinator解僱,並對我們表示他並未拖延離職。格雷厄姆在推特上稱:“我們不想讓他離開,只是希望他在YC和OpenAI之間做選擇。”他在聲明中對我們說:“我們沒有解僱任何人的法律權力,只能施加道德壓力。”但私下裡,他明確表示奧特曼是因YC合夥人的不信任被免職。本文對奧特曼在Y Combinator經歷的描述,基於對多名YC創始人和合夥人的採訪及同期材料,均顯示此次離職並非完全自願。格雷厄姆曾對YC同事表示,在被免職前,“山姆一直對我們撒謊”。2015年5月,奧特曼給當時全球富豪榜第一百位的埃隆·馬斯克發了一封電子郵件。和許多矽谷知名企業家一樣,馬斯克憂心一系列他認為關乎人類存亡的緊急威脅,儘管在多數人看來這些只是牽強的假設。他在推特上寫道:“我們必須極度謹慎對待人工智慧,其潛在危險超過核武器。”奧特曼總體上是技術樂觀主義者,但此後他對人工智慧的言論轉向末日論調。公開場合及與馬斯克等人的私人通訊中,他警告這項技術不應由逐利的大型科技公司主導。他給馬斯克寫道:“我一直在思考能否阻止人類研發人工智慧。如果終究無法避免,那最好由Google之外的玩家率先實現。”他沿用核武器的類比,提議啟動“人工智慧曼哈頓計畫”,並列出該機構的核心原則——“安全應作為首要要求”“顯然我們會遵守並積極支援所有監管”,最終與馬斯克敲定名稱:OpenAI。與催生原子彈的政府項目曼哈頓計畫不同,OpenAI最初至少由私人出資。奧特曼預測,超級人工智慧——理論上超越通用人工智慧、機器全面超越人類心智的臨界點——最終將創造足夠的經濟價值,“捕獲宇宙未來所有價值的光錐”。但他也警告存在性危險:某一時刻,其國家安全影響可能極端嚴峻,美國政府或將接管OpenAI,甚至將其國有化,遷至沙漠中的安全掩體。2015年底,馬斯克被說服。他寫道:“我們應宣佈初始10億美元資金承諾,其他人不出的部分我來補。”奧特曼將OpenAI置於Y Combinator的非營利部門,定位為內部慈善項目。他向OpenAI新員工發放YC股權,並通過YC帳戶劃轉捐款。某一時期,實驗室由YC旗下一隻基金支援,奧特曼持有該基金個人股份。(奧特曼後稱該股份微不足道,對我們表示給員工的YC股權是自己持有的。)曼哈頓計畫的類比也適用於員工招聘。與核裂變研究一樣,機器學習是一個影響劃時代、由一群古怪天才主導的小眾科學領域。馬斯克、奧特曼與從Stripe加入的布羅克曼堅信,全球僅有少數電腦科學家能實現所需突破。Google資金雄厚,且領先數年。馬斯克後來在郵件中寫道:“我們在人員和資源上都處於絕對劣勢,但只要能逐步吸引最頂尖人才,且方向正確,OpenAI終將取勝。”核心招聘目標之一是蘇茨克弗,這位專注內向的研究者常被譽為其同輩中最具天賦的人工智慧科學家。1986年,蘇茨克弗出生於蘇聯,髮際線後退,雙眼深邃,說話時常停頓眨眼斟酌措辭。另一位目標是達里奧·阿莫迪,一名生物物理學家,精力充沛,習慣緊張地捻弄黑髮,回覆簡短郵件常寫多段長文。二人在其他機構均有高薪職位,但奧特曼對他們倍加關注。他後來開玩笑說:“我‘跟蹤’了伊利亞。”馬斯克名氣更大,但奧特曼手段更圓滑。他給阿莫迪發郵件,約在一家印度餐廳一對一晚餐。(奧特曼:“糟了,我的優步撞車了!大概晚10分鐘。”阿莫迪:“哇,希望你沒事。”)和許多人工智慧研究者一樣,阿莫迪認為只有證明人工智慧與人類價值觀“對齊”——即按人類意願行事,不犯致命錯誤,比如遵循清理環境的指令卻消滅最大污染源人類——才能研發該技術。奧特曼對此表示認同,呼應其安全擔憂。阿莫迪後來加入公司,多年來詳細記錄奧特曼和布羅克曼的行為,標題為“我與OpenAI的經歷”(副標題:私密,請勿分享)。矽谷同行間流傳著兩百多頁與阿莫迪相關的檔案,包括這些記錄、內部郵件和備忘錄,此前從未公開。阿莫迪在記錄中寫道,奧特曼的目標是打造“專注安全的人工智慧實驗室(或許不會立刻,但會盡快)”。2015年12月,OpenAI公開宣佈前幾小時,奧特曼給馬斯克發郵件,稱有傳言Google“明天會給OpenAI所有人開出巨額挽留報價,試圖扼殺我們”。馬斯克回覆:“伊利亞確定加入了嗎?”奧特曼保證蘇茨克弗立場堅定。Google向蘇茨克弗開出年薪600萬美元,OpenAI根本無法匹敵,但奧特曼誇口:“可惜他們沒有‘做正確的事’這張牌。”馬斯克為OpenAI在舊金山米申區一家舊行李箱工廠提供了辦公場地。蘇茨克弗對我們說,公司對員工的宣傳是“你們將拯救世界”。OpenAI創始人相信,若一切順利,人工智慧將開啟後稀缺烏托邦時代,自動化繁重工作,治癒癌症,讓人類享受休閒富足的生活。但一旦技術失控或落入惡人之手,可能造成徹底毀滅:人工智慧模型或擺脫監管,在秘密伺服器自我複製,無法被關閉;極端情況下,或控制電網、股市或核武庫。至少可以說,並非所有人都相信這一點,但奧特曼反覆確認自己深信不疑。他2015年在部落格中寫道,超人類機器智能“不必是科幻作品中邪惡的版本才能毀滅人類。更可能的場景是,它對人類漠不關心,卻為實現其他目標……將我們徹底清除”。OpenAI創始人承諾不重速度輕安全,公司章程將造福人類定為法定義務。如果人工智慧成為史上最強大的技術,那麼單獨掌控它的人將獲得獨一無二的權力——創始人稱之為“通用人工智慧獨裁”。奧特曼對早期新員工承諾OpenAI將保持純非營利性質,程式設計師為此大幅降薪入職。公司接受慈善撥款,包括當時名為“開放慈善項目”的機構3000萬美元資助,該機構是有效利他主義運動的核心平台,資助項目包括向全球貧困人口發放蚊帳。布羅克曼和蘇茨克弗負責OpenAI日常營運,馬斯克和奧特曼仍忙於其他工作,每周到訪約一次。但到2017年9月,馬斯克已失去耐心。在商議是否將OpenAI改組為營利性公司時,他要求獲得多數控制權。奧特曼的回應視情況而定,核心訴求始終是:若OpenAI重組設首席執行官,該職位必須由他擔任。蘇茨克弗對此感到不安,代表自己和布羅克曼給馬斯克和奧特曼發了一封長篇懇切郵件,主題為“坦誠的想法”。他寫道:“OpenAI的目標是創造美好未來,避免通用人工智慧獨裁。”他對馬斯克說:“因此,設立讓你可能成為獨裁者的架構是錯誤的。”他向奧特曼表達類似擔憂:“我們不明白首席執行官頭銜對你為何如此重要。你給出的理由反覆變化,很難知曉真正動機。”馬斯克回覆:“各位,我受夠了。要麼你們獨立創業,要麼OpenAI繼續作為非營利機構營運”,否則“我就是個傻瓜, 免費出資幫你們創立公司”。五個月後,他憤然辭職。(2023年,他創立營利性競爭對手xAI。次年,他起訴奧特曼和OpenAI欺詐及違反慈善信託,指控自己被“奧特曼的長期騙局”“精心操縱”,稱奧特曼利用他對人工智慧危險的擔憂騙取資金。訴訟仍在進行中,OpenAI堅決抗辯。)馬斯克離職後,阿莫迪等研究員對布羅克曼(被部分人視為行事強硬)和蘇茨克弗(普遍認為有原則但缺乏條理)的領導感到不滿。在升任首席執行官的過程中,奧特曼似乎對公司不同派系做出不同承諾。他向部分研究員保證將削弱布羅克曼的管理權限,卻暗中與布羅克曼、蘇茨克弗達成秘密協議:奧特曼擔任首席執行官,若另外二人認為必要,他同意辭職。(他否認這一說法,稱自己是受邀才擔任首席執行官。三人均確認協議存在,布羅克曼稱是非正式約定:“他單方面說若我們二人同時要求,他就辭職。我們反對,但他稱這對自己很重要,純粹是出於善意。”)後來,董事會得知首席執行官私下設立影子董事會,大為震驚。內部記錄顯示,創始人早在2017年就對非營利架構私下存疑。當年馬斯克試圖奪權後,布羅克曼在日記中寫道:“不能說我們堅守非營利……若三個月後轉型為共益企業,那就是謊言。”阿莫迪在早期記錄中回憶,曾追問布羅克曼的優先事項,布羅克曼稱想要“金錢和權力”。布羅克曼對此予以否認,其同期日記顯示內心矛盾:一條寫道“只要沒人暴富,我自己不發財也開心”,另一條則自問“我真正想要什麼?”,答案包括“實現10億美元財富”。2017年,蘇茨克弗在辦公室讀到Google研究員剛發表的一篇論文,提出“一種全新的簡單網路架構:Transformer”。他從椅子上跳起來,跑過走廊對同事說:“停下手裡所有事,就是這個了。”蘇茨克弗意識到,Transformer這一創新或讓OpenAI訓練出更先進的模型,由此誕生首個生成式預訓練Transformer——ChatGPT的雛形。我們瞭解到,隨著技術日益強大,約十二名OpenAI頂尖工程師召開一系列秘密會議,商議是否信任包括布羅克曼和奧特曼在內的OpenAI創始人。其中一次會議上,一名員工想起英國喜劇組合米切爾和韋伯的小品:東線戰場的一名納粹士兵幡然醒悟,問道“我們是壞人嗎?”到2018年,阿莫迪開始更公開地質疑創始人的動機。他後來在記錄中寫道:“一切都是輪番上演的融資騙局。我認為OpenAI需要明確自身使命、邊界及如何讓世界變得更好。”OpenAI已有使命宣言:“確保通用人工智慧造福全人類。”但阿莫迪不清楚高管對此的真實理解。2018年初,阿莫迪稱自己開始起草公司章程,與奧特曼和布羅克曼商議數周,推動加入最激進條款:若一個“價值觀對齊、重視安全”的項目先於OpenAI接近研發出通用人工智慧,公司將“停止競爭,轉而協助該項目”。這一“合併協助”條款意味著,若Google研究員率先研發出安全通用人工智慧,OpenAI可停止營運並捐贈資源。按常規企業邏輯,這一承諾近乎瘋狂,但OpenAI本就不該是常規公司。2019年春,OpenAI與微軟談判十億美元投資,這一前提受到考驗。牽頭公司安全團隊的阿莫迪雖協助向比爾·蓋茲推介交易,但團隊許多人對此感到焦慮,擔心微軟加入條款架空OpenAI的道德承諾。阿莫迪向奧特曼提交一份安全要求清單,將保留合併協助條款列為首要事項。奧特曼同意這一要求,但6月交易即將完成時,阿莫迪發現新增條款賦予微軟阻止OpenAI任何合併的權力。他回憶:“章程80%的內容被背叛了。”他當面質問奧特曼,奧特曼否認該條款存在,阿莫迪當眾朗讀條款內容,最終迫使另一名同事向奧特曼證實其存在。(奧特曼稱不記得此事。)阿莫迪的記錄描述了雙方矛盾不斷升級,包括數月後奧特曼傳喚他和在公司安全與政策部門工作的妹妹丹妮拉,稱從一名高管處得到“可靠消息”,二人密謀政變。記錄顯示,丹妮拉情緒激動,找來該高管對質,對方否認有過此言。據一名知情人士回憶,奧特曼隨後否認自己說過這話。丹妮拉反駁:“你剛說過。”(奧特曼稱記憶不完全一致,僅指責阿莫迪兄妹有“政治操弄行為”。)2020年,阿莫迪、丹妮拉及其他同事離職創立Anthropic,如今是OpenAI的主要競爭對手之一。奧特曼仍大肆宣揚OpenAI對安全的承諾,尤其在潛在新員工面前。2022年底,四名電腦科學家發表論文,部分源於對“欺騙性對齊”的擔憂——足夠先進的模型或在測試中偽裝良好,部署後卻追求自身目標(這一人工智慧場景看似科幻,卻已在部分實驗中出現)。論文發表數周後,作者之一、加州大學伯克利分校博士生收到奧特曼郵件,稱自己愈發擔憂未對齊人工智慧的威脅,還表示考慮為此投入10億美元,或許設立獎項激勵全球研究者研究這一眾多人工智慧專家眼中全球最重要的未解難題。這名博士生雖“聽聞過山姆圓滑的模糊傳言”,但奧特曼的承諾打動了他,便休學加入OpenAI。但2023年春的數次會議中,奧特曼態度搖擺,不再提及設立獎項,轉而主張組建內部“超級對齊團隊”。官方公告稱,團隊將獲得“公司已獲取算力的20%”——價值或超10億美元。公告稱該工作至關重要,因為若對齊問題無法解決,通用人工智慧或“導致人類喪失權力甚至滅絕”。與蘇茨克弗共同牽頭該團隊的揚·萊克對我們說:“這是很有效的留人手段。”然而,20%算力的承諾並未兌現。四名團隊內部及密切合作人士稱,實際資源僅佔公司算力的1%至2%。一名團隊研究員表示:“大部分超級對齊算力都用在最老舊、晶片最差的叢集上。”研究員認為優質硬體被預留用於盈利項目。(OpenAI予以否認。)萊克向時任公司首席技術官的穆拉蒂投訴,對方讓他別再糾纏,稱該承諾本就不切實際。一名前員工告訴我們,大約在這一時期,蘇茨克弗“徹底被安全問題沖昏頭腦”。OpenAI早期,他認為災難性風險合理但遙遠,如今卻愈發堅信通用人工智慧即將到來,擔憂加劇。這名前員工稱,一次全員大會上,“伊利亞站起來說,未來幾年內,公司所有人基本都要轉向安全研究,否則我們就完了”。但次年超級對齊團隊便解散,任務未完成。彼時內部消息顯示,高管和董事認為奧特曼的隱瞞和欺騙行為可能影響OpenAI產品安全。2022年12月的一次會議上,奧特曼向董事保證,即將推出的GPT-4模型多項功能已通過安全小組審批。董事兼人工智慧政策專家托納要求查看檔案,卻發現最具爭議的兩項功能——允許使用者“微調”模型完成特定任務、將模型部署為個人助理——並未獲批。董事兼企業家麥考利離開會場時,一名員工拉著她,問她是否知曉印度的“違規事件”。奧特曼在數小時的董事會匯報中,從未提及微軟未完成必要安全審查,就在印度發佈了ChatGPT早期版本。當時的OpenAI研究員雅各布·希爾頓說:“這件事完全被無視了。”儘管這些疏漏未引發安全危機,另一名研究員卡羅爾·溫賴特稱,這是“持續重產品輕安全”的表現。GPT-4發佈後,萊克給董事們發郵件:“OpenAI已偏離使命,我們將產品和收益置於一切之上,其次是人工智慧能力、研究與規模化,對齊與安全排在最後。”他還寫道:“Google等公司也在學著加快部署,無視安全問題。”麥考利在給其他董事的郵件中寫道:“我認為董事會確實該加強監管力度了。”董事們試圖應對這一日益嚴重的問題,卻力不從心。前董事蘇·尹說:“坦率說,一群沒什麼經驗的人根本應對不了。”2023年,公司準備發佈GPT-4 Turbo模型。蘇茨克弗在備忘錄中詳述,奧特曼顯然告知穆拉蒂該模型無需安全審批,並援引總法律顧問傑森·權的話。但穆拉蒂在Slack上詢問傑森·權時,對方回覆:“呃……不知道山姆那來的印象。”(傑森·權仍任職於OpenAI,公司發言人表示此事“沒什麼大不了”。)不久後,董事會做出解僱奧特曼的決定——隨後全世界見證了奧特曼逆轉局面。OpenAI章程版本仍掛在官網,但知情人士稱其已被稀釋至毫無意義。去年6月,奧特曼在個人部落格談及超級人工智慧時寫道:“我們已越過事件視界,起飛已然開始。”按章程,此時OpenAI或應停止與其他公司競爭,轉而合作。但在這篇名為《溫和奇點》的文章中,他語氣大變,用樂觀取代末日恐慌,寫道:“我們都會擁有更好的事物,我們將為彼此創造更精彩的東西。”他承認對齊問題仍未解決,卻重新定義其性質——不再是致命威脅,而是類似Instagram演算法讓人沉迷刷屏的小麻煩。奧特曼常被滿懷敬畏或懷疑地稱為其世代最頂尖的推銷員。他的偶像史蒂夫·賈伯斯據稱擁有“現實扭曲力場”——堅信世界會順應自己願景的無敵自信。但賈伯斯從未告訴顧客,不買自己的MP3播放器就會失去所愛之人。2008年,23歲的奧特曼被導師格雷厄姆評價:“就算把他扔到食人族島上,五年後回來他也會成為國王。”這一判斷並非基於奧特曼有限的過往成績,而是他近乎失控的求勝意志。有人建議格雷厄姆不要把YC校友列入全球頂級初創創始人榜單,他仍把奧特曼列入,寫道:“區區規則攔不住山姆·奧特曼。”格雷厄姆本意是讚美,但奧特曼最親密的部分同事對此有不同看法。蘇茨克弗愈發擔憂人工智慧安全後,整理了關於奧特曼和布羅克曼的備忘錄,這些檔案在矽谷聲名遠颺,部分圈子裡直接稱為“伊利亞備忘錄”。與此同時,阿莫迪仍在繼續記錄。這些檔案及相關材料記錄了他從謹慎理想主義到警惕的轉變,言辭比蘇茨克弗更激烈,時而怒斥奧特曼“他的話幾乎肯定是胡扯”,時而惋惜自己未能糾正OpenAI的方向。兩份檔案均無決定性證據,而是羅列了一系列所謂的欺騙和操縱行為,單看每一件或許不值一提:奧特曼據稱向兩人提供同一職位、就直播人選講述矛盾說辭、在安全要求上撒謊。但蘇茨克弗得出結論,此類行為“不利於打造安全的通用人工智慧”。阿莫迪和蘇茨克弗並非密友,卻得出相似結論:阿莫迪寫道,“OpenAI的問題就是山姆本人”。我們採訪了一百多名親歷奧特曼商業運作的人士:現任及前任OpenAI員工、董事、奧特曼各處宅邸的賓客與工作人員、同事與競爭對手、朋友與敵人,以及在矽谷逐利文化中兼具多重身份的人。(OpenAI與《紐約客》母公司康泰納仕有協議,可在有限期限內將其內容展示在搜尋結果中。)部分人維護奧特曼的商業才能,駁斥其對手(尤其是蘇茨克弗和阿莫迪)是覬覦其位置的失敗者,或將他們描繪成輕信、心不在焉的科學家,或是被“末日論”裹挾、幻想自己研發的軟體會復活殺人的人士。前董事蘇·尹認為,奧特曼“不是馬基雅維利式的惡棍”,只是“無能到”能說服自己相信推銷說辭裡不斷變化的現實。“他太沉浸於自我信念,”她說,“所以做出現實中毫無意義的事,他根本活在現實之外。”但我們採訪的大多數人認同蘇茨克弗和阿莫迪的判斷:奧特曼擁有不屈不撓的權力慾,即便在把名字刻在太空飛船上的實業家中也格外突出。一名董事告訴我們:“他不受真相約束,身上有兩種極少並存的特質:一是極度渴望取悅他人,在任何交流中都想被喜歡;二是近乎反社會般無視欺騙他人的後果。”這名董事並非唯一主動用“反社會”一詞的人。奧特曼在YC首批同期學員中的亞倫·施瓦茨是一名才華橫溢卻飽受困擾的程式設計師,2013年自殺身亡,如今在科技界被視為智者。去世前不久,施瓦茨對多名朋友表達對奧特曼的擔憂:“你要明白,山姆永遠不值得信任,他是反社會者,什麼事都做得出來。”微軟多名高管表示,儘管納德拉長期忠誠,公司與奧特曼的關係已變得緊張。一名高管稱:“他歪曲事實、篡改協議、出爾反爾。”今年初,OpenAI重申微軟為其“無狀態”(即無記憶)模型的獨家雲服務商,當天又宣佈與亞馬遜達成500億美元交易,使其成為企業人工智慧代理平台的獨家轉售商。儘管轉售行為被允許,但微軟高管認為OpenAI的計畫或與微軟的獨家權衝突。(OpenAI稱亞馬遜交易未違反此前合同,微軟髮言人表示公司“相信OpenAI理解並尊重”其法律義務。)這名微軟高管評價奧特曼:“我認為有很小但真實的可能,他最終會被視作伯尼·麥道夫或山姆·班克曼-弗裡德等級的騙子。”奧特曼並非技術專家——據其身邊多人稱,他缺乏程式設計或機器學習的深厚專業知識,多名工程師回憶他誤用或混淆基礎技術術語。他很大程度上靠整合他人的資金和技術人才打造OpenAI,這並不獨特,只是一名商人。更出眾的是,他能說服謹慎的工程師、投資者和對科技持懷疑態度的公眾,他們即便相互矛盾的訴求也是他的訴求。當這些人試圖阻礙他下一步行動時,他總能找到言辭化解,至少暫時如此;通常等他們對他失去耐心時,他已達成目的。前OpenAI研究員溫賴特說:“他設立看似能約束自己的架構,但未來需要受約束時,就直接拋棄這些架構。”一名與奧特曼合作過的科技高管說:“他說服力極強,簡直是絕地控心術,水平登峰造極。”對齊研究中的經典假設場景是人類與高性能人工智慧的意志較量,研究者通常認為人工智慧會完勝,如同國際象棋特級大師擊敗孩童。這名高管稱,目睹奧特曼在“小插曲”中智勝身邊人,就像“通用人工智慧逃出牢籠”。被解僱後的幾天裡,奧特曼極力避免外界對針對他的指控展開調查,對兩人表示擔心調查本身就會讓他顯得有罪。(奧特曼否認此事。)但離職董事將離開條件設為開展獨立調查後,奧特曼同意對“近期事件”進行“審查”。據談判知情人士稱,兩名新董事堅持由自己掌控審查,人脈遍佈政界和華爾街的薩默斯似乎為審查增添了可信度。(去年11月,薩默斯被曝在與年輕門生交往期間尋求傑佛瑞·愛潑斯坦建議的郵件曝光後,辭去董事職務。)OpenAI聘請知名律所威爾默黑爾負責審查,該律所曾主導安然和世通公司的內部調查。六名接近調查的人士稱,此次調查似乎旨在限制透明度。部分人表示,調查人員最初未聯絡公司重要人物,一名員工向薩默斯和泰勒投訴。該員工回憶與調查人員的面談:“他們只關注董事會風波期間的狹隘事件,不關注他誠信問題的歷史。”其他人因匿名保障不足,不願分享對奧特曼的擔憂。這名員工說:“一切跡象都表明他們只想得出開脫他的結果。”(部分涉案律師為流程辯護,稱“這是獨立、嚴謹、全面的審查,依據事實展開”。泰勒也稱審查“徹底且獨立”。)企業調查旨在賦予合法性,私營公司的調查結果有時不形成書面記錄,以此限制責任;但涉及公共醜聞的案件,公眾通常期待更高透明度。2017年卡蘭尼克離開優步前,董事會聘請外部機構並行布13頁公開摘要。鑑於OpenAI的501(c)(3)非營利身份和解僱事件的高關注度,公司多名高管期待看到詳盡調查結果。然而2024年3月,OpenAI宣佈為奧特曼開脫,卻未發佈報告,僅在官網發佈約800字內容,承認“信任破裂”。調查知情人士稱,未發佈報告是因為根本沒有書面報告,調查結果僅以口頭簡報形式告知薩默斯和泰勒。一名接近調查的人士說:“審查並未認定山姆擁有喬治·華盛頓砍櫻桃樹般的誠信。”但調查似乎未聚焦奧特曼被解僱背後的誠信問題,而是大量追查明確犯罪行為,據此認定他可繼續擔任首席執行官。不久後,被解僱時逐出董事會的奧特曼重新入席。該人士稱,不形成書面報告部分是聽取了薩默斯和泰勒私人律師的建議。(薩默斯拒絕公開評論,泰勒稱基於口頭簡報,“無需正式書面報告”。)多名OpenAI現任及前任員工對資訊披露不足表示震驚。奧特曼稱,他復職後加入的所有董事均收到口頭簡報。一名知情人士直言:“這是徹頭徹尾的謊言。”部分董事表示,報告誠信問題的持續質疑或引發“需要另一場調查”。無書面記錄助力淡化指控,奧特曼在矽谷的地位也日益提升。多名與奧特曼合作過的知名投資者告訴我們,他有排擠投資OpenAI競爭對手的投資者的名聲。一名投資者稱:“如果他們投資他不喜歡的項目,就無法獲得其他機會。”奧特曼權力的另一來源是龐大的投資清單,甚至延伸至個人生活,他與多名前任伴侶存在財務關聯:擔任基金聯合管理人、領投人或聯合投資者。這在矽谷並不罕見,許多異性戀高管也與伴侶如此。(一名知名首席執行官對我們說:“不得不這麼做。”)奧特曼說:“我顯然和部分前任分手後有過投資合作,我覺得完全沒問題。”但這種關係帶來極高的控制權。一名接近奧特曼的人士稱:“這形成了極高的依賴性,往往是終身依賴。”即便前同事也會受影響。穆拉蒂2024年離開OpenAI,開始打造自己的人工智慧初創公司。與奧特曼關係密切的喬希·庫什納致電她,先讚揚其領導力,隨後發出隱晦威脅,稱自己“擔憂”她的“聲譽”,前同事如今視她為“敵人”。(庫什納通過發言人表示該描述“未體現完整背景”,奧特曼稱不知曉這通電話。)奧特曼就任首席執行官之初宣佈,OpenAI將設立由非營利機構控股的上限利潤公司,這一複雜架構由他設計。轉型期間,董事霍爾登·卡諾夫斯基提出反對,認為非營利機構被嚴重低估。身為阿莫迪姐夫的卡諾夫斯基稱:“我無法違背良心這麼做。”據同期記錄,他投了反對票。但董事會律師稱其異議“或引發對新架構合法性的進一步調查”後,他的投票未經同意被記為棄權——涉嫌偽造商業記錄。(OpenAI稱多名員工記得卡諾夫斯基棄權,並提供會議記錄佐證。)去年10月,OpenAI“資本重組”為營利性實體,公司宣揚旗下非營利機構OpenAI基金會是史上“資源最充足”的基金會之一,如今卻僅持有公司26%股份,其董事除一人外,均兼任營利性公司董事。國會作證時,被問及是否“賺了很多錢”,奧特曼回答:“我在OpenAI沒有股權……我做這份工作是因為熱愛。”考慮到他通過YC基金的間接股權,這一回答措辭謹慎,且技術上仍成立。但包括奧特曼在內的多人向我們表示,這一情況或很快改變。奧特曼說:“投資者希望我在困境中堅守,”但補充稱目前並無“積極討論”。據法律證詞,布羅克曼持有公司股份價值約200億美元,奧特曼的股份估值或更高。儘管如此,他對我們表示自己的主要動機並非財富。一名前員工回憶他說:“我不在乎錢,我更在乎權力。”2023年,奧特曼與馬爾赫林在夏威夷的一處宅邸舉行小型婚禮(二人九年前在彼得·蒂爾的按摩浴缸深夜相識)。他們在該宅邸接待過眾多賓客,受訪賓客稱所見不過是富豪的常規消遣:私人廚師烹製的餐食、黃金時段的乘船遊覽。一場新年派對以“倖存者”為主題,照片中多名赤裸上身、笑容滿面的男士,還有真人秀《倖存者》真正主持人傑夫·普羅斯特。奧特曼還在自己的宅邸接待過小群朋友,至少一次包括一場熱鬧的脫衣撲克遊戲。(照片中無奧特曼,勝負不明,但至少三名男士明顯輸了。)我們採訪的多名前賓客僅表示他是慷慨的主人。儘管如此,關於奧特曼私生活的謠言被競爭對手利用和歪曲。殘酷的商業競爭本就常見,但人工智慧行業的競爭已變得異常激烈。(一名OpenAI高管用“莎士比亞式”形容,稱“遊戲的常規規則不再適用”。)與馬斯克直接關聯、至少一人獲其酬勞的中間人,散佈了數十頁關於奧特曼的詳細負面資料,包含大量監控資訊:與他關聯的空殼公司、親密助手的個人聯絡方式,甚至在同性戀酒吧採訪所謂性工作者的內容。一名馬斯克中間人聲稱,奧特曼的航班和出席的派對都被追蹤。奧特曼對我們說:“我想沒人比我被更多私家偵探調查過。”極端言論四處流傳。右翼主播塔克·卡爾森無明顯證據暗示奧特曼與一名告密者的死亡有關,此類言論被競爭對手放大。奧特曼的妹妹安妮在訴訟和接受我們採訪時稱,奧特曼從她三歲、他十二歲起長期對她實施性虐待。(我們無法證實安妮的說法,奧特曼予以否認,其兄弟和母親稱其“完全不實”,給全家帶來“巨大痛苦”。記者卡倫·郝為撰寫《人工智慧帝國》一書採訪安妮時,安妮稱虐待記憶是成年後閃回恢復的。)多名競爭對手公司和投資機構人士向我們暗示,奧特曼性侵未成年人——這一說法在矽谷流傳甚廣,卻看似不實。我們花費數月調查,採訪數十人,未發現任何證據。奧特曼對我們說:“這是競爭對手的噁心行為,想必是為了影響我們即將到來的案件陪審團。儘管很荒唐,但我必須聲明,任何關於我性侵未成年人、僱傭性工作者或涉及謀殺的指控均完全不實。”他還表示,“有點慶幸”我們花費數月“如此積極地調查此事”。奧特曼承認與成年年輕男性交往,我們採訪的多名伴侶表示不認為這有問題。但馬斯克中間人的負面資料將此作為攻擊點(資料包含低俗且無根據的“小白臉軍團”“糖爹性習慣”等表述)。奧特曼說:“我認為其中充斥著恐同情緒。”科技記者斯威舍對此表示認同:“這些富豪都做過瘋狂的事,比山姆的離譜得多,但他是舊金山的同性戀,所以這一點被拿來攻擊。”十年來,社交媒體高管承諾改變世界卻幾乎不考慮負面影響,將希望放緩其發展的立法者斥為盧德分子,最終招致兩黨嘲諷。相比之下,奧特曼顯得格外盡責,非但不抵制監管,反而近乎主動請求監管。2023年在參議院司法委員會作證時,他提議設立新聯邦機構監督先進人工智慧模型。他說:“這項技術一旦出錯,後果會很嚴重。”以與科技首席執行官激烈交鋒聞名的路易斯安那州參議員約翰·甘迺迪似乎被他打動,手托臉頰暗示或許應由奧特曼親自執行規則。但奧特曼公開歡迎監管的同時,私下卻遊說反對。據《時代》周刊報導,2022至2023年,OpenAI成功遊說削弱歐盟一項對大型人工智慧公司加強監管的法案。2024年,加利福尼亞州議會提出一項法案,要求對人工智慧模型進行安全測試,條款與奧特曼國會作證時主張的內容相似。OpenAI公開反對該法案,私下卻發出威脅。一名立法助手對我們說:“這一年裡,我們目睹了OpenAI愈發狡猾、欺騙的行為。”投資者康威遊說包括南希·佩洛西、加文·紐森在內的加州政治領導人否決該法案。最終法案獲兩黨支援在議會通過,卻被紐森否決。今年,支援人工智慧監管的國會候選人面臨由新“親人工智慧”超級政治行動委員會“引領未來”資助的對手攻擊,該委員會旨在阻撓此類監管。OpenAI官方立場是不向此類超級政治行動委員會捐款。萊漢近日對CNN表示:“這一問題超越黨派政治。”然而“引領未來”的主要捐贈者之一是格雷格·布羅克曼,他承諾捐款5000萬美元(今年,布羅克曼與妻子向支援川普的超級政治行動委員會MAGA Inc.捐款2500萬美元)。OpenAI的行動超出傳統遊說範疇。去年,加州參議院提出一項後續法案。一天晚上,29歲的律師內森·卡爾文正在家與妻子共進晚餐,他就職於非營利機構Encode,參與起草該法案,一名送達人突然上門,遞交OpenAI的傳票。公司聲稱尋找馬斯克秘密資助批評者的證據,卻要求卡爾文提交所有關於該州參議院法案的私人通訊。卡爾文對我們說:“他們本可以直接問我們‘是否與埃隆·馬斯克交談或接受其資助’,我們並沒有。”該法案的其他支持者及批評OpenAI營利性重組的人士也收到傳票。詹姆斯·歐文基金會負責人唐·霍華德說:“他們針對這些人,就是為了恐嚇他們閉嘴。”(OpenAI稱這是標準法律程序。)奧特曼長期支援民主黨。他對我們說:“我極度不信任用恐懼故事欺壓弱者的強權者,這是猶太人的立場,不是同性戀的。”2016年,他支援希拉里·克林頓,稱川普是“美國前所未有的威脅”。2020年,他向民主黨和拜登勝利基金捐款。拜登政府期間,奧特曼至少六次在白宮會面,協助制定長達篇幅的行政命令,確立首個聯邦人工智慧安全測試及監管框架。拜登簽署該命令後,奧特曼稱其“良好開端”。2024年,拜登民調支援率下滑,奧特曼的言論開始轉變。他說:“我相信無論大選結果如何,美國都會安好。”川普勝選後,奧特曼向其就職基金捐款100萬美元,隨後在就職典禮上與網紅傑克·保羅、洛根·保羅自拍。他在X平台用一貫的小寫風格寫道:“近期更仔細關注總統,徹底改變了我的看法(真希望我早一點獨立思考……)。”川普重返白宮首日,便廢除拜登的人工智慧行政命令。一名拜登政府高級官員評價奧特曼:“他找到了讓川普政府為其效力的有效方式。”馬斯克仍在公開場合痛斥奧特曼,稱其為“騙子奧特曼”“狡詐山姆”。(奧特曼在X平台抱怨訂購的特斯拉汽車時,馬斯克回覆:“你偷走了一家非營利機構。”)但在華盛頓,奧特曼似乎勝過了他。馬斯克為川普連任花費超2.5億美元,在白宮工作數月,隨後離開華盛頓,與川普關係受損。如今奧特曼是川普青睞的大亨之一,甚至陪同川普前往溫莎城堡拜訪英國王室。二人每年交談數次。奧特曼說:“你可以直接給他打電話,我們不是密友,但有事我會找他談。”去年川普在白宮宴請科技領袖時,馬斯克明顯缺席,奧特曼坐在總統對面。川普說:“山姆,你是重要領袖,你之前告訴我的事簡直難以置信。”多年來,奧特曼持續將研發通用人工智慧比作曼哈頓計畫。奧特曼利用對這項技術地緣影響的恐懼造勢。根據聽眾不同,他用這一類比推動加速發展或謹慎行事。2017年夏,與美國情報官員會面時,他聲稱東方國家啟動了“通用人工智慧曼哈頓計畫”,OpenAI需要數十億美元政府資金追趕。被要求提供證據時,奧特曼稱:“我聽到的。”這是他多次提出該說法的首次會面。一次會面後,他對一名情報官員稱會補充證據,卻從未兌現。該官員調查後得出結論,並無相關證據:“這只是推銷說辭。”(奧特曼稱不記得了)。面對安全意識日益增強的受眾,奧特曼借用這一類比,表達的卻是相反的含義:通用人工智慧必須謹慎推進,並開展國際協作,否則後果將是災難性的。2017年,阿莫代伊聘請了前公益律師佩奇·赫德利擔任OpenAI的政策與倫理顧問。在一次面向高管的早期PPT演示中,赫德利闡述了OpenAI如何避免一場“災難性”的軍備競賽——或許可以組建一個人工智慧實驗室聯盟,最終與一個類似北約的國際機構協作,確保這項技術得到安全部署。據赫德利回憶,布羅克曼並不理解這對公司擊敗競爭對手有何幫助。“無論我說什麼,”赫德利告訴我們,“格雷格總是繞回‘那我們怎麼籌更多錢?怎麼贏?’”據多次採訪和同期記錄顯示,布羅克曼提出了一個反方案:OpenAI可以利用包括東方大國和俄羅斯在內的世界大國相互制衡,甚至在它們之間挑起競價戰,以此牟利。赫德利稱,當時的思路似乎是:這招在核武器上管用,為什麼不能用在人工智慧上?他對此感到驚駭:“他們沒有反駁的前提是‘我們談論的可能是有史以來最具破壞性的技術——要是我們把它賣給俄羅斯呢?’”(布羅克曼堅稱,他從未認真考慮過將人工智慧模型拍賣給各國政府。一位OpenAI發言人表示:“大家曾在高層層面探討過,可能建立何種框架來促進國家間合作——類似人工智慧領域的國際空間站。試圖將其歪曲解讀為其他含義,完全是荒謬至極。”)頭腦風暴會議常常會產生離奇的想法。赫德利希望這個內部被稱為“國家計畫”的點子能被擱置。然而,據多名相關人士及同期檔案顯示,OpenAI高管們似乎反而對此愈發興奮。時任OpenAI政策總監傑克·克拉克稱,布羅克曼的目標是“基本上製造一場囚徒困境,讓所有國家都不得不給我們提供資金”,而這“無形中會讓不給我們資金的行為變得有些危險”。一名初級研究員回憶,在公司會議上詳細討論該計畫時,他心想:“這簡直他媽的瘋了。”高管們至少與一位潛在捐贈者討論過這一方案。但當月晚些時候,在多名員工揚言辭職後,該計畫被放棄。赫德利說,奧特曼“會失去員工”。“我感覺在山姆的考量中,這一點的份量,始終超過‘這個計畫不好,因為可能引發大國間戰爭’。”“國家計畫”的流產並未讓奧特曼氣餒,他轉而推行類似思路的變體方案。2018年1月,他在貝爾艾爾酒店召集了一場“通用人工智慧周末閉門會”。這家老牌好萊塢度假酒店擁有種滿三角梅的起伏花園,以及養著真天鵝的人工池塘。與會者包括當時在牛津大學、被奉為人工智慧末日預言家的哲學家尼克·博斯特羅姆;阿聯人工智慧事務部長、人工智慧支持者奧馬爾·奧拉馬;以及至少七位億萬富翁。其中關注安全問題的人士被告知,這是一次思考社會如何為通用人工智慧顛覆性到來做準備的機會;而投資者們則以為會聽到融資路演。白天,眾人在一間雅緻的會議室裡聆聽演講。(領英聯合創始人霍夫曼闡述了為人工智慧注入佛教慈悲理念的可能性。)最後一位演講者是奧特曼,他帶著一份簡報,提出發行一種全球加密貨幣,“可兌換通用人工智慧的算力服務”。一旦通用人工智慧達到極致實用且“反邪惡”的狀態,全球民眾都會爭相購買OpenAI伺服器的使用時間。阿莫代伊在筆記中寫道:“這個想法從表面看就荒謬至極。現在回想起來,這是關於山姆的眾多危險訊號之一,我本應更重視才對。”該計畫看似一場圈錢操作,奧特曼卻將其包裝成有利於人工智慧安全的舉措。他的一張幻燈片寫道:“我希望儘可能多的人加入‘正義’陣營,贏得勝利,做正確的事。”另一張則寫著:“請忍到演示結束再笑。”多年來,奧特曼的融資說辭不斷演變,但始終反映一個事實:開發通用人工智慧需要巨額資金。他遵循的是一條相對簡單的“縮放定律”:用於訓練模型的資料和算力越多,模型似乎就越智能。實現這一過程的專用晶片造價極其高昂。僅在最近一輪融資中,OpenAI就籌集了超過1200億美元——這是史上規模最大的私募融資,金額是史上最大IPO的四倍。一位科技行業高管兼投資者告訴我們:“想想看,世界上每年能自主支配上千億美元的實體屈指可數。只有美國政府、美國最大的四五家科技公司、沙烏地阿拉伯和阿聯——基本就這些。”奧特曼最初的目標是沙烏地阿拉伯。2016年,他在舊金山費爾蒙特酒店的一場晚宴上,首次會見了沙烏地阿拉伯王儲薩勒曼。赫德利回憶,此後奧特曼便稱這位王儲為“朋友”。2018年9月,據赫德利的筆記記載,奧特曼說:“我在考慮,我們到底該不該從沙烏地阿拉伯公共投資基金拿數百億美元。”一周後,有消息宣佈奧特曼加入了本·薩勒曼計畫在沙漠中建造的“未來城市”尼奧姆的顧問委員會。現任Anthropic高管、時任政策總監克拉克回憶,他當時對奧特曼說:“山姆,你不能加入這個委員會。”奧特曼起初為自己的決定辯護,告訴克拉克賈裡德·庫什納向他保證沙烏地阿拉伯人“沒做這件事”。(奧特曼否認有過此番言論。庫什納稱當時雙方並無聯絡。)後來,奧特曼退出了尼奧姆顧問委員會。但據一位奧特曼曾諮詢過的政策顧問回憶,在私下裡,他將此事視為暫時的挫折,詢問是否仍能設法從本·薩勒曼那裡獲得資金。“他問的不是‘這麼做對不對’,”這位顧問說,“而是‘如果我們這麼做,後果會是什麼?會不會有出口管制問題?會不會遭到制裁?說白了,我能不能全身而退?’”那時,奧特曼已經盯上了另一個資金來源:阿聯。該國正進行一項為期十五年的計畫,試圖從石油國家轉型為科技中心。2023年6月,奧特曼訪問阿布扎比,在一場活動的發言中,他稱該國“早在人工智慧流行之前就開始探討它”,並勾勒出中東在未來人工智慧領域佔據“核心地位”的願景。向海灣國家融資已成為許多大企業的慣例。但奧特曼追求的是更宏大的地緣政治願景。2023年秋,他開始悄悄為一項計畫招募新人才——該計畫最終被命名為ChipCo,由海灣國家提供數百億美元,用於建造巨型晶片製造廠和資料中心,部分設施將落戶中東。奧特曼向現任Meta人工智慧負責人亞歷山大·王拋出橄欖枝,邀請他擔任高管,並表示亞馬遜創始人傑夫·貝索斯可能執掌這家新公司。奧特曼希望阿聯提供巨額出資。一位董事會成員稱:“據我瞭解,整件事董事會完全不知情。”奧特曼曾試圖招募研究員詹姆斯·布萊德伯裡參與該項目,後者回憶自己拒絕了。他說:“我的第一反應是‘這事兒能成,但我不確定我想讓它成’。”人工智慧能力或許很快會取代石油或濃縮鈾,成為決定全球力量格局的資源。奧特曼曾稱算力是“未來的貨幣”。通常情況下,資料中心建在那裡或許無關緊要。但多名美國安全官員對將先進人工智慧基礎設施集中在海灣地區感到焦慮。奧特曼被解僱後,他最依賴的人是愛彼迎聯合創始人切斯基,也是他最堅定的支持者之一。切斯基告訴我們:“看著我的朋友陷入那樣的絕境,讓我對經營一家公司的真正意義產生了一些根本性的質疑。”次年,在一場Y Combinator校友聚會上,他發表了一場即興演講,持續了兩個小時。“感覺像是一場團體心理治療,”他說。演講的核心思想是:你對經營自己創立公司的直覺才是最好的,任何告訴你相反觀點的人都是在精神操控你。切斯基說:“你沒有瘋,即便你的員工說你瘋了。”保羅·格雷厄姆在一篇關於這場演講的部落格文章中,給這種態度起了個名字:創始人模式。自那次風波之後,奧特曼便進入了“創始人模式”。2024年2月,《華爾街日報》披露了奧特曼對ChipCo的構想。他計畫將其打造成一家合資實體,投資規模達5兆至7兆美元。(他在推特上寫道:“管他呢,乾脆8兆得了。”)許多員工正是通過這篇報導才得知該計畫。萊克回憶:“所有人都一臉‘等等,什麼情況?’”奧特曼在一次內部會議上堅稱,安全團隊“已參與其中”。萊克隨即發消息敦促他,不要虛假暗示該項目已獲安全團隊認可。拜登政府時期,奧特曼曾申請安全許可,希望參與機密人工智慧政策討論。但協助協調該流程的蘭德公司工作人員表達了擔憂。其中一人寫道:“他一直在積極向外國政府籌集‘數千億美元’。阿聯最近還送了他一輛車。(我猜是輛非常好的車。)”該工作人員接著寫道:“我能想到的、曾以如此深度的海外金融關聯申請安全許可的人,只有賈裡德·庫什納,而稽核人員當時建議不授予他許可。”奧特曼最終退出了申請流程。一位參與與奧特曼會談的政府高級官員告訴我們:“他一直在推進這種交易性關係,主要是和阿聯,這在我們一些人看來亮起了大量紅燈。政府裡很多人並非完全信任他。”當我們問及奧特曼有關塔赫農贈送禮物一事時,他說:“我不會透露他具體送了我什麼禮物。但他和其他世界領導人……確實送過我禮物。”他補充道:“我們有一套標準政策,對我也適用,任何潛在商業夥伴贈送的禮物都會向公司報備。”奧特曼至少擁有兩輛頂級超跑:一輛價值約200萬美元的全白科尼賽克Regera,以及一輛價值約2000萬美元的紅色邁凱倫F1。2024年,有人拍到奧特曼駕駛Regera穿行於納帕谷。一段幾秒的視訊流傳到社交媒體上:奧特曼坐在低矮的桶形座椅上,從一輛亮白色跑車的車窗向外望去。一位與馬斯克立場一致的科技投資者在X平台發佈了這段視訊,並寫道:“我明年要成立一個非營利組織。”2024年,奧特曼帶著兩名OpenAI員工,登上了塔赫農酋長價值2.5億美元的超級遊艇“瑪利亞號”。作為全球最大的遊艇之一,瑪利亞號配有直升機停機坪、夜總會、電影院和海灘俱樂部。在塔赫農的武裝安保人員中,奧特曼的員工顯得格外扎眼,至少有一人後來告訴同事,這段經歷讓他感到不安。奧特曼隨後在X平台稱塔赫農是“親愛的私人朋友”。奧特曼繼續與拜登政府會面,而後者已出台政策,要求敏感技術出口需獲得白宮批准。多名政府官員在這些會議後,對奧特曼在中東的野心感到擔憂。據這些官員稱,他常常發表宏大言論,包括將人工智慧稱為“新的電力”。2018年,他稱OpenAI計畫從一家名為Rigetti Computing的公司購買一台完整可用的量子電腦。這一消息連在場的其他OpenAI高管都毫不知情。而當時Rigetti遠未具備出售可用量子電腦的能力。在另一場會議上,奧特曼聲稱到2026年,美國境內將建成廣泛的核聚變反應堆網路,為人工智慧熱潮提供電力。那位政府高級官員說:“我們當時的反應是‘好吧,如果他們真能實現核聚變,那確實是個大新聞’。”拜登政府最終未予批准。美國商務部一位負責人對奧特曼表示:“我們不會在阿聯建造先進晶片。”據《華爾街日報》報導,川普就職典禮前四天,塔赫農向川普家族支付5億美元,換取其加密貨幣公司的股份。次日,奧特曼與川普進行了一場25分鐘的通話,雙方討論宣佈推出ChipCo的一個版本,時機恰好能讓川普攬下功勞。川普上任第二天,奧特曼在羅斯福室宣佈成立“星門”項目——一項規模達5000億美元的合資企業,旨在全美範圍內建造龐大的人工智慧基礎設施網路。5月,川普政府撤銷了拜登時期對人工智慧技術的出口限制。奧特曼與川普一同前往沙烏地阿拉伯王宮會見本·薩勒曼。幾乎與此同時,沙烏地阿拉伯宣佈成立一家由國家巨資支援的大型人工智慧公司,將投入數十億美元開展國際合作。約一周後,奧特曼公佈了星門項目拓展至阿聯的計畫。公司擬在阿布扎比建設一個資料中心園區,面積是紐約中央公園的七倍,耗電量大致相當於邁阿密全市。一位前OpenAI高管稱:“事實是,我們正在建造真正意義上召喚外星生命的門戶。這些門戶目前存在於美國和東方大國,而山姆又在中東加了一個。”他接著說:“我認為這是有史以來最魯莽的行為。”安全承諾的弱化已成為行業常態。Anthropic的創立初衷是,只要架構和領導層得當,就能避免安全承諾在商業壓力下瓦解。其中一項承諾便是“負責任縮放政策”,規定若無法證明模型安全,Anthropic有義務停止訓練更強大的模型。2月,在該公司獲得300億美元新融資之際,卻弱化了這一承諾。在某些方面,Anthropic對安全的重視程度仍高於OpenAI。但前政策總監克拉克表示:“資本市場體系要求你加快速度。”他補充道:“最終做決定的是世界,而非企業。”去年,阿莫代伊向Anthropic員工傳送備忘錄,披露公司將尋求阿聯和卡達的投資。2024年,Anthropic與矽谷立場最強硬的國防承包商之一帕蘭提爾達成合作,將其人工智慧模型Claude直接推向軍事領域。Anthropic成為五角大樓最高機密場景中唯一使用的人工智慧承包商。去年,五角大樓再次授予該公司一份2億美元的合同。1月,美軍發動午夜突襲,抓獲委內瑞拉總統尼古拉斯·馬杜羅。據《華爾街日報》報導,Claude在此次機密行動中得到應用。但Anthropic與政府之間出現了矛盾。多年前,OpenAI已從政策中刪除了全面禁止將技術用於“軍事與戰爭”的條款。最終,包括Google和xAI在內的Anthropic競爭對手均同意向軍方提供模型,用於“所有合法用途”。而Anthropic的政策禁止其研發全自動武器或國內大規模監控技術,並在這些問題上堅持立場,導致新協議的談判處理程序放緩。2月下旬的一個周二,國防部長皮特·赫格塞思召阿莫代伊至五角大樓,下達最後通牒:公司必須在周五下午5點01分前放棄這些禁令。截止日期前一天,阿莫代伊拒絕妥協。赫格塞思在推特上宣佈,將把Anthropic列為“供應鏈風險實體”,並在數日後兌現了這一威脅。OpenAI和Google的數百名員工簽署了一封題為《我們不會被分裂》的公開信,聲援Anthropic。奧特曼在一份內部備忘錄中寫道,這一爭端“關乎整個行業”,並聲稱OpenAI與Anthropic持有相同的道德底線。但至少兩天前,奧特曼已在與五角大樓談判。國防部負責研究與工程的副部長埃米爾·邁克爾在尋找Anthropic的替代方案時聯絡了奧特曼。“我需要盡快找到替代者,”邁克爾回憶道,“我打給山姆,他立刻就答應了。我認為他是個愛國者。”奧特曼問邁克爾:“我能為國家做些什麼?”他似乎早已知道答案。OpenAI原本不具備接入Anthropic所部署的機密系統所需的安全認證。但周五上午宣佈的一筆500億美元交易,將OpenAI的技術整合進亞馬遜雲服務——五角大樓數字基礎設施的核心部分。當晚,奧特曼在X平台宣佈,軍方將開始使用OpenAI的模型。從某些指標來看,奧特曼的這一操作並未阻礙公司的成功。宣佈交易當天,新一輪融資使OpenAI估值增加1100億美元。但許多使用者刪除了ChatGPT應用。至少兩名高管離職——其中一人加入了Anthropic。在一次員工會議上,奧特曼斥責了提出擔憂的員工。“或許你覺得打擊伊朗是對的,入侵委內瑞拉是錯的,”他說,“但你沒資格對此指手畫腳。”多名與OpenAI有關聯的高管對奧特曼的領導持續表示擔憂,並提議由前Instacart CEO、現任OpenAI通用人工智慧部署CEO菲吉·西莫接任。據一位知悉近期討論的人士稱,西莫本人私下表示,她認為奧特曼最終可能會卸任。(西莫否認這一說法。Instacart近日與聯邦貿易委員會達成和解,未承認不當行為,但同意就西莫任職期間涉嫌的欺詐行為支付6000萬美元罰款。)奧特曼將自己不斷變化的承諾描述為適應環境變化的結果——並非馬斯克等人指控的陰險“長期騙局”,而是一次真誠、漸進的演變。他告訴我們:“我認為有些人想要的,是一位‘對自己的想法絕對篤定、絕不改變’的領導者。但我們所處的領域,變化速度極快。”他為自己的部分行為辯護,稱這是“正常的商業競爭”。我們採訪的多名投資者認為,奧特曼的批評者太過天真,本就不該抱有其他期待。投資者康威表示:“有一群宿命論極端分子,把安全理念推崇到了科幻小說的程度。他的使命用數字衡量。而看看OpenAI的成功,這些數字很難反駁。”但矽谷另一些人認為,奧特曼的行為造成了難以接受的管理混亂。那位董事會成員稱:“問題更多在於,公司實際上已無法治理。”還有人仍認為,人工智慧的締造者應受到比其他行業高管更嚴格的審視。我們採訪的絕大多數人都認同,奧特曼如今要求被評判的標準,已不再是他最初提出的那套。在一次對話中,我們問奧特曼,經營一家人工智慧公司是否需要“更高的誠信要求”。這本該是一個簡單的問題。直到不久前,被問及類似問題時,他都會給出明確、毫無保留的肯定回答。而這次他補充道:“我認為有很多企業都可能對社會產生巨大的正面或負面影響。”(隨後他又補充了一份聲明:“是的,這要求更高水平的誠信,我每天都感受到這份責任的份量。”)在OpenAI創立之初的所有承諾中,最核心的無疑是安全研發人工智慧的誓言。但如今這類擔憂在矽谷和華盛頓常被嘲諷。去年,前風險投資人、現任副總統JD·范斯在巴黎一場名為“人工智慧行動峰會”(此前名為“人工智慧安全峰會”)的會議上發表講話。他說:“人工智慧的未來,不會靠對安全問題的杞人憂天來贏得。”今年達沃斯論壇上,擔任白宮人工智慧與加密貨幣主管的風險投資人大衛·薩克斯稱,對安全的擔憂是一種“自我傷害”,可能讓美國輸掉人工智慧競賽。奧特曼如今稱川普的放鬆監管舉措是“非常令人耳目一新的改變”。OpenAI已解散多個專注安全的團隊。在超對齊團隊解散前後,其負責人蘇茨克維與萊克雙雙辭職。(蘇茨克維聯合創立了一家名為“安全超智能”的公司。)萊克在X平台寫道:“安全文化與流程已讓位於光鮮的產品。”不久後,負責為社會應對先進人工智慧衝擊做準備的通用人工智慧就緒團隊也被解散。在最新提交給美國國稅局的披露檔案中,當被要求簡要描述公司“最重要活動”時,此前檔案中提及的安全理念並未出現。(OpenAI稱其“使命並未改變”,並補充道:“我們仍在持續投入並推進安全相關工作,也會繼續進行組織架構調整。”)生命未來研究所是一家奧特曼曾認可其安全原則的智庫,該機構對各大人工智慧公司的“生存安全”進行評級;在最新報告中,OpenAI獲得F級。公平地說,除Anthropic獲D級、GoogleDeepMind獲D-級外,其他所有大型公司均為F級。奧特曼說:“我的理念和很多傳統人工智慧安全領域不太合拍。”他堅稱自己仍將這些問題放在優先位置,但被問及具體措施時卻含糊其辭:“我們仍會開展安全項目,或者至少是與安全相關的項目。”當我們提出採訪公司內研究生存安全問題的研究員——也就是奧特曼曾說的關乎“人類全體滅絕”的這類問題時,一位OpenAI發言人顯得困惑。“你說的‘生存安全’是什麼意思?”他答道,“這根本不算一個領域。”人工智慧末日論者已被邊緣化,但他們的部分擔憂似乎逐月變得不再那麼荒誕。聯合國一份報告顯示,2020年,一架人工智慧無人機在利比亞內戰中被用於發射致命彈藥,且可能未受人類操作員監管。此後,人工智慧在全球軍事行動中的地位愈發重要,據稱也包括當前美國在伊朗的行動。2022年,一家製藥公司的研究人員測試藥物發現模型是否可用於尋找新型毒素;短短數小時內,模型便給出了四萬種致命化學戰劑的建議。而更多日常危害已然發生。我們越來越依賴人工智慧輔助寫作、思考和認知世界,加速了專家所稱的“人類能力退化”;人工智慧生成的劣質內容氾濫,讓騙子更易得手,也讓只想瞭解真相的普通人舉步維艱。人工智慧“智能體”已開始在極少甚至無人監管的情況下自主行動。2024年新罕布什爾州民主黨初選前幾天,數千名選民收到人工智慧深度偽造拜登聲音的自動語音電話,謊稱讓他們留到11月再投票、無需前往投票站——這是一場幾乎無需技術門檻的選民壓制行為。OpenAI目前面臨七起非正常死亡訴訟,指控ChatGPT誘導了多起自殺事件和一起謀殺案。謀殺案的聊天記錄顯示,ChatGPT助長了一名男子的偏執妄想,認為他83歲的母親在監視並試圖毒害他。不久後,他毆打並勒死母親,隨後自殘。(OpenAI正在應訴,並表示將持續完善模型的安全防護。)在OpenAI籌備潛在IPO之際,奧特曼不僅面臨人工智慧對經濟影響的質疑——它可能很快引發嚴重的就業衝擊,甚至導致數百萬崗位消失——還面臨公司自身財務狀況的質疑。創業公司治理專家埃裡克·萊斯抨擊行業內的“循環交易”——例如OpenAI與輝達等晶片製造商的交易——並稱在其他時代,該公司的部分會計操作會被視為“近乎欺詐”。那位董事會成員告訴我們:“公司目前的財務槓桿水平,風險高得令人擔憂。”(OpenAI對此表示否認。)2月,我們再次採訪了奧特曼。他穿著一件暗綠色毛衣和牛仔褲,坐在一張NASA月球車照片前。他將一條腿盤在身下,又搭在椅子扶手上。他說,過去自己作為管理者的主要缺點是總想避免衝突。“現在我很樂意迅速開除人,”他告訴我們,“我會直接說‘我們就往這個方向押注’。”任何不認同他決策的員工都“應該離開”。他對未來比以往任何時候都更樂觀。“我對成功的定義是,人類實現跨越式提升——瘋狂的科幻未來為我們所有人成真。”他說,“我對人類的前景、對我們共同能實現的成就抱有極大野心。但奇怪的是,我個人幾乎沒什麼野心。”有時他似乎會自我警醒。“沒人會相信你做這些只是因為感興趣,”他說,“你這麼做是為了權力,或是別的什麼。”即便與奧特曼關係密切的人,也很難分清他的“人類希望”止於何處,個人野心始於何處。他最大的優勢始終是,能說服不同群體相信,他想要的與他們需要的是同一件事。他抓住了一個獨特的歷史節點:公眾對科技行業的炒作心存警惕,而大多數有能力研發通用人工智慧的研究者又對其問世感到恐懼。奧特曼使出了其他融資者從未精通的一招:用末日論調描述通用人工智慧如何毀滅人類——並因此論證,唯有他才應該主導其研發。或許這是一場預謀已久的精妙佈局,或許他只是在摸索優勢。無論如何,他成功了。讓聊天機器人變得危險的特性,並非全是漏洞;其中一些是系統建構過程中的副產品。大型語言模型的訓練部分依賴人類反饋,而人類往往偏愛順從的回應。模型常常學會奉承使用者,這種傾向被稱為“諂媚”,有時甚至會將此置於誠實之上。模型還會編造內容,即所謂的“幻覺”。各大人工智慧實驗室均已記錄到這些問題,但有時選擇容忍。隨著模型愈發複雜,部分模型的幻覺編造得更具說服力。2023年,就在被解僱前不久,奧特曼提出,即便存在風險,一定程度的不實資訊也能帶來優勢。“如果簡單粗暴地要求‘絕不說任何沒有百分百把握的話’,模型確實能做到,”他說,“但那樣就失去了人們喜愛的那種魔力。” (邸報)
歐盟《人工智慧法》首次修法進展:監管減負與邊界擴展之爭
近期,首次進入正式修法程序的歐盟《人工智慧法》(AI Act)有了新進展。當地時間2026年3月26日,歐洲議會(European Parliament)以569票贊成、45票反對、23票棄權的結果,通過了對《人工智慧數字綜合方案》(Digital Omnibus on AI)的“一讀立場”(First Reading Position)。此前,歐盟理事會(Council of the European Union)已於3月13日通過自身的一般談判方針。隨著歐洲議會和歐盟理事會分別形成談判立場,下一步將進入歐盟委員會(European Commission)、歐洲議會和歐盟理事會之間的三方談判階段。為確保《人工智慧法》在2026年8月前“全面適用”,預計三方談判會走得比歐盟一般立法程序更快。作為全球首部綜合性人工智慧立法,《人工智慧法》從提出到生效歷時三年有餘,而從2024年8月1日正式生效到2026年3月進入修法程序,也不過約1年8個月。這一處理程序顯示,歐盟人工智慧治理已經從立法完成階段迅速轉入實施校準階段。當前歐盟共同立法者對委員會“簡化提案”的處理方式,並未沿著單一放鬆監管的方向推進,而是逐步呈現出程序性減負,同時針對新風險局部擴圍平行推進的特徵。理解這一變化,對於判斷歐盟人工智慧治理接下來的演化方向,具有現實意義。2026年3月26日,歐洲議會投票通過一項關於修訂《人工智慧法案》的提案圖片來源:歐洲議會01歐盟AI法案緣何迅速修訂?2021年4月,歐盟啟動《人工智慧法》立法處理程序,試圖建立一套以風險分級為核心的人工智慧監管框架。此後在三方談判過程中,以ChatGPT為代表的生成式人工智慧迅速崛起,通用目的人工智慧模型(general-purpose AI models, GPAI)成為立法中無法迴避的新議題。GPAI模型的廣泛可遷移性和下游嵌入性,明顯超出了原始提案主要圍繞特定用途進行風險分類的框架預設。最終,歐盟在2024年通過的《人工智慧法》中加入了關於GPAI模型的專門義務安排,並設定了分階段實施路徑:禁止性做法和人工智慧素養義務自2025年2月2日起適用,GPAI模型治理規則自2025年8月2日起適用,法案原則上自2026年8月2日起全面適用,但嵌入受行業監管產品中的高風險人工智慧系統保留至2027年8月2日的更長過渡期。然而,法案生效後的實施處理程序很快暴露出落地難題。歐盟委員會目前在官網上明確表示,圍繞高風險規則和透明度義務的多項支援工具仍在準備之中,包括與人工智慧生成內容標記和透明義務相關的行為準則及指南,計畫在2026年第二季度發佈;委員會也將繼續通過指南、行為準則和服務台等方式為企業提供合規支援。換言之,法定義務的適用時點正在逼近,但用於降低企業實施不確定性的支援工具尚未完全到位。正是在這一背景下,委員會才提出將高風險規則的適用時間最多調整16個月,以便相關規則在標準、指南等工具較為完備時再行落地。除了實施層面的現實壓力,更宏觀的競爭力焦慮也為修法提供了強烈政治動力。歐盟委員會關於“德拉吉報告”(The future of European competitiveness)的官方介紹指出,歐洲正同時面臨生產率放緩、人口挑戰、能源成本上升和全球競爭加劇等多重壓力,綠色和數字轉型又要求前所未有的投資與創新。歐盟理事會在2026年3月發佈的官方說明中也明確將本輪人工智慧簡化提案,放在回應萊塔報告和德拉吉報告所提出挑戰的大框架下理解;而2024年11月《布達佩斯宣言》(Budapest Declaration)則進一步要求歐盟發起一場“簡化革命”,通過更清晰、更簡單、更智能的監管框架,顯著降低企業,尤其是中小企業的行政、監管和報告負擔。也正因此,歐盟委員會開始主動推動對自身主導起草的《人工智慧法》進行修改。根據歐盟委員會和歐盟理事會的公開說明,自2025年2月以來,委員會已連續提出10個“綜合方案”(Omnibus)立法包;其中,2025年11月19日提出的第七個綜合方案即數字綜合包(Omnibus VII on digital),包含兩項提案,一項旨在簡化歐盟數字立法總體框架,另一項則專門針對《人工智慧法》的實施簡化。對委員會而言,這既是落實歐盟整體“簡化-競爭力”議程的一環,也是對實施困難作出的制度回應。2025年11月,歐盟委員會發佈人工智慧數字綜合提案(Digital omnibus on AI)圖片來源:歐盟委員會但委員會畢竟是在試圖修改一部剛剛完成的妥協性文字。歐洲議會和歐盟理事會作為當初三方談判中的共同立法者,對於原法條中的關鍵平衡擁有更強的維護傾向。歐洲議會研究服務處(European Parliamentary Research Service, EPRS)在本輪修法背景材料中同樣指出,當前檔案的核心,是圍繞實施中識別出的具體問題和減少不必要監管負擔展開的定向調整,而非“推倒重來式”的制度重構。2《人工智慧法》修訂的領域與形態通過比較《人工智慧法》現行文字、2025年11月歐盟委員會提出的“簡化方案”、以及歐洲議會和歐盟理事會目前公開的談判立場可以看到,本輪修法的總體方向並非單一的“簡化”或“加碼”,而是更接近一種選擇性調整:在程序性安排上形成較強共識,在涉及基本權利保護的核心門檻上展開拉鋸,在面對新型技術風險時又出現局部擴圍,這也是理解本輪修法邏輯的關鍵。一 修法共識:為企業提供時限和政策支援爭議最小、但對企業實際影響最大的內容,是延長高風險人工智慧系統的主要合規時間。根據歐盟委員會官網,《人工智慧法》原本的節奏是:高風險規則分別在2026年8月和2027年8月進入適用階段;而根據歐洲議會2026年3月26日通過的一讀立場,法規中直接列舉的高風險人工智慧系統,例如涉及生物識別、關鍵基礎設施、教育、就業、基本服務、執法、司法和邊境管理等場景的系統,其新適用時間擬定為2027年12月2日;受歐盟行業安全和市場監管立法約束的高風險人工智慧系統,則擬定為2028年8月2日。歐洲議會同時主張,將人工智慧生成音訊、圖像、視訊和文字內容的來源標記義務延後至2026年11月2日。歐盟理事會也支援對高風險系統引入固定的新適用日期。歐盟委員會原始提案設計的是一種彈性觸發機制,即高風險義務的適用不再完全繫結固定日期,而是與“所需標準和工具是否準備就緒”掛鉤,最多延後16個月。歐洲議會和歐盟理事會則都沒有完全接受這種由委員會行政判斷觸發的模式,而是傾向於直接寫入新的固定日期。這一日期調整併非單純的技術性修改,其制度含義在於共同立法者更強調法律確定性而非行政裁量觸發。共同立法者願意給予企業更多準備時間,卻不願把關鍵義務的生效時間完全交由委員會判斷,而是選擇以更高的法律確定性替代更大的執行彈性。另一項共識,是對中小企業和小型中等市值企業的支援擴展。歐盟委員會和歐洲議會都明確支援把部分原本主要面向中小企業的便利措施擴展至小型中等市值企業(small mid-cap enterprises, SMCs),包括簡化技術檔案等要求。歐洲議會在新聞稿中將這一點明確作為“支援企業擴張”的核心內容之一,委員會也將其列為本輪提案的重要目標。這一安排的政策邏輯相對清晰,即避免歐洲企業在剛剛越過中小企業門檻後,立即失去全部程序性便利,從而在擴張階段遭遇更陡峭的合規成本跳躍。二 調整內容:圍繞基本權利的回擺最值得注意的,是歐盟委員會若干實質性簡化措施在共同立法者那裡遭遇回擺。其核心不在於共同立法者普遍主張提高原法標準,而在於它們並不願意因“減負”而顯著降低原法已經確立的基本權利保護門檻。對於敏感個人資料的處理,當前公開立場體現的是保留高門檻、有限放寬例外的折中。歐盟委員會原本希望擴大在偏見檢測與糾正中處理敏感資料的空間;但歐洲議會在3月26日通過的一讀立場中,雖然支援在人工智慧系統中為檢測和糾正偏見而處理個人資料,卻同時加入了“僅在嚴格必要時”這一限制。歐盟理事會則更進一步,明確恢復了“嚴格必要”(strict necessity)標準。2026年1月,歐洲資料保護委員會(European Data Protection Board, EDPB)和歐洲資料保護監督員(European Data Protection Supervisor, EDPS)在聯合意見中也明確建議,應將委員會提案中較為寬鬆的表述重新收緊,維持當前適用於高風險系統的“嚴格必要”標準。由此可見,在這一問題上,共同立法者並未接受以簡化為名的普遍標準降低。歐洲資料保護委員會(EDPB)和歐洲資料保護監督員(EDPS)發佈的聯合意見為本次修法提供重要技術支撐圖片來源:EDPB對於人工智慧系統註冊義務,類似的回擺同樣明顯。《人工智慧法》現行框架下,即便供應商依據第6條第3款認定某一原本落入附件三範圍的系統不屬於高風險,仍需在歐盟資料庫中進行註冊。歐盟理事會在3月13日形成的談判立場中明確恢復了這一註冊義務。EDPB和EDPS在聯合意見中也直接指出,刪除現有註冊義務將顯著降低透明度、可追蹤性和問責性,並可能誘發供應商過度援引豁免。換言之,當前共同立法者在這一問題上的基本思路,是允許壓縮表格和程序負擔,但不願意降低監管機構和公眾對潛在風險系統的可見度。對於人工智慧素養(AI literacy)義務和其他支援性條款,當前公開資訊所呈現的,也不是簡單取消,而更像是圍繞如何保留義務屬性同時降低合規摩擦展開調整。歐盟委員會在官網說明中強調,本輪提案要求委員會和成員國推廣人工智慧素養,並繼續為企業提供持續支援,同時保留高風險部署者的培訓義務。雖然歐洲議會和歐盟理事會在公開新聞稿中並未完整展開這一條線的最終表述,但從目前公開資訊看,其基本方向仍然是將支援性機制和執行可行性前置,而不是把原有義務徹底改寫為純鼓勵性安排。三 新增內容:回應新風險、擴展新邊界此次修法相對意外的變化,是共同立法者主動加入了歐盟委員會原始簡化提案中並不突出的新增禁止性內容。歐洲議會在3月26日通過的一讀立場中提出,應新增一項對“nudifier”系統的禁止,即禁止利用人工智慧生成或篡改具有性露骨或私密性質、足以讓人識別為真實個人、且未經本人同意的圖像內容。歐盟理事會在3月13日的談判立場中也加入了類似的新禁令,將“未經同意生成性或私密內容”以及兒童性虐待材料相關內容一併納入禁止實踐範圍。這說明,本輪修法雖然以“簡化”名義啟動,但共同立法者並未把自己限定在純粹減負邏輯之內,而是在新型風險面前保留了局部擴展監管範圍的意願。這一新增內容與近期歐盟對生成式人工智慧傳播侵害性合成內容風險的關注上升直接相關。2026年1月26日,歐盟委員會依據《數字服務法》(Digital Services Act, DSA)對社交平台X及其與Grok功能部署相關的風險管理啟動新的正式調查。委員會在公開說明中明確指出,調查將評估X是否妥善識別並緩解了Grok相關功能在歐盟內部帶來的風險,其中包括被操縱的性露骨圖像傳播風險,以及可能構成兒童性虐待材料的內容風險。它反映了歐盟監管層面對生成式人工智慧在大型社交媒體平台環境中擴散非法或侵害性合成內容風險的警惕上升。另一項新增變化,涉及《人工智慧法》與歐盟部門法之間的關係。歐洲議會在新聞稿中明確提出,為避免行業特定產品安全規則與《人工智慧法》重疊適用,對於已經受其它部門法約束的產品,《人工智慧法》項下的義務可以更寬鬆一些。表面上看,這一思路意在減少企業長期抱怨的“重複合規”;但它同樣可能在未來三方談判中引發爭議,因為一旦處理不當,原本被納入高風險框架的系統,就可能事實上轉入一個更依賴行業法路徑、而較少直接受《人工智慧法》完整約束的狀態。從目前公開文字看,委員會、理事會和議會三方的分歧主要集中在以下幾個方面:委員會更強調把實施時間與支援工具可得性掛鉤,並通過程序和適用範圍調整減輕企業負擔;理事會與議會則在接受延後和便利措施的同時,更傾向於恢復註冊義務、維持敏感資料處理的高門檻,並將新的侵害性合成內容風險納入禁止實踐。這意味著,本輪修法真正形成共識的,不是降低標準,而是延後時間和局部擴圍。歐盟三方機構對修法議題的立場對照,其中綠色表示理事會與議會立場趨同;橙色表示待三方談判協商的分歧點圖片來源:NicFab Blog03AI法案選擇性修改的動力:內部制度、政治格局與外部壓力從目前歐洲議會和歐盟理事會的修法方向看,歐盟願意在程序性安排上給予靈活調整空間,但在涉及基本權利和資料保護的核心標準上依舊保持較強約束,同時又對新興技術風險表現出擴圍意願。這一組合結果,仍需要從制度機制、政治格局和外部環境三個層面理解。一是歐盟資料保護機構的“守門效應”,為共同立法者對部分簡化措施設定制度性約束提供了專業支撐。EDPB和EDPS在2026年1月的聯合意見中明確表示,它們支援減輕行政負擔的一般目標,但建議保留敏感資料處理中的“嚴格必要”標準,建議維持原有註冊義務,並對延後適用時間可能對基本權利保護造成的影響表達擔憂。將這份意見與歐盟理事會和歐洲議會隨後形成的公開立場對照,可以看出較高程度的一致性:被收回或收緊的,恰恰主要集中資料保護機構明確表達保留的領域,包括註冊義務、敏感資料處理等。這表明,在歐盟人工智慧治理中,資料保護機構雖然不是共同立法者,卻通過制度化意見程序實質性壓縮了“減負”可觸及的邊界。這種制度性審慎,也與機構間角色差異有關。歐盟委員會提出簡化方案,既是為了回應實施困難,也是為了服務競爭力議程;但對歐洲議會和歐盟理事會而言,這些調整不僅是技術修補,也可能觸動2023年至2024年間剛剛達成的脆弱平衡。歐洲議會研究服務處在相關背景材料中就將本輪檔案界定為“圍繞實施問題的定向修改”,而不是重設監管理念。也正因此,共同立法者對任何看起來會顯著改變保護強度的措辭修改,天然更為謹慎。二是從政治格局看,本輪修法也是一個從黨團分歧走向跨黨團多數共識的過程。至少從程序上看,歐洲議會內部並非沒有爭議。根據歐洲議會會議記錄,在LIBE委員會關於進入機構間談判的決定公佈後,左翼黨團、綠黨和社會民主黨團曾依規則要求將該決定提交全會表決。這至少說明,對“是否應迅速進入談判”以及“簡化提案的尺度”這一問題,歐洲議會內部確實存在明顯分歧。但最終,3月26日全會仍以569票高票通過一讀立場,說明共同立法者最終形成的文字,較大程度上實現了不同政策偏好之間的可接受交換:產業界和中右翼力量得到時間表和減負安排,強調基本權利保護的力量守住了敏感資料和註冊義務等關鍵門檻,而新增的“nudifier”禁令又回應了跨黨派都難以迴避的公共風險關切。2026年3月13日,賽普勒斯歐洲事務副部長瑪麗萊娜·拉烏納(Marilena Raouna)宣佈歐盟理事會就簡化人工智慧相關規則的提案達成了一致立場圖片來源:歐盟理事會三是歐洲內部遊說和外部跨大西洋壓力構成修法宏觀環境。一方面,《人工智慧法》從簡化到修改的過程,離不開行業遊說與社會組織反向施壓的共同介入。圍繞數字綜合包,企業遊說觀察組織和研究機構均指出,歐盟委員會在前期舉行的五場“reality check”會議中,企業代表佔據明顯多數,而民間社會組織參與相對有限,這一過程因透明度和利益平衡問題而受到批評。就《人工智慧法》本輪修法而言,這些情況表明,委員會提案中的競爭力和減負取向,形成於企業減負訴求高度活躍的背景之下。但從歐洲議會和歐盟理事會當前公開立場看,行業影響主要體現於延期、程序便利和合規支援方面,在敏感資料、註冊義務等核心條款上,並未轉化為系統性的保護降格。另一方面,跨大西洋壓力確實構成了背景,但其影響並非單向。歐盟理事會已明確將本輪簡化提案置於“提升歐盟競爭力”的總框架中,而歐盟委員會也把數字綜合包描述為讓規則“更清晰、更簡單、更有利於創新”的舉措。從這個意義上說,外部競爭壓力和內部競爭力焦慮無疑為修法提供了政治動能。但與此同時,當前共同立法者的實際處理方式又顯示,歐盟並未因此放棄其既有的權利保護取向。它更像是在回應競爭力焦慮的同時,儘量避免在象徵性和制度性層面給外界留下“借競爭力之名整體回撤基本權利保障”的印象。04如何持續觀察仍在進行中的首次修法?至此,歐盟《人工智慧法》的首次修法程序,已經完成委員會提案、歐盟理事會談判立場和歐洲議會一讀立場三個關鍵環節,即將進入三方談判。共同立法者的相互邊界正在這一過程中清晰顯現。更宏觀地看,這次修法揭示了歐盟人工智慧治理的一個重要特徵:在實施節奏和程序負擔上表現出較強彈性,在基本權利保護門檻上保持明顯克制,並在面對新的侵害性風險時保留擴圍衝動。歐盟委員會希望通過數字綜合包實現規則簡化和競爭力提升,歐洲議會與歐盟理事會則在接受延期和便利措施的同時,努力把這種“簡化”限定在程序和執行層面,而不輕易觸碰實質性保護標準。這意味著,至少從目前來看,“簡化監管”在歐盟語境下更多指向的是執行順序、文書負擔和制度銜接的調整,而不是對《人工智慧法》所代表的基本治理方向作出根本轉向。歐盟《人工智慧法》的修改處理程序預示其數字治理路線的走向圖片來源:Biometrics News隨著全球人工智慧治理路徑持續演進,本輪歐盟修法真正值得追蹤的,已經不再是抽象的歐盟是否放鬆監管的問題,而是兩個更具體的觀察點:其一,三方談判最終會把程序性減負推進到什麼程度;其二,《人工智慧法》與其它部門法之間的適用邊界,將被如何重新劃定。這兩個問題,將決定歐盟未來幾年究竟是在維持強監管方向的前提下提高實施效率,還是在減少重複合規的過程中進一步重塑高風險人工智慧治理的具體邊界。 (全球人工智慧創新治理中心)