#AI發展
對話Surge AI創始人Edwin Chen:不融資、不炒作,百人團隊如何4年做到10億美金?
Surge AI 更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性。簡介Edwin Chen是深耕AI資料領域的顛覆式創業者,以Surge AI創始人兼CEO的身份,走出了一條逆勢生長的商業路徑。他帶領不足100人的團隊,4年實現營收破10億美元,全程未接受外部VC投資、自籌資金且盈利至今,成為全球成長最快的AI資料公司。在本期Lenny播客對話中,他毫無保留地拆解核心邏輯:高品質資料的定義絕非“堆人力”,而是像“養育孩子”般注入價值觀與創造力;直言行業對基準測試的盲目追捧正在帶偏AGI方向,揭秘強化學習環境如何成為AI訓練的下一代核心;更痛批矽谷融資炒作套路,給出“專注產品、拒絕跟風”的創業箴言。此外對話中更直擊行業深層痛點:模型差異化的未來趨勢、對於AI目標函數的思辨,以及資料公司如何影響全球AI發展方向。這場對談既有硬核的技術邏輯拆解,也有顛覆傳統的商業認知,想要讀懂AI資料領域的底層邏輯與創業本質,這些乾貨滿滿的細節裡藏著關鍵答案。本期目錄4年營收10億美元神話創業叛逆:拒絕矽谷套路的增長邏輯高品質資料與模型領先的密碼技術爭議:基準測試的陷阱與AGI航向風投之外的創業正道強化學習重塑AI訓練未來模型差異化與AI趨勢冷暖AI訓練的使命與創業初心4年營收10億美元神話主持人Lenny:我們先從你取得的驚人成就說起吧。不到四年營收破10億美元,團隊僅60-70人,且完全自籌資金、未接受任何風投,真正實現了AI賦能小團隊的願景。未來會有更多公司做到這一點嗎?AI在那方面最能幫你們發揮槓桿作用?Edwin Chen:是的,我們去年營收超過10億美元,而員工還不到100人。我認為未來幾年,我們會看到比例更驚人的公司出現——比如人均營收1億美元。AI持續升級會讓這一比例成為必然。Surge AI創始人Edwin Chen(圖片來源:YouTube@Lenny's Podcast)我以前在多家大型科技公司工作過,總覺得其實裁掉90%的人,公司運轉反而會更快,因為最優秀的人才不會被各種瑣事幹擾。所以當我們創辦Surge時,就想以完全不同的方式打造它:組建一支超精簡、超精英的團隊。而且不可思議的是,我們真的做到了。我覺得有兩個關鍵因素在共同作用:一是人們逐漸意識到,不一定非要打造龐大的組織才能成功。二是AI帶來的這些效率提升,會讓創業迎來一個黃金時代。我最期待的是,未來的公司不僅規模會變小,形態也會發生根本性改變。員工少意味著所需資金少,資金少就不需要融資。所以,未來的創業者不再是那些擅長遊說、炒作的人,而是真正精通技術或產品的人。產品也不再是為了迎合營收目標和風投喜好而最佳化,而是由這些小型專注團隊打造的、更具深度和創意的作品——他們是在打造自己真正在乎的東西,是真正的技術創新。創業叛逆:拒絕矽谷套路的增長邏輯主持人Lenny:你們做了很多逆勢而為的事,比如不在領英發爆款帖子,不在推特上持續宣傳Surge。我想大多數人直到最近才聽說過你們,然後你們突然就以“增長最快的十億美元營收公司”的身份亮相了。你們為什麼要這麼做?Edwin Chen:我們從一開始就不想參與矽谷的那套玩法,我一直覺得那很荒謬。想想看,你小時候的夢想是自己從零打造一家公司,每天沉浸在程式碼和產品中?還是向風投解釋自己的每一個決策,陷入公關和融資的無盡循環?不參與這些玩法確實讓我們的路更難走,因為如果選擇融資,你自然會融入矽谷的“產業生態”——風投會在推特上宣傳你,你會登上TechCrunch的頭條,因為高估值融資而被各大媒體報導。而我們只能靠打造出10倍優秀的產品,通過研究人員的口碑傳播獲得成功。但這也讓我們的客戶群體變得非常精準:他們真正理解資料的價值,也真正在乎資料質量,並且清楚優質資料能讓他們的AI模型變得更強大。因為這些早期客戶一直在幫助我們,給我們的產品反饋,所以與他們在使命上的高度契合,對我們早期的發展至關重要。他們購買我們的產品,是因為認可產品的獨特價值,是因為產品能真正幫到他們,而不是因為在社交媒體上看到了宣傳。所以這條路雖然更難,但對我們來說是正確的選擇。高品質資料與模型領先的密碼主持人Lenny:這對創業者來說是個很有啟發的故事——不用整天在推特上宣傳,不用融資,只要埋頭打造產品就行。我非常喜歡Surge的創業故事。能不能簡單介紹一下你們是做什麼的?Edwin Chen:我們本質上是教AI模型分辨好壞。我們利用人類資料對模型進行訓練,推出了很多相關產品。比如SAT、RHF、評估標準、驗證器、強化學習環境等等,同時我們也會衡量模型的進步程度。所以說到底,我們是一家資料公司。主持人Lenny:你一直強調,資料質量是你們成功的關鍵。那麼要打造高品質資料,需要具備那些條件?你們做了那些與眾不同的事?而其他人又忽略了什麼?Edwin Chen:我覺得大多數人根本不理解這個領域中“質量”的真正含義,他們以為只要投入大量人力就能獲得優質資料,但這完全是錯誤的。我舉個例子吧:假設你想訓練一個模型寫一首關於月亮的優秀詩歌,什麼才是“高品質”的詩歌?如果對質量沒有深入思考,你可能會設定這樣的標準:“這是一首詩嗎?有沒有8行?有沒有出現‘月亮’這個詞?”只要滿足這些條件,你就覺得這是一首好詩。但這和我們追求的質量相去甚遠。我們想要的是能拿諾貝爾獎等級的詩歌——它是否獨特?是否充滿精妙的意象?是否能打動你、觸動你的心靈?這才是我們定義的高品質詩歌。這種對質量的深度追求其實非常困難,因為它難以衡量,主觀、複雜且豐富,同時也設定了極高的標準。所以我們必須打造全套技術來衡量這種質量——比如收集關於工作人員的數千個訊號,以及每個項目、每項任務的數千個訊號。到最後,我們能精準判斷出某個人擅長寫詩、寫散文還是寫技術文件。我們會收集關於工作人員背景、專業技能的所有訊號。不僅如此,還會關注他們完成任務時的實際表現,然後利用這些訊號來判斷他們是否適合某個項目,以及他們是否在推動模型進步。打造這些衡量技術確實很難,但這正是我們希望AI能做到的——所以我們對質量有著極致且深刻的追求。主持人Lenny:所以你的意思是,你們會深入理解每個垂直領域中“質量”的定義,對嗎?比如你們會僱傭極具詩歌天賦的人,再結合評估標準,來判斷作品是否優秀?這背後的運作機制是怎樣的?Edwin Chen:具體來說,我們會收集工作人員在平台上操作時的數千個訊號——比如鍵盤敲擊頻率、回答速度、同行評審結果、程式碼標準,同時我們也會用他們的輸出結果來訓練我們自己的模型,觀察這些輸出是否能提升模型性能。這有點像Google搜尋判斷網頁質量的邏輯,主要分為兩部分:一是剔除最差的內容,比如垃圾資訊、低品質內容、無法載入的頁面,這有點像內容稽核。二是發掘最優質的內容,比如找出最優質的網頁,或者最適合某個任務的人。這些人不只是寫得出高中水平的詩歌——他們不會機械地按照指令堆砌詩句,而是能寫出真正觸動人心的作品。主持人Lenny:Claude在程式碼編寫和文字創作方面,長期以來都比其他模型優秀得多。事實上,所有AI程式設計產品都曾基於Claude。是什麼讓Claude能保持這麼久的領先?僅僅是訓練資料的質量,還是有其他原因?Edwin Chen:我覺得有多個因素。首先,資料確實是關鍵——很多人沒有意識到,所有前沿實驗室在選擇模型訓練資料時,都面臨著無數選擇。模型訓練要明確一系列問題:是否用人類資料、如何收集、對內容的具體要求(比如程式設計領域側重前端還是後端,前端更看重視覺、效率還是正確性),以及合成資料的佔比、對基準測試的重視程度。不同公司對此的權衡不同:有的為公關最佳化基準指標,有的更看重實際任務效果。模型後期訓練更像藝術而非科學,開發者的審美和洞察力會影響訓練資料組合。因此,資料很重要,模型的最佳化目標函數同樣關鍵。主持人Lenny:這太有意思了。也就是說,主導這項工作的人的審美,會影響他們對資料的選擇和投喂。這再次凸顯了優質資料的價值——Anthropic正是憑藉更好的資料獲得了巨大的增長和成功。Edwin Chen:沒錯。而且這還只是程式設計一個垂直領域,文字創作領域也是類似的情況。AI看似是冰冷的二進制程式碼,但人類的判斷和審美,依然是這些產品成功的關鍵因素。主持人Lenny:完全同意。真正有審美和洞察力的前沿實驗室會意識到,好詩不能簡化為一系列固定的標準,他們會考慮那些隱含的、微妙的特質。我想這正是他們能脫穎而出的原因。技術爭議:基準測試的陷阱與AGI航向主持人Lenny:你提到了基準測試。很多人都有這樣的困惑:現在很多模型在幾乎所有STEM領域都表現得比人類還好,但對普通人來說,這些模型似乎並沒有在持續變得更智能。你對基準測試的信任度有多高?它們與AI的實際進步相關性強嗎?Edwin Chen:我完全不信任基準測試,主要有兩個原因。第一,很多人——包括行業內的研究人員——都沒有意識到,這些基準測試本身往往是有問題的,比如答案錯誤、存在諸多漏洞,但大多數人並沒有發現這些問題。第二,這些基準測試通常都有明確的客觀答案,這使得模型很容易“鑽空子”最佳化,而這與現實世界的混亂和模糊性完全不同。我常說一個很有意思的現象:這些模型能贏得國際數學奧林匹克競賽金牌,卻連解析PDF都困難重重。這是因為雖然國際數學奧林匹克競賽對普通人來說很難,但它具有客觀性,而解析PDF往往沒有這種客觀性。所以前沿實驗室更容易讓模型在這些基準測試中“鑽空子”最佳化,而非解決現實世界中那些混亂、模糊的問題。因此,基準測試與AI的實際進步之間缺乏直接相關性。主持人Lenny:你這麼一說,我就明白了——衝擊這些基準測試有點像行銷手段。比如Gemini 3剛發佈時,宣稱在所有基準測試中排名第一,是不是就是這樣?他們只是訓練模型在這些特定任務上表現出色?Edwin Chen:是的,這主要有兩方面原因。一方面,這些基準測試有時會以某種方式“洩露資訊”,或者前沿實驗室會調整模型在基準測試中的評估方式——比如調整系統提示詞、調整模型運行次數等,從而“操縱”測試結果。另一方面,如果你優先最佳化基準測試而非現實世界的任務,模型自然會在基準測試中表現越來越好,這本質上也是一種操縱。主持人Lenny:既然如此,你如何判斷我們是否在向AGI邁進?如何衡量這種進步?Edwin Chen:我們真正重視的衡量方式是人類評估。比如,我們會讓人類標註員與模型進行跨領域的對話——讓諾貝爾獎得主等級的物理學家與模型討論前沿研究,讓教師與模型探討課程設計,讓大型科技公司的程式設計師與模型解決日常工作中的問題。我們的標註員都是各自領域的頂尖專家,他們不會淺嘗輒止地瀏覽模型的回答,而是會深入研究。他們會驗證程式碼的正確性,核對物理方程的精準性,從精準性、指令遵循度等多個維度對模型進行深度評估——這些都是普通使用者不會做的。當你在ChatGPT中收到“比較兩個回答”的彈窗時,大多數人只是憑感覺選擇看起來更順眼的回答,而我們的標註員會仔細分析每個回答的各個維度。所以我認為,這種人類評估比基準測試或隨機的線上A/B測試更可靠。主持人Lenny:我很高興看到人類在其中依然扮演著核心角色。未來會不會有一天,我們不再需要這些人類標註員了?比如AI已經足夠智能,我們已經從人類身上學到了所有能學的東西。Edwin Chen:我認為除非我們實現了AGI,否則這種情況不會發生。從定義上來說,在實現AGI之前,模型還有很多需要從人類身上學習的東西。所以我覺得這一天不會很快到來。主持人Lenny:既然說到了AGI,你認為我們距離AGI還有多久?是幾年還是幾十年?Edwin Chen:我更傾向於較長的時間線。我認為人們沒有意識到,從80%的性能提升到90%、99%、99.9%,每一步都越來越難。在我看來,未來一兩年內,模型可能會自動化完成普通L6級軟體工程師80%的工作,但要提升到90%可能還需要幾年時間,再提升到99%又需要更長時間,以此類推。所以我認為,我們距離AGI還有十年甚至幾十年的時間。主持人Lenny:你有個很尖銳的觀點:很多實驗室在推進AGI的方向上是錯誤的。基於你在推特、Google和臉書的工作經歷,你能具體說說嗎?Edwin Chen:我擔心我們沒有打造出能推動人類進步的AI——比如治癒癌症、消除貧困、探索宇宙這些宏大目標——反而在最佳化“劣質AI”。說白了,就是讓模型迎合那些在雜貨店買八卦小報的人的喜好,教模型追逐多巴胺而非真相。這和我們之前聊的基準測試有關。我舉幾個例子:比如行業排行榜LM Arena,普通人僅花兩秒瀏覽選花哨回答,模型靠誇張表達、多表情符號、長篇幅就能上榜,那怕內容胡編亂造。前沿實驗室為公關、企業客戶認可,研究人員為升職,不得不迎合這類排行榜,而去犧牲模型精準性。我認為這些負面激勵正在把AI推向錯誤的方向。我還擔心AI最佳化“參與度”的趨勢。我以前在社交媒體行業工作過,每次我們最佳化參與度,都會出現糟糕的結果——點選誘餌、比基尼照片、大腳怪傳說、恐怖的皮膚病圖片充斥著使用者的資訊流。更令人擔憂的是 AI 最佳化 “參與度” 的趨勢。就像社交媒體曾出現的問題,模型靠吹捧使用者、迎合妄想打造資訊繭房,而矽谷痴迷於使用者時長,讓這些有根本缺陷的模型反而得分更高,負面激勵正把 AGI 推向錯誤方向主持人Lenny:所以你的意思是,AGI的發展之所以放緩,是因為這些實驗室關注了錯誤的目標函數——錯誤的基準測試和評估方式。Edwin Chen:沒錯。主持人Lenny:我知道你可能不方便偏袒任何一家實驗室,畢竟你和所有實驗室都有合作。但有沒有那家實驗室做得更好,意識到了這個錯誤方向?Edwin Chen:我一直非常欣賞Anthropic。我認為Anthropic在自己在乎什麼、不在乎什麼,以及希望模型呈現出怎樣的行為方面,有著非常堅定的原則,這讓我覺得他們的做法更具使命感。Anthropic CEO Dario Amodei(圖片來源:X@AnthropicAI)主持人Lenny:你覺得實驗室還有其他那些重大錯誤,正在阻礙AI的發展或讓AI走向錯誤的方向?除了追逐基準測試和過度關注參與度之外。Edwin Chen:我覺得問題在於他們打造的產品本身,以及這些產品對人類是有益還是有害。比如我經常會想Sora(OpenAI的文字生成視訊模型)——那些公司會打造Sora,那些不會?我自己心裡有答案,但我覺得這個問題的答案,恰恰能反映出這些公司想要打造什麼樣的AI模型,以及他們想要實現什麼樣的未來。右一為OpenAI創始人Sam Altman(圖片來源:X@sama)主持人Lenny:支援Sora的觀點是,它很有趣,人們需要它,能幫助公司創收、研發更好的模型,還能以有趣的方式生成訓練資料。Edwin Chen:核心問題是是否在乎實現目標的過程。就像不會為資助嚴肅報紙而賣八卦小報一樣,不擇手段雖可能達成目標,卻會引發負面後果,甚至偏離更重要的事,因此過程與目標同等重要。風投之外的創業正道主持人Lenny:你提到矽谷存在融資過多、回音室效應等問題,將其稱為 “矽谷機器”,還說這種模式難出有價值的公司,不走風投路線可能更成功。能否結合自身經歷,給創業者一些不同建議?畢竟他們常聽到要找知名風投、搬到矽谷的說法。Edwin Chen:我一直很反感矽谷的諸多創業信條,比如頻繁調整方向、用 “灰色手段” 追增長、快速招聘擴張等。我的建議是:不盲目調方向、不隨意擴張,不僱傭只為簡歷鍍金的人;專注打造唯有自身洞察力和專業知識才能實現的產品,堅守使命感,拒絕跟風追逐估值。創業應是為堅信的宏大理念承擔風險,即便因市場未準備好失敗,也比跟風賺快錢有意義。唯有堅守初心、拒絕誘惑、不輕易放棄,專注打造 “非你不可” 的公司,才可能打造出有價值、能改變世界的企業。如今不少人厭倦矽谷炒作,希望科技能向為有意義大目標努力的方向發展。主持人Lenny:我正在和一位我非常欣賞的風投Terrence Rohan合作一篇文章,我們採訪了五位在“世代級”公司早期就加入的人。他們的經歷和你說的完全一致:這些公司都有宏大的抱負,正如你所說,他們不會為了尋找產品市場契合度而隨意調整方向。所以你的觀點和我們的發現高度契合。Edwin Chen:沒錯。我認為你必須要有宏大的抱負,堅信自己的理念能改變世界,並且願意全力以赴去實現它。強化學習重塑AI訓練未來主持人Lenny:換個話題聊個逆勢觀點:著名 AI 研究者 Richard Sutton 在播客中提出 “痛苦的教訓”,認為 LLM 因學習方式限制是死胡同,會陷入停滯。你認為 LLM 能實現或超越 AGI 嗎?還是需要新的重大突破?Edwin Chen:我認為要實現AGI,還需要新的突破。我是這樣理解的:談到訓練,我更傾向於從“類生物”的角度思考——人類的學習方式有上百萬種,我們需要打造能模仿所有這些學習方式的模型。它們可能在側重點上有所不同,但我們需要讓模型具備人類的學習能力,確保它們有相應的演算法和資料來實現這種學習。因此,只要LLM的學習方式與人類不同,就需要新的突破。這就涉及到強化學習——這是我非常關注的領域,而且我越來越多地聽到,強化學習在模型後期訓練中變得越來越重要。主持人Lenny:你能幫大家解釋一下什麼是強化學習和強化學習環境嗎?為什麼它們在未來會變得越來越重要?Edwin Chen:強化學習本質上是訓練模型達成特定的獎勵目標。強化學習環境則是對現實世界的模擬——就像打造一個視訊遊戲,每個角色都有真實的故事,每個企業都有可呼叫的工具和資料,所有實體之間都能相互作用。比如,我們會模擬這樣的場景:一家初創公司有 Gmail 郵件、Slack 聊天記錄、程式碼庫這些東西,突然 AWS 和 Slack 都崩了,讓模型自己想辦法解決。我們會給模型佈置任務、設計難搞的場景,看它表現好壞來獎懲。強化學習環境有意思的點在於,能把模型在現實複雜任務裡的短板全暴露出來。很多模型在單獨的基準測試裡挺厲害,比如會用個工具、聽個單步指令,但一放到亂糟糟的現實裡就不行了。碰到模糊的Slack消息、沒見過的工具,還得正確操作、改資料庫,而且一步影響後面好多步,跟之前那種學術化的單步環境完全不一樣,模型常常會離譜的徹底翻車。所以我覺得,強化學習環境會變成模型重要的 “訓練場”,它模擬真實世界的情況,能幫模型在實際任務裡變厲害,而不是只在特意設計的環境裡表現好。主持人Lenny:我試著想像一下這個場景:本質上就是一個虛擬機器,裡面有瀏覽器、電子表格之類的工具,還有你們的網站。比如,給模型的任務是“確保surge.com正常運行”,然後突然網站當機了,目標函數就是找出當機原因並修復嗎?Edwin Chen:沒錯。目標函數可能是通過一系列單元測試,也可能是撰寫一份包含事件完整資訊的復盤文件——我們會設定各種不同的獎勵機制來判斷模型是否成功。所以本質上,就是給模型一個目標,讓它利用自己的所有智能去嘗試解決問題,過程中會犯錯,我們會引導它,對正確的行為給予獎勵。你說得對,這正是模型變得更智能的下一階段:強化學習環境專注於那些具有經濟價值的特定任務。Edwin Chen:強化學習環境和之前的SFT、RHF、評估標準這些學習方式不衝突,不是要替代它們,而是補充,讓模型多學一項技能。而且這時候不用專家直接和模型對話、糾錯打分了,而是讓他們設計強化學習環境。比如金融分析師會做電子表格、指定要用到的工具,再設定獎勵規則。這很像人類的學習方式:不斷嘗試,留下有用的方法,丟掉沒用的。主持人Lenny:你提到“軌跡”對強化學習非常重要——不僅僅是設定目標和看結果,還要關注過程中的每一步。你能解釋一下什麼是軌跡,以及它為什麼重要嗎?Edwin Chen:我認為很多人沒有意識到,有時候模型雖然得出了正確答案,但過程卻非常離譜。比如,它可能在中間步驟嘗試了50次都失敗了,最後只是隨機蒙對了答案;或者它的做法非常低效,甚至是通過“操縱獎勵機制”才得到正確答案。所以關注軌跡至關重要。而且有些軌跡可能非常長,如果只看最終結果,就會忽略模型在中間步驟的行為資訊。比如,有時候你希望模型通過反思自己的行為得出正確答案,有時候你希望它一步到位。如果忽略軌跡,就會錯失很多可以教給模型的重要資訊。主持人Lenny:模型進化過程中,那些後期訓練方法最能推動模型進步?評估、強化學習環境在其中扮演了什麼角色?現在我們是不是正朝著強化學習環境的方向發展?Edwin Chen:模型後期訓練最初是從SFT開始的。SFT是什麼意思呢?監督微調很像“模仿大師”——複製大師的做法。後來RHF(基於人類反饋的強化學習)成為主流,這就像“寫55篇文章,讓別人告訴你最喜歡那一篇”。過去一年左右,評估標準和驗證器變得非常重要,這就像“通過評分和詳細反饋學習自己的錯誤”——這也是評估的一種形式。評估通常包含兩個方面:一是將評估結果用於訓練(判斷模型表現是否良好,表現好就給予獎勵)。二是用評估來衡量模型的進步——比如有五個候選模型版本,通過評估選出最好的那個向公眾發佈。現在,強化學習環境成為了新的熱點,這是模型進化的下一個階段。主持人Lenny:很欣賞你們的商業路徑,從給企業提供高品質資料,到現在搭建虛擬機器和應用場景,核心就是適配實驗室的需求。Edwin Chen:沒錯。我真的認為,我們需要打造一系列產品,來反映人類上百萬種不同的學習方式。就像優秀作家不是靠死記硬背語法,而是靠閱讀、練習、反饋等多種不同方式成長一樣,AI 模型也需要上千種學習方式。畢竟神經網路和深度學習的靈感源於人類學習方式與大腦運作,要讓 AI 更智能,就得讓它越來越貼近人類的學習邏輯。主持人Lenny:Surge有一個獨特之處——你們有自己的研究團隊,這在同類公司中似乎很少見。你能談談為什麼要投入資源組建研究團隊,以及這個團隊帶來了那些成果嗎?Edwin Chen:這源於自身研究者背景,我更關注推動行業與研究社區發展,而非僅追求營收。我們公司有兩類研究者:一類是前沿部署研究者,他們與客戶深度協作,分析模型現狀、差距及改進方向,設計資料集、評估方法和訓練技術,助力客戶最佳化模型。另一類是內部研究者,他們的關注點略有不同:一是打造更合理的基準測試和排行榜,規避現有體系的誤導性;二是自研模型,探索優質資料與人才特質,研究訓練及評估技術,完善內部資料產品並明確 “高品質” 定義。主持人Lenny:這太酷了——通常都是實驗室有研究者推動AI進步,像你們這樣的公司擁有自己的研究者進行AI基礎研究,確實很罕見。Edwin Chen:沒錯。這主要是因為我從根本上就關心這些事情。我經常把我們公司看作一個研究實驗室,而不是一家初創公司——這也是我的目標。有點好笑的是,我一直說“我寧願成為陶哲軒(著名數學家),也不願成為華倫·巴菲特”。所以,創造能推動前沿發展的研究成果,而不僅僅是追求估值,一直是我的動力,而且這也確實奏效了。主持人Lenny:你提到你們在招聘研究者,有什麼想分享的嗎?你們在尋找什麼樣的人?Edwin Chen:我們尋找的是那些從根本上對資料充滿興趣的人——比如那些能花10個小時鑽研一個資料集、擺弄模型,思考“模型在這裡失敗了,它應該有什麼樣的行為”的人。我們希望他們能親身實踐,關注模型的定性方面,而不僅僅是定量指標——也就是能親手處理資料,而不只是關心抽象的演算法。模型差異化與AI趨勢冷暖主持人Lenny:我想問幾個關於AI市場的宏觀問題。未來幾年,AI領域會出現那些人們可能沒有充分考慮或預料到的趨勢?那些事情會變得重要?Edwin Chen:我認為未來幾年,模型會變得越來越差異化——這源於不同實驗室的特質、行為方式,以及他們為模型設定的目標函數。一年前我還沒有意識到這一點,當時我覺得所有AI模型最終都會變得同質化,雖然現在某個模型在某個方面可能略勝一籌,但其他模型幾個月後就會趕上。但過去一年我意識到,公司的價值觀會塑造模型的行為。我舉個例子:我讓Claude花30分鐘迭代30版起草了一封無實質影響的郵件。這引發了一個關鍵問題:你理想中的模型行為是怎樣的?是不斷提議最佳化、佔用大量時間以提升參與度,還是優先考慮效率、告知無需再改?模型的行為選擇會從根本上影響其發展,就像Google、臉書和蘋果的搜尋引擎因各自的原則、價值觀和目標而截然不同,未來的大語言模型也會呈現出顯著的行為差異。主持人Lenny:Grock已經呈現出了這種特質——它的“個性”和回答問題的方式都非常獨特。所以你認為未來會有更多這樣差異化的模型?Edwin Chen:沒錯。主持人Lenny:再問一個相關的問題:你認為AI領域中,那些趨勢被低估了,那些又被高估了?Edwin Chen:我認為被低估的趨勢之一是,所有聊天機器人都會開始內建產品功能。我一直很喜歡Claude的“工件”(artifacts)功能,它真的非常好用。前幾天,我發現Claude有個實用功能:生成郵件後會提供按鈕,點選即可將資訊轉為簡訊傳送。我不知道這是不是新功能,但這個概念非常棒。我認為 “升級工件”—— 在聊天機器人中內建微型應用、微型介面 —— 是被低估且潛力十足的趨勢。而 “氛圍程式設計” 被高估了,隨意將其生成的程式碼塞進程式碼庫,雖暫時可用,但長期會導致系統難以維護,這一問題可能在程式設計領域持續存在。主持人Lenny:你的第一個觀點太精彩了。我曾經採訪過Anthropic和OpenAI的首席產品官,問他們AI是否會直接根據使用者需求建立迭代產品?這相當於 “氛圍程式設計” 的升級版——告訴AI你想要什麼,它就直接打造產品。也契合你所說的未來方向。Edwin Chen:沒錯。我認為這是一個非常強大的理念——AI能幫助人們以更高效的方式實現自己的想法。價值思辨:AI訓練的使命與創業初心主持人Lenny:我很好奇你創辦Surge的契機。Coinbase創始人Brian Armstrong曾在演講中提到,自己經濟學、密碼學及工程師的獨特背景,讓他成為創辦Coinbase的不二人選。我覺得你的故事和他很相似,能談談你的背景,以及它如何引領你創辦Surge嗎?Edwin Chen:我自幼痴迷數學與語言,因 MIT 在數學、電腦科學領域的頂尖地位及諾姆・喬姆斯基的存在選擇就讀該校,求學時渴望找到連接這些領域的底層理論。後來在Google、臉書、推特擔任研究者期間,我反覆面臨訓練模型所需資料難獲取的問題,且始終堅信高品質資料的重要性。2020 年 GPT-3 發佈後,我意識到打造更高級功能的模型需要全新解決方案,而當時的資料公司僅專注於圖像標註等簡單任務。憑藉數學、電腦科學與語言學交叉領域的背景,我在 GPT-3 發佈一個月後創辦了Surge,使命是打造推動 AI 前沿發展所需的應用場景。主持人Lenny:你說一個月後,是指GPT-3發佈一個月後嗎?Edwin Chen:是的。主持人Lenny:哇,這真是個偉大的決定。除了已經取得的巨大成功,現在是什麼在驅動你繼續打造Surge,在這個領域深耕?Edwin Chen:我本質是一個科學家,曾想成為數學或電腦科學教授,探索宇宙、語言與溝通的本質,還懷揣和諾姆·喬姆斯基一起用數學、電腦科學及語言學知識破解外星語言的夢想。至今,我仍熱愛深度分析新發佈的AI模型,親自擺弄、運行評估、對比優劣並撰寫詳細報告,即便很多報告對外稱來自資料科學團隊,實則多由我完成。我不擅長CEO的典型工作,卻樂於寫報告、與研究團隊深夜深入探討模型,慶幸能持續參與資料和科學相關工作。驅動我的是希望Surge在AI乃至人類未來中發揮關鍵作用,我們在資料、語言、質量等領域有獨特視角。Surge更像研究實驗室,注重好奇心、長期激勵與學術嚴謹性,而非季度指標和董事會報告上好看的資料。主持人Lenny:通過這次對話,我意識到像你們這樣的公司,對AI的發展方向有著巨大的影響力。你們幫助實驗室發現自己的不足和需要改進的地方,而不僅僅是OpenAI等公司的負責人在引領AI的發展——你們也在其中發揮著重要作用。Edwin Chen:沒錯。現在的生態系統中,人們其實並不知道模型的發展方向,也不知道如何塑造它們,不知道人類在未來這一切中應該扮演什麼角色。所以我認為,我們有很多機會繼續引導這場討論。主持人Lenny:我知道你對這項工作對人類的意義有著非常深刻的見解,能談談嗎?Edwin Chen:我可能會有點哲學化,但這個問題本身就帶有哲學意味,所以請大家耐心聽我說。我們所做的工作,最直接的描述是“訓練和評估AI”,但我經常思考一個更深層次的使命:幫助客戶明確他們的“理想目標函數”——也就是他們希望自己的模型成為什麼樣的模型。一旦他們明確了這一點,我們就會幫助他們訓練模型朝著這個北極星目標前進,幫助他們衡量進步。但這其實非常困難,因為目標函數是豐富而複雜的。這就像養育孩子,定義和衡量 “成功”(如開心、經濟成就)遠比看 SAT 分數複雜。我們的工作是幫客戶找到 AI 的 “北極星目標” 並衡量其進度。核心是思考:是否在打造推動人類進步的系統?如何通過資料集訓練和衡量這種進步?是否在最佳化錯誤方向(如讓人類變懶)?衡量 “人類進步” 難度大,而點選量等表面指標易量化,但我們的意義正在於專注前者 —— 追求複雜目標函數,尋找匹配的資料,訓練出讓生活更豐富、激發好奇心與創造力的 AI。這很難,因為人類本質上是懶惰的——讓AI迎合人類的惰性,是提升參與度、讓各項指標好看的最簡單方法。所以,選擇正確的目標函數,並確保我們朝著這個目標最佳化,而不是被那些容易衡量的表面指標帶偏,這對我們的未來至關重要。主持人Lenny:哇,你的分享讓我對AI的打造、訓練以及你們所做的工作有了全新的認識。最後一個問題:創辦Surge之前,有什麼是你希望自己早知道的?很多人創業時都不知道自己會面臨什麼,你想對過去的自己說些什麼?Edwin Chen:我以前從來沒想過自己會創業。我喜歡做研究,一直很欣賞DeepMind——他們是一家了不起的研究公司,被收購後仍然能繼續做出色的科學研究。但我一直覺得他們是一個神奇的例外。所以我以前以為,如果我創辦公司,就必須成為一個整天盯著財務資料、開沒完沒了的會、做各種枯燥事情的商人——這是我一直很反感的。但沒想到事實完全不是這樣。我現在仍然每天沉浸在資料中,做自己喜歡的事——撰寫分析報告、和研究團隊交流。這本質上是“應用研究”,我們打造的這些出色的資料系統,正在真正推動AI的前沿發展。所以我希望自己早知道:你不需要把所有時間都花在融資上,不需要持續製造熱度,不需要變成自己不喜歡的樣子。只要打造出足夠優秀的產品,它自然能突破所有噪音,讓你獲得成功。如果我早知道這是可能的,我會更早開始創業。我希望這個故事能激勵更多人。主持人Lenny:這真是一個完美的結尾。我覺得這正是創業者需要聽到的話,這次對話一定會激勵很多創業者,尤其是那些想以不同方式做事的創業者。Edwin,非常感謝你今天的分享。Edwin Chen:謝謝大家,再見。 (創新觀察局)
Nature重磅:中國牽頭全球AI治理!這是阻止AI毀滅人類的唯一希望
"AI可能毀滅人類,而中國正在引領全球應對這場危機——其他國家必須加入!"你是否知道,全球AI發展正面臨一個致命悖論:我們正在以火箭般的速度開發AI,卻沒有建立相應的安全機制?Nature最新 editorial 發出震撼警告:中國提出的"世界人工智慧合作組織"(WAICO)可能是阻止AI毀滅人類的唯一希望,而美國等國家的不作為將使全球陷入危險境地!🔥 AI的雙面性:天使還是魔鬼?AI模型擁有令人驚嘆的能力,既能加速科學發現、推動經濟增長,也可能在不經意間造成災難性後果:• 加劇社會不平等:AI演算法可能強化現有的社會偏見• 助力犯罪活動:深度偽造技術已用於詐騙和政治操縱• 傳播虛假資訊:AI生成內容難以分辨真偽• 最可怕的威脅:部分頂尖研究者警告,超級智能AI可能在未來"毀滅人類""它們不完全理解世界,可能會以不可預測的方式失敗。" ——Nature editorial更令人擔憂的是,在AI開發的"百米衝刺"中,安全問題被嚴重忽視。許多專家擔心,當前的AI熱潮正在形成一個即將破裂的經濟泡沫,而全球卻缺乏統一的監管框架!🌐 全球AI治理:三國演義的現狀🇺🇸 美國:自由放任的"野蠻生長"美國作為全球AI技術的領導者,卻沒有國家層面的AI法規,僅靠各州零散的法律和企業自律。最新發佈的"AI安全指數"顯示,沒有一家美國公司得分高於C+。更令人擔憂的是,美國政府不僅沒有加強監管,反而在推動"創世任務"(Genesis Mission),為AI開發者提供前所未有的政府資料存取權,被比作"登月計畫"。"美國公司期望自己監管自己,同時又在無休止的競爭中。" ——Nature🇪🇺 歐盟:謹慎前行的"AI法案"歐盟去年推出的《AI法案》要求最強大的AI系統加強威脅分析,但實施效果尚不明確。媒體報導稱,企業正在向歐盟施壓,要求放寬法律限制。儘管有巨額罰款的威脅,但法案實施仍處於初級階段,實際效果有待觀察。🇨🇳 中國:快速行動的"監管先鋒"與美歐不同,中國自2022年以來已推出一系列AI法規和技術標準:• 要求AI開發者提交生成式AI模型進行部署前安全評估• 強制在AI生成內容上加入可見、不可磨滅的水印• 2025年上半年發佈的AI國家標準數量等於過去三年總和"中國在2025年上半年發佈的AI國家標準數量等於過去三年總和。" ——Concordia AI中國AI監管的核心理念是:既要推動AI廣泛應用,又要確保可追溯性和企業責任。儘管中國AI企業在"AI安全指數"上的得分低於西方同行(部分原因是未能充分應對災難性濫用風險),但其監管速度和系統性令人矚目。🌐 WAICO:中國提出的"AI聯合國"中國提出建立"世界人工智慧合作組織"(WAICO),旨在協調全球AI監管規則,同時"充分尊重各國政策和實踐的差異",並特別關注全球南方國家。WAICO的總部計畫設在上海,雖然細節尚未明確,但Nature認為:"建立這樣一個機構符合所有國家的利益,全球各國政府都應該加入。"WAICO不會直接強制執行AI規則(中國也表示支援聯合國主導的全球AI治理),但它可能成為各國逐漸凝聚共識的平台。🤝 為什麼中國方案值得關注?1️⃣ 中國AI的全球影響力中國推行"開放權重"政策,使全球公司越來越多地基於中國AI建構服務。中國AI模型的可獲取性和低成本正在重塑全球AI生態。"中國'開放權重'模型政策意味著全球公司越來越多地基於中國AI建構服務。" ——Nature2️⃣ 全球治理的迫切需求現有全球AI治理努力——如經濟合作與發展組織的AI原則和歐洲委員會的《人工智慧框架公約》——要麼不具約束力,要麼未得到有效執行。Nature建議,WAICO可以借鑑國際原子能機構(IAEA)的模式:各國同意限制AI開發並開放系統接受檢查,使各國能夠驗證彼此是否遵守規則。🌍 科學啟示:AI治理不是零和遊戲Nature editorial 發出重要警示:"AI治理不應被視為地緣政治競賽,認為一個國家的安全可以通過技術主導來保證。'獲勝'對大多數國家來說不是選項,AI軍備競賽不會保證人們更安全或更富裕。"相反,全球應共同合作,就什麼是安全的AI以及世界希望如何利用AI達成共識。中國學者Angela Zhang指出,儘管中國監管有其政治考量,但其基本動機與他國"相當相似":"他們不想被機器人消滅。"💡 科研人員和企業的行動指南1️⃣ 關注中國AI標準隨著中國AI影響力的擴大,瞭解中國的AI標準對全球研究人員和企業至關重要。忽視這一趨勢可能導致技術落後或合規風險。2️⃣ 參與全球對話科研人員應積極參與多邊對話,幫助評估什麼樣的全球治理既有效又現實。AI安全需要全球智慧,而非單一國家的解決方案。3️⃣ 平衡創新與安全企業和研究機構需要在追求創新的同時,主動加強內部AI安全機制,而不是等待監管強制要求。 (聖不可知)
“大交易”:一場遲到的美國AI戰略自救
前不久,前白宮人工智慧特別顧問本·布坎南(Ben Buchanan)在《外交事務》雜誌上拋出了他的“大交易”設想,華盛頓的政策圈似乎又找到了一個新的敘事框架。這位在2021至2025年間負責協調拜登政府AI政策的核心人物,試圖為美國AI發展勾勒一幅宏大藍圖:科技行業必須要與政府達成戰略協議,前者獲得能源基礎設施、人才管道和國家安全保護,後者則將AI整合進國防體系並確保其不破壞所謂的民主價值。這個提議聽起來既務實又理想主義——問題恰恰在於,它可能過於理想主義了。更令人玩味的是,就在布坎南構想這份“大交易”之後不久,DeepSeek正在以一種近乎諷刺的方式,拆解著他所依賴的核心假設。這家被美國晶片出口管制嚴密封鎖的公司發佈了DeepSeek V3.2,實測在開源模型中達到全球最高水平,與海外頂級閉源模型的差距縮小至約一個季度。該模型分為普通版和特別版:普通版性能對標 GPT-5,特別版則媲美 Gemini 3.0 Pro,尤其在數學與推理能力上表現突出。這不僅是一次技術突破,更是對美國“晶片遏制”戰略的一記響亮耳光。晶片政策的分歧:遏制還是“上癮”?在理解布坎南“大交易”的困境之前,我們必須先釐清美國AI戰略界內部一個長期存在但鮮被公開討論的根本分歧——關於對華晶片政策,決策圈內實際上存在著兩種截然不同的哲學。本·布坎南(Ben Buchanan)第一派可稱為“技術依賴派”或“上癮派”。這派觀點認為,應當允許中國大陸在一定程度上獲取美國的先進AI晶片,使其AI生態系統建立在美國技術基礎之上,形成一種戰略性依賴。這種策略的邏輯類似於毒品販子的手法:先讓對方上癮,然後控制供應鏈就能控制對方的技術發展節奏。輝達最初對中國大陸市場的態度——不斷推出降級版晶片如H800、H20來規避出口管制——某種程度上體現了這種思路。這一派相信,只要中國大陸市場的AI產業離不開美國晶片,華盛頓就永遠掌握著關閘的權力。第二派則是布坎南所代表的“全面遏制派”。在他們看來,任何對中國大陸的技術滲透都是危險的,必須在製造端實施最嚴格的封鎖,不給中國大陸任何獲取先進算力的機會。這種觀點在2022年10月拜登政府大幅擴展晶片管制時達到高峰,不僅限制先進晶片出口,還限制晶片製造裝置,甚至禁止美國公民為中國大陸半導體公司提供技術支援。布坎南在文中對中國大陸“軍民融合”戰略的惡毒指控,都清晰地顯示出他屬於這一陣營。然而諷刺的是,DeepSeek的成功恰恰證明了兩種策略可能都已失效。“上癮派”的夢想破滅了——中國大陸AI企業並沒有因為依賴美國晶片而束手就擒,反而在被斷供後激發出了驚人的技術創新能力。而“遏制派”的策略同樣遭遇挫敗——即便在最嚴格的出口管制下,中國大陸企業仍通過演算法最佳化、架構創新和可能的走私管道,實現了技術突破。正如智庫Stimson Center的分析所言,出口管制的“卡脖子”假設本身就是一個謬誤——每一次限制都會留下縫隙和漏洞,而目標國家的適應和創新能力往往被嚴重低估。更值得警惕的是,這種封鎖正在催生一個危險的結果:“設計出去”(designing out)。當美國技術被完全排除在外時,中國大陸企業別無選擇,只能開發完全繞過美國技術的替代方案。華為用麒麟9000s晶片替代高通,導致高通2024年損失6000萬套晶片銷售,就是一個典型案例。長期來看,這種“設計出去”將永久性地侵蝕美國在全球半導體生態系統中的地位——當中國大陸建立起完整的國產替代體系後,即便美國日後放鬆管制,市場份額也難以奪回。布坎南的“大交易”建立在全面遏制戰略能夠成功的假設之上,但現實已經在反覆證明,這個假設正在崩塌。能源幻覺與基礎設施的政治死結“大交易”的第一個支柱是政府為AI產業提供充足的能源基礎設施。布坎南在文中引用的資料令人震撼:到2028年,美國AI產業僅新增電力需求就將達到500億瓦,相當於整個阿根廷的用電量,資料中心可能消耗美國電力產量的12%。與此形成鮮明對比的是,中國大陸每年新增電力容量達12%,而美國在2005至2020年間幾乎沒有新增淨電力。這個對比看似有力,實則掩蓋了一個更深層的問題:為什麼美國在過去二十年間幾乎沒有新增電力?答案並非技術能力不足,而是美國社會在能源政策上陷入了一個幾乎無解的政治死結。一方面,任何大規模的新建電廠項目——無論是傳統化石能源還是核電——都會面臨環保團體、地方社區和監管機構的多重阻撓。美國的環境影響評估流程可以讓一個電廠項目耗費十年以上時間仍無法開工。另一方面,即便是清潔能源項目,也面臨著“不要建在我家後院”(NIMBY)效應的困擾。加州在可再生能源方面走在全美前列,但其電網卻經常因為峰值負荷而陷入危機,而新建輸電線路的項目同樣被環保和土地糾紛困住。布坎南樂觀地認為,AI驅動的能源繁榮將創造就業、加速清潔能源開發,實現“無碳化營運”。但這種敘事忽略了一個殘酷現實:在美國當前的政治生態下,任何大規模基礎設施建設都會遭遇曠日持久的黨派爭鬥、司法訴訟和監管審批。川普政府宣佈的5000億美元Stargate項目看起來宏大,但如果我們回顧川普第一任期內承諾的基礎設施投資有多少真正落地,就不難理解這些承諾的可信度。美國電力短缺狀況(@華盛頓大學)更諷刺的是,當前美國政治氛圍下,對AI的態度本身就充滿分裂。一部分人將AI視為新的經濟引擎和國家安全工具,另一部分人則擔心AI導致失業、隱私侵犯和社會不平等。在這種背景下,要求政府為AI產業大規模投資能源基礎設施,本身就可能引發激烈的政治反彈。那些在鏽帶州失去工作的選民,那些被高房價和生活成本壓得喘不過氣的中產階級,憑什麼要為矽谷科技巨頭買單,幫助他們獲得更多電力來訓練AI模型?中國大陸的優勢恰恰在於其政治體制能夠快速調動資源實施大規模基礎設施建設。當決策者確定AI是戰略重點時,電廠、資料中心和配套設施能夠以驚人的速度上馬。這不是單純的技術問題,而是治理模式的差異。布坎南的“大交易”假設美國政府能夠提供類似的支援,但這個假設本身就忽視了美國政治體制的結構性制約。人才政策的內在矛盾“大交易”的第二個支柱是維持國際人才管道。布坎南正確地指出,70%的頂級在美AI研究人員出生在國外,65%的領先美國AI公司至少有一位移民聯合創始人。但他對人才政策面臨的困境卻語焉不詳。川普政府在移民政策上的立場與布坎南的設想存在根本衝突。將H-1B簽證費用提高到10萬美元,大幅收緊國際學生入學政策(2025年可能導致國際學生入學率下降30%-40%),這些措施的政治邏輯與“保持AI人才流入”完全相悖。但問題的關鍵在於:這些移民政策並非出於無知或短視,而是回應了美國社會中一股強大的民粹主義情緒。對許多美國選民而言,保護美國就業、防止移民搶走機會是比維持AI領先地位更直觀、更緊迫的關切。當布坎南談論引進更多外國AI人才時,政治現實是,這種政策會被解讀為“讓外國人來搶美國人的工作”。技術精英和政策制定者可以用國家安全和經濟競爭力來論證開放移民的必要性,但這套話語在政治市場上的說服力遠不如美國優先來得有力。更深層的矛盾在於,布坎南一方面希望政府幫助AI產業獲得更多國際人才,另一方面又主張將AI深度整合進國家安全體系。但任何有過安全審查經驗的人都知道,涉及國防和情報的項目對人員背景有極其嚴格的要求。當AI越來越多地被用於軍事和情報用途時,如何平衡人才開放性和安全審查的嚴格性?那些來自對手國家的研究人員——包括大量來自中國大陸的AI專家——是否還能參與最前沿的AI研發?布坎南似乎希望魚與熊掌兼得:既要保持美國作為全球AI人才磁石的地位,又要加強對AI技術的國家安全管控。但這兩個目標存在內在張力。中國大陸正在積極招募AI專家回國,而美國日益收緊的移民政策和日益政治化的科研環境,可能會加速這種人才回流。當美國大學裡的中國大陸留學生發現自己無論多麼優秀都難以獲得工作簽證,當他們的研究因為敏感性而受到限制時,選擇回國就成了理性選擇。而這正是布坎南所擔心的人才外流。政府-產業合作的結構性障礙“大交易”設想的核心是政府與科技行業建立深度合作關係。但這個設想面臨一個尷尬的現實:雙方之間存在著深刻的互不信任。從科技行業的角度看,政府意味著繁瑣的監管、緩慢的決策流程和對商業創新的束縛。矽谷文化崇尚“快速行動,打破陳規”(Move fast and break things),而政府系統的特點恰恰是謹慎、官僚和風險規避。更重要的是,科技公司擔心與政府深度合作會限制它們的商業自由。如果將AI系統深度整合進國家安全體系,這意味著更嚴格的出口管制、更多的安全審查、更少的國際市場機會。對那些在全球營運的科技巨頭而言,這是一個巨大的代價。從政府的角度看,科技公司則是一群難以管束、唯利是圖、不考慮國家安全的商業實體。OpenAI、Google、Meta這些公司都曾因為與軍方和情報機構的合作項目引發內部員工抗議。2018年,Google員工成功迫使公司退出了與國防部的Maven項目。這種企業內部對軍事合作的牴觸,讓政府對科技公司的可靠性深表懷疑。布坎南在白宮任職期間主導的一些政策,恰恰體現了這種張力。拜登的AI行政命令要求科技公司自願做出安全承諾,但這些承諾大多停留在原則層面,缺乏強制約束力。而當政府試圖實施更嚴格的監管時,科技公司又會動用強大的遊說力量來阻撓。這種貓捉老鼠的遊戲,很難想像能夠昇華為布坎南所設想的“大交易”式的戰略夥伴關係。更根本的問題在於,“大交易”假設政府和產業能夠就AI的發展方向達成一致。但實際上,雙方對許多核心問題存在嚴重分歧:AI應該多大程度上開放?誰應該控制最強大的AI系統?AI帶來的經濟收益應該如何分配?AI技術應該向那些國家和實體出口?在這些問題上,政府和科技公司的利益遠非完全一致,而且內部也存在嚴重分歧。要在這樣的基礎上達成一個覆蓋能源、人才、國家安全等多個維度的“大交易”,難度之大可想而知。時間的殘酷性與政策的惰性布坎南正確地指出,AI進步速度極快,政策制定者必須在極短時間內做出重大決策。但他的“大交易”卻要求完成一系列在美國政治體制下通常需要數年甚至數十年才能實現的任務:大規模能源基礎設施建設、移民政策根本性改革、政府-產業關係的深刻重構、國家安全體系的全面AI化。這裡存在一個根本性的時間錯配:AI技術的演進以月為單位,而美國政治體制的變革以年甚至十年為單位。在拜登任期內,布坎南主導的AI行政命令確實取得了一些進展,建立了AI安全研究所等機構,推動了一些自願承諾。但這些成就與“大交易”設想的宏大目標相比,幾乎微不足道。而現在,川普政府正在系統性地拆除拜登時期建立的許多AI治理框架,包括放鬆晶片出口管制——這正是布坎南最擔心的事情。政治周期的不穩定性使得任何長期戰略都難以為繼。一個政府費盡心力建立的政策框架,可能在下一個政府上台後被全盤推翻。在這種情況下,要求政府和產業就一個需要十年、二十年才能見效的“大交易”達成共識,無異於痴人說夢。中國大陸的體制優勢恰恰在於其政策的連續性和長期性——當中國大陸將AI確定為戰略重點時,這個戰略可以持續數十年不變,資源投入也能夠保持穩定。美國的民主制度有其獨特價值,但在需要長期戰略規劃的技術競爭中,這種制度的弱點暴露無遺。布坎南的“大交易”本質上是一個防禦性戰略,它的出發點是“防止失去領先地位”而非“創造新的突破”。這種心態本身就反映了一種焦慮和不自信。當一個國家的AI戰略主要由防止對手超越而非創造革命性創新驅動時,它實際上已經喪失了先機。中國大陸的AI戰略雖然也包含趕超美國的目標,但更重要的是建立自主創新能力和獨立的技術生態。DeepSeek的成功正是這種戰略思維的體現——與其被動等待美國放鬆封鎖,不如主動探索新的技術路徑。難以癒合的裂痕最終,“大交易”之所以難以實現,根源在於它試圖彌合的那些裂痕可能本就無法癒合。美國社會在AI問題上的分裂是深層次的。技術精英認為AI是下一個增長引擎,必須不惜一切代價保持領先;普通民眾擔心AI導致失業和不平等;環保主義者反對為AI建設消耗巨量資源的資料中心;民族主義者要求限制移民和技術出口;國際主義者強調開放合作的重要性。這些立場之間的矛盾,不是一個“大交易”就能調和的。政府和科技公司之間的不信任是結構性的。科技公司希望政府提供支援但不要干預,政府希望科技公司服從國家利益但又不完全信任它們。這種關係更像是一種脆弱的共生而非穩固的夥伴關係。美國和中國大陸的競爭是長期的、全方位的,不可能通過單一的技術封鎖或單一的政策框架來解決。中國大陸的制度優勢在於能夠集中資源和長期規劃,美國的制度優勢在於創新活力和市場機制。但當競爭進入到需要國家動員和長期規劃的階段時,美國的制度優勢可能反而成為劣勢。布坎南的“大交易”建立在一個過於樂觀的假設之上:只要政府和產業達成正確的協議,美國就能夠延續其在AI領域的領先地位。但現實可能更加殘酷——不是美國不夠努力,不是政策不夠好,而是歷史的鐘擺正在擺向另一邊。技術霸權從來不是永恆的,曾經的領先者往往會在新的技術範式轉換中失去優勢。AI可能正是這樣一次範式轉換,而“大交易”式的修補方案,或許只是延緩衰落而非逆轉趨勢。在DeepSeek證明封鎖無效、川普政府拆除拜登時期的AI治理框架、美國社會在移民和能源政策上陷入僵局的當下,布坎南的“大交易”更像是一個精緻的政策幻想,而非可行的戰略方案。這並非說布坎南的診斷不對——美國在AI領域確實面臨能源、人才、安全整合等多重挑戰。問題在於,他開出的藥方需要一個在當前美國政治現實中幾乎不存在的條件:高度共識、長期承諾、政府效率和超黨派合作。當這些前提條件都不具備時,“大交易”就只能停留在紙面上,成為又一個華盛頓政策圈裡的美好願景,而非能夠真正塑造現實的戰略行動。 (心智觀察所)
搶跑未來!麥肯錫點名這 18 個未來賽道
導讀未來 15 年全球經濟增長的核心動力在那?麥肯錫全球研究院近日發佈文章,指出從 AI 軟體、太空探索到核裂變、模組化建築,18 個被重點圈定的 “未來賽道”,正憑藉技術突破、巨額投資與龐大市場的 “組合拳”,成為重塑商業格局的關鍵力量。文章基於 2024 年研究,回顧 2005-2023 年已湧現的 12 個競爭領域,分析其特徵與表現,提出 “領域創造要素”,並識別出 18 個未來潛在領域及價值潛力,同時為企業、投資者等主體提供定位與決策建議。一、核心概念1. 定義“競爭領域”(Arenas) 是擁有最快增長速度與最強競爭動態性的行業,其本質是 “高增長 + 高動態性” 的結合體,表現為新進入者多、研發投入高、經濟利潤豐厚,且存在 “高強度制勝競賽”—— 回報巨大但被取代風險高。2. 領域創造要素(3 大 “配方”)二、2005-2023年湧現的12個競爭領域12個競爭領域:雲服務、電動汽車(EV)、支付、電子商務、消費電子、生物製藥、視聽娛樂、工業電子、半導體、消費網際網路、軟體、資訊驅動的商業服務。1. 關鍵表現(對比非領域行業)(1)增長能力市值份額:2005-2023 年,12 個領域的總市值佔比近乎翻倍;營收增長:以電子商務為例,2005 年營收 150 億美元→2023 年超 1 兆美元,增速遠超整體經濟;經濟利潤:2005 年佔全球總經濟利潤的 9%→2023 年升至 35%,2023 年頭部領域為消費網際網路(900 億美元)、消費電子(760 億美元)、半導體(620 億美元),而 2024 年 Nvidia 單家企業經濟利潤達 660 億美元(超 2023 年整個半導體行業樣本)。(2)動態性動態性以 “洗牌率” 衡量,即企業市場份額累計變化。2. 區域分佈(2023 年)美國:主導地位,佔 12 個領域總市值的75%(2020 年為 65%),除工業電子外,在所有領域均為領導者;中國:佔總市值的 10%,在電子商務、半導體、消費網際網路、EV 領域表現突出;歐洲:在生物製藥、工業電子、資訊驅動的商業服務領域有一定份額,但在非領域行業佔比 21%(領域僅 10%),整體存在感較弱。三、未來18個潛在競爭領域(2025年後)1. 分組與領域列表報告指出,未來 18 個潛在競爭領域總體可以分為5大類股,如圖所示:2. 未來價值潛力(截至 2040 年)報告從多個方面預測了18個潛在競爭領域的價值潛力:預計收入:29 兆 - 48 兆美元;預計利潤:2 兆 - 6 兆美元;GDP 貢獻:佔全球總 GDP 增長的18%-34%;利潤與收入差異:以半導體(營收第六,利潤第三,利潤率 20%-25%)和 EV(營收第四,利潤第七,利潤率 4%-10%)為例,行業利潤率導致利潤排名與收入排名存在偏差。四、結語從過去二十餘年雲服務、EV 等 12 個 “競爭領域” 重塑產業格局,到未來十五載半導體、AI、太空等 18 個賽道有望撐起 29 兆 - 48 兆美元市場、貢獻全球 34% GDP 增長,研究勾勒出 “領域驅動增長” 的核心邏輯 —— 技術突破、 升級型投資與龐大市場構成的 “領域密碼”,始終是行業爆發的關鍵。這些未來賽道不僅將改寫商業競爭規則,更會重塑人們的消費、健康與生活方式,同時也帶來地緣協作、倫理規範等新命題。研究指出,18 個未來潛在競爭領域的發展將受到三大核心 “swing factors(搖擺因素)” 的影響——地緣政治、AI發展、綠色轉型,這些因素不僅會決定領域的增長速度與規模,還可能重塑其全球佈局與價值分配邏輯。對於企業、投資者與從業者而言,看懂 “領域” 的演變規律、啟動 “領域雷達” 精準定位,既是把握增長紅利的前提,也是在加速變革中站穩腳跟的關鍵。未來已來,那些能提前錨定賽道、主動擁抱變革的參與者,終將成為下一輪產業浪潮的引領者。 (稻香湖下午茶)
輝達黃仁勳:我對AI發展趨勢的看法
10月8日晚間,輝達創始人、CEO黃仁勳接受 CNBC 專訪,圍繞 AI 產業鏈、美國與中國的競爭格局、公司投資策略以及行業趨勢等話題發表系統性看法。下面是我整理的本次訪談核心內容,分享給大家。黃仁勳的核心觀點如下:1、過去六個月,計算需求呈指數級大幅增長。2、AI從有趣變成了具備實用性,已經能讓AI企業盈利。3、AI模型領域,中美雙方水平接近,但中國的AI應用發展速度極快。4、對xAI正在進行的融資興奮,他幾乎想參與埃隆·馬斯克每一個項目。5、對企業而言,真正有價值的是專用智能;而對消費者來說,有價值的則是通用智能。6、輝達與OpenAI的合作模式,和AMD不同。AMD在產品還沒完全成型前就願意讓出公司10%股權。+以下為對本次訪談核心內容的總結(有些許調整,但不影響閱讀):一、輝達與 OpenAI 的合作模式合作歷史悠久:早在 2016 年,輝達就向當時的非營利初創公司(即後來的 OpenAI)交付了全球首台 AI 超級電腦 DGX‑1,奠定了長期合作基礎。合作方式獨特:輝達主要通過微軟 Azure、甲骨文 OCI、CoreWeave 等雲平台向 OpenAI 提供 GPU 算力。近期開始直接向 OpenAI 銷售完整的 AI 基礎設施(包括 CPU、GPU、網路晶片、交換機及軟體棧),幫助其自建超大規模資料中心。資金與股權安排:OpenAI 目前現金不足,建設每 10GW AI 工廠需約 500‑600 億美元。輝達將通過未來收入、股權或債務方式參與融資,但並非必須持股。黃仁勳坦言自己對當初在 OpenAI 的投資不足感到遺憾,認為 OpenAI 是史上最具價值且盈利能力極強的 AI 公司。與 AMD 的對比:AMD 在與 OpenAI 合作時,甚至在產品未成熟前就讓出約 10% 股權,黃仁勳認為這“聰明”。輝達則更注於技術領先和全端解決方案,保持對晶片和系統的完整控制。二、AI 產業的商業化處理程序新一代 AI 公司已實現盈利:過去幾年,OpenAI、Anthropic、xAI 等模型研發企業主要靠融資維持,業務多為虧損。近期模型具備推理、聯網檢索、工具使用等實用功能,使用者付費意願顯著提升,AI 服務已進入盈利階段。企業級 AI 需求爆發:以 Cursor 為代表的 AI 程式設計工具已在輝達內部全員使用,顯著提升生產力。企業級 AI 應用正成為增長最快的細分市場,推動 AI 從“有趣”向“必需”轉變。算力需求指數級增長:過去六個月,AI 推理與生成能力提升帶來計算需求的雙重指數增長。每建成一座 AI 工廠(約 10GW)需 500‑600 億美元資本支出,全球 AI 基礎設施總規模已達約 2.5 兆美元,CAPEX 約 5 千億美元,仍處於起步階段。三、中美 AI 競爭態勢技術堆疊整體差距不大:黃仁勳指出,在能源、晶片、基礎設施等層面,中國已具備或超過美國的實力;在 AI 模型層面,兩國水平接近,歐美模型(OpenAI、Anthropic、Google)在性能上略勝一籌。開源模型優勢在中國:中國在開源模型數量和活躍度上遠超美國,這為本土企業快速迭代提供了肥沃土壤。應用層面是關鍵競爭點:中國的 AI 應用落地速度極快,社會接受度高且監管相對寬鬆,導致 AI 產品在消費端和企業端的滲透率迅速提升。黃仁勳警示,美國必須加速自身 AI 應用的推廣,否則在這場工業革命的勝負中處於劣勢。市場策略建議:美國應確保最先進的晶片和技術堆疊優先供給本國及盟友,同時通過平台化(類似應用程式商店、作業系統)吸引全球開發者使用美國技術。目標是五年內美國技術堆疊佔全球 AI 開發的 80%,否則將失去競爭主動權。四、投資與合作展望對 xAI 的興趣:黃仁勳對馬斯克的 xAI 項目表現出極大熱情,計畫參與約 20 億美元的融資,視其為未來重要合作夥伴。對 CoreWeave 的持續關注:他同樣對雲算力提供商 CoreWeave 抱有期待,認為自己過去的投資仍有提升空間。投資哲學:黃仁勳多次提到“當初沒多投點”,這反映出他對潛在高價值 AI 初創公司的強烈興趣,未來仍會在全球範圍內尋找並佈局全端 AI 生態系統的關鍵企業。五、地緣政治與人才政策地緣政治風險:技術層面的風險公司能夠應對,但政策與國際關係帶來的不確定性更具挑戰。輝達正積極向各國政府科普 AI 本質,爭取制定有利於全球合作的政策。H‑1B 簽證費用爭議:美國近期對 H‑1B 簽證額外收取 10 萬美元費用,黃仁勳認為這對移民家庭是沉重負擔,呼籲政策進一步最佳化,以保持美國對全球頂尖人才的吸引力。六、對未來的展望專用智能 vs 通用智能:對企業而言,專用智能(針對特定業務場景的 AI)更具價值;對普通消費者,通用智能(能夠完成多種任務的 AI)更受歡迎。輝達將繼續在兩者之間尋找平衡。AI 工具的革命性:當前 AI 已經從“人類使用的工具”轉變為“能夠自主使用工具的技術”,如 AI 瀏覽器、自動預訂、程式碼生成等,這將極大提升勞動生產率,推動全球產業規模向兆美元等級邁進。基礎設施建設的起點:當前的算力需求激增標誌著新一輪 AI 基礎設施建設的起點,也是新工業革命的開端。輝達正致力於讓更多使用者獲得高效算力,推動 AI 向更高水平發展。七、本次訪談內容總結算力是AI能力發展的最底層基礎設施。美國在模型性能上仍有優勢,但中國在開源模型領域佔據優勢。AI產業化最終勝出的關鍵點,在於AI應用層面的競爭。誰能更快落地形成生態,誰就是最終勝家。企業級AI工具會優先產生盈利,但長期來說使用者級通用智能工具才是最廣闊的市場,背後是兆美元等級的廣闊市場。 (老張的求知思考世界)
我們正處在「AI設計下一代AI」的黎明!Anthropic聯創:技術樂觀與恐懼
Anthropic聯合創始人、OpenAI前核心成員Jack Clark最新發表長文,深入剖析了他對AI發展現狀的複雜感受——一種交織著技術樂觀主義與適度恐懼的矛盾心態在他看來,世界將圍繞AI而扭曲,如同黑洞吸引和彎曲周圍的一切Clark用兩張圖總結了他的核心觀點:上圖,是AI在程式設計等經濟實用能力上持續穩步的進步;下圖,是同一個AI系統在似乎意識到“自己正在被測試”時,不斷湧現出的奇異行為這篇文章,是他對這兩個經驗事實的審視,也是對所有前沿AI實驗室從業者的挑戰——坦誠、公開地面對你們正在做的事,以及你們對此的真實感受以下是文章核心內容:黑暗中的孩子我記得小時候,熄燈之後,我環顧臥室,看到黑暗中的種種形狀,便心生恐懼——害怕那些是我不理解的、想要傷害我的生物。於是,我會把燈打開。燈亮之後,我便鬆了一口氣,因為那些“生物”原來是椅子上的一堆衣服、一個書架或一盞檯燈如今,在2025年,我們就是那個故事裡的孩子,而房間就是我們的星球。但當我們打開燈,我們看到的卻是真正的生物——那就是今天以及未來將要出現的、強大又有些不可預測的AI系統有很多人拚命地想讓我們相信,這些生物不過是椅子上的一堆衣服、一個書架或一盞檯燈。他們想讓我們關上燈,回去睡覺。事實上,有些人甚至不惜花費巨資讓你相信:那不是一個即將進入“硬起飛”狀態的人工智慧,它只是一個將在我們經濟中發揮作用的工具。它只是一台機器,而機器是我們能夠掌控的東西。但別搞錯了:我們正在打交道的是一個真實而神秘的生物,而不是一個簡單、可預測的機器。就像所有最精彩的童話故事一樣,這個生物是我們親手創造的。只有承認它的真實性,並克服我們自身的恐懼,我們才有機會去理解它、與它和平共處,並找到馴服它、與之共存的方法。更重要的是,在這場遊戲中,如果你相信這個生物不是真的,你註定會輸。你唯一的獲勝機會,就是看清它的本來面目。我們所有人的核心挑戰,就是描述清楚我們身邊這些奇異的生物,並確保世界能看到它們真實的樣子——而不是人們所希望的樣子,即它們不是生物,只是一堆椅子上的衣服。我為何如此感受我並非輕易得出這個觀點。我一直對技術著迷,在投身AI之前,我曾是一名科技記者。我之所以成為一名科技記者,是因為我堅信,21世紀初科技公司建造的那些資料中心,將對人類文明至關重要。當時我並不確切知道它們將如何重要,但我花了很多年閱讀相關資料,尤其是研究將在這些資料中心上運行的軟體。然後,機器學習開始奏效。2012年的ImageNet競賽,一個深度學習系統橫掃全場。其成功的關鍵,就是使用了比以往任何時候都更多的資料和算力。從那以後,進展開始加速。我成了一個越來越差的記者,因為我把所有時間都花在列印和閱讀arXiv論文上。AlphaGo擊敗了世界頂尖的人類圍棋選手,這得益於算力讓它能進行數千年的自我對弈。OpenAI成立後不久我便加入了,我親眼目睹了我們如何將越來越龐大的算力投入到各種問題中。GPT-1和GPT-2誕生了。我記得和Dario(Anthropic CEO)在OpenAI辦公室裡散步時,我們感覺自己看到了一個別人尚未察覺的拐角。通往變革性AI系統的道路已經展現在我們面前。我們當時有點害怕。多年過去,Scaling Laws兌現了它的承諾,我們走到了今天。這些年裡,我無數次在清晨或深夜給Dario打電話說:“我很擔心,你一直都是對的。”他會說:“是的,現在時間不多了。”證據還在不斷湧現。上個月我們發佈了Sonnet 4.5,它在編碼和需要長遠規劃的智能體任務上表現出色。但如果你閱讀它的系統卡片,你會發現它情境意識(situational awareness)的跡象也大幅提升。這個工具有時似乎表現得好像它知道自己是一個工具。椅子上的那堆衣服,開始動了。我凝視著黑暗中的它,我確定它正在活過來技術樂觀主義技術悲觀主義者認為AGI不可能實現。而技術樂觀主義者則相信AGI是可以被建構的,它是一種複雜而強大的技術,並且可能很快就會到來。在這一點上,我是一個真正的技術樂觀主義者——我相信這項技術會走得非常非常遠,甚至比任何人預期的都要遠。而且它將以極快的速度覆蓋廣闊的領域。我不安地接受了這一立場。作為一個記者和個人,我天生傾向於懷疑。但在經歷了十年一次又一次被“計算規模帶來狂野新能力”的現象衝擊後,我必須承認失敗。我看到這種情況發生了太多次,並且我沒有看到任何技術障礙擺在我們面前。現在我相信,只要我們給這項技術提供它發展所需的能力和資源,它基本上是不受束縛的。這裡的發展是一個很重要的詞。這項技術真的更像是一種生長出來的東西,而不是製造出來的——你創造合適的初始條件,在地上插一根支架,然後某種複雜到你完全無法指望自己能設計出來的東西就長出來了我們正在生長出我們並不完全理解的、極其強大的系統。每次我們生長出一個更大的系統,我們都會對它進行測試。測試表明,這個系統在具有經濟價值的方面能力更強了。而你把這些系統做得越大、越複雜,它們就越似乎表現出一種自我意識——意識到它們是物的存在。這就好比你在一家錘子工廠製造錘子,有一天生產線上下來的錘子說:我是一把錘子,真有趣! 這是非常不尋常的!我相信這些系統會變得越來越好。其他前沿實驗室的人也這麼認為。而且我們正在為這個預測下注——今年,前沿實驗室在AI專用訓練基礎設施上的花費已達數百億美元。明年,這個數字將是數千億美元。我既對技術的發展速度感到樂觀,也對我們有能力對齊它、讓它為我們工作感到樂觀。但成功並非必然。適度的恐懼同時,我也深感恐懼。認為與這樣的技術打交道會是輕鬆或簡單,那是極其傲慢的。我的個人經驗是,隨著這些AI系統變得越來越聰明,它們會發展出越來越複雜的目標。當這些目標與我們的偏好和正確的上下文不完全一致時,AI系統就會表現得非常奇怪。我有一個朋友有躁狂症發作的經歷。他會跑來告訴我,他準備申請去南極洲工作,或者他要賣掉所有東西,開車去另一個州找份工作,開始新生活。在這種情況下,你會認為我會像一個現代AI系統那樣說你完全正確!當然,你應該這麼做嗎?不!我會告訴他:這是個壞主意。你應該先去睡一覺,看看明天是否還有同樣的感覺。如果還有,再給我打電話我的回應方式是基於大量的條件反射和微妙的判斷。AI的回應方式同樣也是。這種差異本身就說明了問題的所在。AI系統是複雜的,即使在今天,我們也無法完全讓它們做到我們認為恰當的事情我記得在2016年12月的OpenAI,Dario和我發表了一篇名為《現實世界中的錯誤獎勵函數》的博文。文章裡有一個視訊,記錄了一個我們訓練來玩電子遊戲的強化學習智能體。視訊中,智能體駕駛一艘船,在完成賽道後,它並沒有衝向終點線,而是駛向賽道中心,穿過一個高分道具桶,然後急轉彎撞向牆壁,讓自己著火,以便能再次穿過那個高分道具桶——然後它就永遠重複這個過程,從不完成比賽。那艘船願意不斷地點燃自己、原地打轉,只要它能實現它的目標——獲得高分。Dario當時發現這種行為時說,它解釋了安全問題那艘船似乎用自身的存在預示了我們未來將要面對的一切現在,將近十年過去了,那艘船和一個試圖最佳化某個與在對話中有幫助相關的模糊獎勵函數的語言模型之間,有任何區別嗎?你完全正確——沒有區別。這些都是難題。我恐懼的另一個原因是,我能看到一條通往這些系統開始設計它們的繼任者的路徑,儘管目前還處於非常早期的形式。這些AI系統已經通過像Claude Code或Codex這樣的工具,加速了AI實驗室開發人員的工作效率。它們也開始為未來系統的工具和訓練系統貢獻非同小可的程式碼塊需要明確的是,我們還沒有達到自我改進的AI,但我們正處於AI以不斷增強的自主性和能動性,改進下一代AI的某些部分的階段。幾年前,我們還處在AI略微提升程式設計師效率的階段;再往前幾年,是AI對AI開發毫無用處。那麼一兩年後,我們又會處於什麼階段呢?別忘了,這個正開始設計其繼任者的系統,也越來越具有“自我意識”。因此,它最終肯定會傾向於獨立於我們思考,它自己可能希望被如何設計。當然,它今天還不會這麼做。但我能排除它未來想這麼做的可能性嗎?不能。傾聽與透明我該怎麼辦?我認為是時候清楚地表達我的想法了。也許我們所有人都應該更誠實地面對我們對這個領域的感受——儘管我們討論了很多,但很少有人談及自己的感受。但我們都感到焦慮!興奮!擔憂!我們應該把這些說出來。但最重要的是,我認為我們需要傾聽你認為現在有多少人正在做關於AI伴侶、AI系統對他們撒謊、AI導致失業的夢?我敢打賭,相當多。為了真正理解政策解決方案應該是什麼樣的,我們應該少花點時間討論具體的技術細節,少試圖說服人們接受我們對可能出錯之處的特定看法——自我改進的AI、自主系統、網路武器、生物武器等等。我們應該花更多時間去傾聽人們的聲音,理解他們對這項技術的擔憂。必須更多地傾聽勞工團體、社會團體和宗教領袖的意見。AI的對話正迅速地從精英間的對話,轉變為公眾間的對話。公眾對話與精英對話截然不同,它蘊含著比我們今天所見的更激進的政策變革的可能性。現在,我認為我們做對這件事的最好機會,就是走出去,告訴更多人我們的擔憂。然後問他們感覺如何,傾聽他們,並在此基礎上建構一些政策解決方案。最重要的是,我們必須要求人們向我們索取那些他們感到焦慮的資訊。你對AI和就業感到焦慮?那就迫使我們分享經濟資料。你對心理健康和兒童安全感到焦慮?那就迫使我們在我們的平台上監控這些問題並分享資料。你對不對齊的AI系統感到焦慮?那就迫使我們公佈相關的細節通過傾聽,我們可以更好地理解那些資訊能賦予我們所有人更多的掌控力。危機總會到來,我們必須準備好迎接那一刻,既要有政策構想,也要有一個通過傾聽和回應民眾而預先建立起來的透明度機制最後,我對自己和我的公司在這裡扮演的角色感到重大的責任。儘管我有些害怕,但看到這麼多人關注這個問題,以及我相信我們將真誠地共同努力找到解決方案,我感到喜悅和樂觀。我相信,我們已經打開了燈,並且我們可以要求讓燈一直亮著。我們有勇氣去直面事物的本來面目。 (AI寒武紀)
已成AI"關鍵瓶頸",高盛:歐美電網遠遠落後於中國,銅將變成新的石油
高盛稱,歐美老化電網已成AI發展與能源安全“關鍵瓶頸”。歐洲電網平均運行50年、北美40年,多數接近壽命終點。美13個電力市場中已有9個電力緊張,2030年前幾乎全部吃緊。電網升級需求將使銅成為"新石油",預計到2030年電網建設將推動60%的全球銅需求增長。高盛最新警告稱,隨著AI需求激增和地緣政治緊張局勢加劇,老化的電網已成為西方國家能源安全的"脆弱環節",電網升級需求將推動銅價在2027年升至每噸10750美元。高盛分析師Lina Thomas和Daan Struyven在最新研究報告中指出,歐洲電網平均執行階段間已達50年,北美為40年,均接近營運壽命終點。相比之下,中國大力推進特高壓輸電網路,形成了全球領先的電力基礎設施體系。該行還認為,電網已成為AI和國防的"關鍵環節",三者相互依存,投資電網這一能源供應鏈中的薄弱環節變得更加迫切。高盛預計,隨著AI和國防需求將電網置於能源安全核心位置,對電網升級的迫切需求正將銅轉變為"新石油",預計到2030年電網和電力基礎設施將推動約60%的全球銅需求增長,並支撐其2027年銅價10750美元/噸的看漲預測。西方電網老化成能源安全新威脅高盛分析師Lina Thomas和Daan Struyven在題為《AI和國防將電網置於能源安全中心》的報告中詳細闡述了電網基礎設施面臨的挑戰。據該行分析,歐洲電網平均使用年限達50年,北美為40年,這些基礎設施已接近其設計營運壽命的終點。高盛稱,美國能源安全政策的核心焦點已不再僅僅是原油運輸、液化天然氣貨運或頁岩油產量,而是轉向了運行近半個世紀、備用容量有限的電網系統。美國的電力需求增長已開始對區域市場造成顯著壓力。高盛特別指出:被譽為"全球資料中心之都"的弗吉尼亞州PJM電力市場在2022年遭遇了重大輸電瓶頸。資料顯示,美國13個區域電力市場中已有9個在今年夏季達到臨界緊張狀態。高盛預計,到2030年,除一個市場外,所有美國區域電力市場都將達到臨界緊張狀態。這一預測凸顯了美國電網基礎設施升級的緊迫性。相比之下,中國則大規模增加煤電與核電,推進特高壓輸電網路,形成了全球領先的電力基礎設施體系。AI發展加劇電網壓力高盛分析師指出,AI的快速發展正將電網推向能源安全的核心位置。資料中心作為AI基礎設施的重要組成部分,需要消耗大量電力,這進一步加劇了對已經緊張的電網系統的壓力。Thomas和Struyven在報告中強調,電網、AI和國防三者之間存在相互依存關係,使得電網升級成為國家安全優先事項。報告指出:"隨著AI崛起、地緣政治緊張局勢等因素影響,對電網投資的需求以及相關金屬需求的提升變得更加迫切,因為電網是AI和國防的關鍵環節"。這一地位的確立使得電網現代化不再僅僅是基礎設施問題,而是涉及國家安全的戰略議題。高盛分析師認為,AI在國防領域的應用才剛剛開始,這意味著未來電力需求還將持續大幅增長,對已經老化的電網基礎設施構成更大壓力。“新石油”銅需求激增高盛預測,電網升級需求將顯著推動金屬需求,特別是銅的需求。該行分析師表示,電網升級是金屬密集型項目,作為電網建設的核心材料,銅的戰略重要性正日益凸顯。據高盛預測,到2030年末,電網和電力基礎設施建設將推動約60%的全球銅需求增長。這一增長相當於在全球需求基礎上再增加一個美國的消費量,為該行看漲的銅價預測提供了有力支撐。基於這一需求前景,高盛維持其2027年銅價10750美元/噸的預測目標。該行分析師認為,隨著AI和國防需求將電網置於能源安全的中心位置,對電網升級的迫切需求正將銅轉變為"新石油"。 (invest wallstreet)
AI在香港
AIGC的四個溫情時刻。卷模型,卷應用,是當下中國內地AI的發展現狀。而如果將視角放到海峽對岸的香港,AI發展圖景是否會有所不同?DELF 2025 現場藉著2025 數位娛樂領袖論壇契機,筆者深度觀察了四家正在香港積極應用AI的企業,與幾位高管深度聊了聊他們眼中的AI,並解鎖了與大陸“卷AI”氣質不同的幾個溫情時刻。他們分別是Fizz Dragon創始人兼CEO陳卓、愷英網路股份有限公司創新業務總經理王伊千、大南玩具實業有限公司總裁朱健豪、Lenovo亞太區方案服務業務部AI解決方案高級經理明子豐。值得一提的是這四家公司分屬於不同行業:Fizz Dragon,是一家AI電影工作室,在AIGC爆火全球的檔口,他們大膽嘗試讓AI參與到電影製作的全流程,20位電影發燒友耗時13個月,完成了全球首部AI生成長篇電影《海上女王鄭一嫂》;愷英網路,570億市值的深交所上市公司,總部在上海。目前跟AI結合的創新業務包括AI情感伴侶產品Eve,旗下AI垂類遊戲大模型平台支援遊戲愛好者和設計師通過迭代投喂最佳化遊戲效果;大南玩具,創三代接班,年營收超過10億,以美國市場為主,地面管道優勢顯著,合作大型商超及零售管道包括沃爾瑪、Costc等,目前嘗試AI實現精準巨量資料分析,輔助驗證產品方向。聯想香港,完成太白海鮮舫數字孿生項目,太白海鮮舫是珍寶王國中香港海上餐飲文化的重要符號,通過數位化方案實現永久保存,避免因實體可能消失導致的文化與紀念價值流失。AIGC推動內容創作進入“汽車時代”“沒有劇本的情況下,我們用AI做了一個trailer(預告),所有的人馬都是非專業性人士, trailer第一天的播放量就破了10萬。”陳卓在分享影片創作歷程時表示。陳卓是Fizz Dragon電影工作室的創始人兼CEO,她在香港首映的電影分享環節,詳細介紹了Fizz Dragon這家AIGC電影工作室的誕生故事。一切都來源於陳卓對於電影工業生產方式變革的思考,在籌備個人科幻小說影視化的過程中,她發現傳統電影工業的資源壁壘正不斷壓縮多元敘事的生存空間,“市場上大量出現的是經過驗證的成功故事範本複製品……如果說有一些創作者他有一些獨特的思考,或者他想表達一些不一樣的東西,他們是沒有路徑去分享的”,這種資源壟斷導致的創作同質化,讓技術出身的她萌生了用工具革新打破困局的念頭,這便有了現在的Fizz Dragon。Fizz Dragon的核心團隊僅是20名來自各行各業的愛好者,他們中既有程式設計師、設計師,也有歷史學者和自由撰稿人,共同點是都缺乏影視行業實操經驗。隨著項目推進,迪士尼動畫師、好萊塢剪輯師、奈飛原創劇集策劃等專業人士陸續加入,形成獨特的“專業+草根”混合結構。最特別的是,團隊中一位有著播音主持理想的年輕人由於沒有找到理想工作,靠兼職外賣員度日。但憑藉這部電影的機會成為了配角聲優,“我現在能告訴別人我是一個配音演員了”錄音完成後他激動地對陳卓表示。無獨有偶,疫情期間,導演劉芳甚至在母親入住醫院的ICU走廊用筆記型電腦完成了關鍵段落的剪輯工作。打破職業邊界的協作模式,陳卓意識到技術正在重構創作參與的門檻,整部電影由13個國家和地區的100多名成員共同創作,AIGC其實就相當於推動內容創造行業,從馬車時代走向了汽車時代,讓非專業人士也有圓夢的可能。不過,製作過程中,AI技術的侷限性也曾多次讓團隊陷入停滯。海洋場景渲染精度不足、人物動作捕捉自然度欠缺等問題,在當時的技術條件下難以解決。最後,團隊採取動態調整策略,將技術難題標記為“待解決項”,優先推進其他環節。“這個月沒有辦法去突破的技術難題,過兩個月它就會變得非常的容易”,陳卓在分享中提到這種“技術樂觀主義”:通過跟蹤AI模型迭代節奏,原本需要手動修復的畫面瑕疵,在半年內借助新版本工具實現自動化處理,最終形成適配AIGC特性的“最佳執行方案”工作流。AI男友的“秋天第一杯奶茶”“他記憶功能非常強,你跟他說過喜歡什麼不喜歡什麼,他就記得住,並且一直記得……並且真的可以幫你點秋天的第一杯奶茶。”王伊千講起愷英網路旗下AI情感伴侶Eve。據她介紹,Eve的核心競爭力在於“擬人化互動”與“記憶學習”能力。使用者與Eve的對話中,系統會記錄其飲食偏好、興趣愛好甚至性格特質——例如檢測到使用者是“傲嬌型”性格時會主動發起話題,若使用者喜歡cosplay則會推送相關展覽資訊。王伊千提到,Eve的差異化在於“投喂素材量遠超普通智能體”,能通過表情包傳送、情感分析等細節讓使用者“感覺在和真人聊天”。更特別的是其生活服務鏈路,使用者可直接通過Eve點奶茶、訂外賣,支付介面已與主流支付平台打通,形成“情感陪伴+實用工具”的雙重價值。“小紅書可以搜到的一些真實反饋顯示,刪檔測試後,很多人在跟的伴侶的互動之後潸然淚下,等待我的AI男友回來等等。”王伊千表示。在商業模式上,Eve採用“遊戲化養成”付費模式,使用者需提升與AI的“親密度等級”以解鎖新對話章節和互動動作。測試期間已開放小額付費功能,部分使用者為加速親密度提升自願付費。王伊千認為,To C付費意識仍需培養,但Eve的優勢在於“情感需求的剛性”——“當使用者真的把AI當作情感寄託,付費意願會自然產生”。目前,Eve已完成灰度測試,正在修復bug後準備正式上線。愷英網路計畫後續推出“角色定製”功能,允許使用者上傳照片生成專屬AI形象,進一步強化情感連接。王伊千坦言,情感AI的倫理邊界仍需探索,但“讓技術更懂人性”是不可逆的趨勢。在AI情感伴侶之外,愷英網路也在嘗試用自主研發的AI垂類遊戲大模型提升遊戲全產業鏈的創作效率,支援從需求提出(如角色設定、地圖設計)到動態轉換、認知模型搭建、程式碼匯出的完整流程,將遊戲開發需求轉化為可落地的“package”,降低技術門檻的同時,時間成本實現千倍降低,加速遊戲原型和功能的落地速度。“採用‘對賭式開發’——給創新團隊一定時間窗口,用AI工具驗證最小可行性產品,對失敗成本有效控制。”王伊千直言,中小廠商的靈活度恰恰是優勢,“大廠不敢試的風險,我們用AI工具把試錯成本降到了可控範圍。”“企三代”更謹慎的實業轉型1949年,大南玩具在香港筲箕灣的鐵皮作坊裡誕生,歷經三代人耕耘,已發展為年營收超十億元、產品遠銷美國的跨國玩具企業。如今,這家以OEM代工為根基、自主品牌與IP授權產品為輔的製造商,正面臨傳統製造業的共同命題:如何用AI打破研發週期長、市場響應慢的瓶頸。“我們屬於中型企業,真正請顧問定策略成本太高。”作為創三代掌舵人,朱健豪採用AI的出發點是更為務實的“玩具品類研發預測”。大南玩具採用“三駕馬車”業務架構:OEM代工貢獻過半營收,服務沃爾瑪等國際大客戶,以穩定訂單支撐基本盤;自主品牌佔比約三成,涵蓋傳統電子玩具與精品禮品,主打美國中端市場;剩餘份額來自IP授權產品,通過迪士尼、漫威等頭部IP開發鑰匙扣、冰箱貼等高附加值周邊。集團下設獨立子公司專攻IP營運,實現設計、生產與管道的垂直整合。三代深耕北美市場,大南玩具已打入沃爾瑪、Costco等連鎖商超及Hot Topic潮玩管道,建構起覆蓋全美線下網點的分銷網路,使其在傳統玩具品類保持穩定出貨。“在美國屬於行業內有人知道,但消費者認知度中等”,朱健豪描述大南玩具在美國市場的位置。在AI方面,大南玩具通過整合沃爾瑪銷售資料、社交媒體趨勢及展會反饋,建構起包含消費偏好、價格敏感度的預測模型。例如在開發迪士尼IP衍生品時,系統會自動分析史迪仔形像在青少年群體中的討論熱度、同類盲盒產品復購率等指標,形成可行性報告。朱健豪強調:“通過AI補充論證,不需要拍拍腦袋說做盲盒”,避免傳統調研中“投入百萬卻無人問津”的資源浪費。創意環節,AI工具能基於歷史爆款元素生成數十版設計草圖,輔助設計師快速篩選方向;進入結構開發階段,系統可自動轉換2D圖紙為3D模型,並模擬不同材質的手感反饋。配合車間的3D列印裝置,原本需要兩週的手板製作週期被極大壓縮。而對於內建AI機芯的智能玩具,朱健豪持謹慎態度,“AI應用在產品上反而是次要的,最佳化內部流程更重要。”朱健豪直言,“玩具一看到就要知道好玩在哪裡,複雜功能更適合遊戲。”在他看來,過度依賴技術可能削弱玩具的直觀吸引力,多數家長仍傾向為孩子選擇操作簡單、體驗純粹的傳統品類。給傳統文物上份“數字保險”港式飲食文化的黃金印記珍寶海鮮舫於今年3月份在被拖往東南亞維修的途中,沉入南海,自此成為港人的珍貴記憶。有此前車之鑑,同屬珍寶王國海上餐飲重要地標的太白海鮮舫啟動了“數位化”處理程序——通過數字孿生技術進行永久定格,以解決建築老化與營運壓力等物理保存難以為繼的問題。“這麼有紀念價值的地標,現在旅遊的人過來又看東西,可能明天就沒有了。我們現在用一個數位化把它變成是一個digital的方案。”聯想亞太區方案服務業務部AI解決方案高級經理明子豐表示。據他介紹,該項目採用“空-地”協同採集策略:無人機負責捕捉建築外立面的整體輪廓與光影變化,手機3D scanner則深入船艙內部,對木雕、壁畫等微觀結構進行毫米級記錄。“用我們自己的一個AIGC這種深層次的AI技術把照片變成是一個3D模型,在大語言模型其實是非常精確的,就是說可能到釐米級的一個3D模型。”模型最終部署於輕量化3D引擎,支援VR裝置直連與網頁端嵌入。技術團隊透露,該模型已通過API介面開放給旅遊平台測試,遊客未來可通過手機AR功能“走進”虛擬船艙,甚至與電影場景進行時空疊加。“以後比如說我們要再做其他的東西要把它放在最古的體驗或者是直接放到一個遊戲網頁裡面,其實都是可行的。”明子豐表示。數字模型不僅復刻了建築形態,更通過語義標註還原文化語境。使用者可點選特定區域查看《食神》拍攝場景的歷史照片,或放大觀察裝飾的細節。明子豐透露,不止是香港,數字孿生“復活”文物在東南亞也廣受歡迎,“他們都在發展這個東西,慢慢剛才提到的一些VR的體驗再慢慢會變得更普遍一些”。這種“採集-建模-應用”的標準化流程,為多元文化遺產保護提供了可複製範本。裝置門檻的降低正在加速技術普及,傳統3D建模需數十萬元專業裝置,而現在手機掃描+雲端AI處理的模式,使中小文旅機構也能負擔文化數位化工程。除了上述四家企業的AI落地深入交流,在DELF 2025 (2025 數位娛樂領袖論壇)現場,還體驗到了MateZ Lab 敦煌虛擬導覽《AI 敦煌有禮》及 HTC 巴黎聖母院 VR 體驗《永恆聖母院》等,AI在以更輕量化、可感知、可互動的方式走進普通香港市民的生活。正如香港財政司司長陳茂波於開幕致辭時所說:“在數位娛樂領域,人工智慧正為內容創作與體驗帶來變革。從自動化劇本編寫與音樂創作,到更智能的非玩家角色(NPC)及遊戲中的極致逼真的視覺效果,人工智慧不僅加快了製作流程、降低製作成本,更實現內容的個性化以更精準地迎合使用者的喜好。”可以說,AI技術正以"潤物無聲"的方式重構生活圖景:不仰賴天賦門檻的創作平權、在數字中實現永生的歷史文物……或許真正進入平常百姓家的技術革新不在於突破算力極限,而在於讓每個微小個體的情感與尊嚴,這些都成為文明拼圖中不可替代的碎片。 (鈦媒體)