#科學研究
OpenAI 科學負責人:AI 把 25 年研究縮短到 5 年,誰先吃到紅利?
2025 年 11 月 21 日,OpenAI 官方播客更新到第10期。這一次的主題是:AI 如何改變科學研究。OpenAI for Science 負責人Kevin Weil 在節目中說:也許人們感受到 AGI 最深刻的方式,會是通過科學。他們給自己定的目標:把未來 25 年的科學研究,壓縮到 5 年內完成。這不是說說而已。黑洞物理學家、核聚變專家、免疫學家已經在用 GPT-5 改變自己的研究方式。驗證路徑從幾個月壓縮到幾小時,文獻檢索能跨語言、跨學科找到概念聯絡,推導公式可以平行探索十幾條路徑。科研加速,已經開始了。第一節|25年壓縮到5年,OpenAI要幹什麼?在第 10 期官方播客裡,Kevin Weil 這次談的不是新功能,而是一個新問題:能不能幫助科學家們,把科研工作大幅壓縮?為此,OpenAI 專門成立了一個團隊,由 Kevin 從首席產品官轉任負責人,目標是用AI模型加速科學發現。他們不是在用 AI 寫論文,而是改變了一個前提:假如你是科學家,給你一個模型,這個模型讀過你所在領域幾乎所有文獻,而且可以在 20 分鐘內跑完你原本需要 6 個月才能驗證的路徑,科研會變成什麼樣?Kevin說,在真實的科研場景裡,這種加速每天都在發生。核心改變是:AI 讓科學家能嘗試更多可能。不是替你做判斷,而是讓更多原本不敢嘗試的方向變得可驗證。科學家的時間,正在被 AI 重構。第二節|黑洞物理學家、核聚變專家:他們為什麼信了?Alex Lupsasca,不只是 OpenAI 的研究科學家,還是范德堡大學的物理學教授,主攻方向是黑洞理論。起初,他跟很多科研同行一樣,對 ChatGPT 保持距離。“它挺有趣,但我以為至少還得好多年,才能真正幫到我的研究。我是個懷疑者,直到我看到它做出了連我自己都做不到的事。”他說的那一刻,就是他把一個求解脈衝星磁場的偏微分方程,輸給了GPT-5。這個方程,他自己推了好幾天都沒推出來。模型不僅識別了結構,還用 11 分鐘找出一條1950年代挪威數學期刊裡的冷門恆等式,並給出完整推導。雖然最終結果因為一個多餘的係數出錯了,但主幹是對的。用 Alex 的話說,這就像一個天才研究生,會在最後的 LaTeX 算式裡打錯一個負號,但推理鏈是完整的。這樣的轉變不止發生在 Alex 身上。Kevin 本來以為要去勞倫斯利弗莫爾國家實驗室推銷 GPT-5,結果核聚變專家 Brian Spears 剛坐下就打開筆記本開始演示:我用你們的模型,從本科題開始,一路問到了 20 年經驗的研究問題,它都能回答。最後一個問題,GPT-5 甚至說:“我沒有權限訪問你們的模擬工具,但如果你有,你應該從那開始。”這已經不只是程式設計助手了。它能理解不同領域的專業知識,看懂物理模擬,還能給出研究層面的建議。這類故事指向一個共同的拐點:科學家開始把 GPT-5 當作一個真正的合作者,而不只是工具。真正改變他們認知的,是那些原本不會去問的問題,現在可以問了。比如文獻檢索。Alex在研究一個黑洞方程時,發現結果裡有一個三階導數項,這種情況極少見。他將公式貼給 GPT-5 問:“這是什麼?”模型回覆:“這是共形橋方程(Conformal Bridge Equation)。”然後給出了論文線索。他完全沒聽過。這種場景在反覆上演:有人在研究高維最佳化,明知道應該有人做過,但找不到。GPT-5 用概念推理,找出了一篇埋在德語博士論文裡的研究,不同學科、不同術語,但解決的是同一個問題。Kevin說:“你今天必須在科學裡高度專業化。但專業化的代價是,你就不瞭解其他相關領域了。GPT 是那個讀過幾乎所有領域論文、精力無限、沒有情緒的合作者。”一位數學家對他說:我最近一篇論文,有個方向不是我擅長的,原本打算放棄。但現在我決定回頭深入,因為我覺得 GPT-5 能幫我入門。用 Alex 的話說:你平常研究只敢試一條路。現在有個合作者,能幫你同時試十條路。那條可能通,那條有風險,都給你標出來。你自己決定往那走。第三節| GPT-5怎麼參與科研?兩種核心能力那麼,GPT-5作為合作者,具體是怎麼參與科研的?OpenAI 論文裡總結了兩種典型能力。第一種能力:“腳手架式”協作OpenAI把這種模式叫做 Scaffolding(腳手架式協作)。具體怎麼做?人類科學家只提供一個任務目標。GPT-5 會嘗試生成 10 到 20 條不同的路徑,裡面包含不同公式、變換、思路假設。人類在過程中做的事情,是標記錯誤、指出那條邏輯斷了,而不是給出正確路線。Kevin 強調,這和提示詞寫得好不好完全是兩件事。最有效的方式是讓模型自己探索,你只指出那裡錯了,它就會調整。幾輪下來,它能找出你根本想不到的解法。Alex 在研究黑洞對稱性的時候,就採用了這個方法。比如:他先給GPT-5一道簡單題練手(在平直空間下的簡化方程),模型思考了9分鐘,給出了完整的對稱性分析,精確寫出了3個生成元。 再給它複雜版的真實問題,它花了18 分鐘,推匯出了他自己用特殊技巧才搞定的結果。第二種能力:驗證輔助GPT-5 並不是說了就一定對,它也會自信地給出錯誤結果,甚至會犯很簡單的符號錯誤。正因為如此,OpenAI 在GPT-5 科研應用中專門設計了一個機制:驗證通道(Verification pipeline)。核心機制是人負責找錯,AI 負責改錯:GPT-5 給出推理草案;人類研究者不必手動重做,而是標記可能有誤的推導步驟;GPT-5 會在此基礎上重新演繹、解釋或重構過程;有時還會自動生成程式碼,來模擬驗證假設。這種方式最早在蛋白工程、T細胞模擬的實驗中用過:GPT-5 生成的實驗設計,後來在實驗室中復現效果一致。腳手架式協作和驗證輔助這兩種能力,關鍵不在於你的提示詞寫得多好,而在於你的科研流程能不能把它們用起來。第四節|誰會最先吃到紅利?那麼,這種新型協作會遇到什麼問題?Kevin 提出了一個關鍵概念:低通過率問題。很多前沿科研問題,GPT-5 是有能力解決的,但可能要試上 20 次才成功一次。如果你只試了3次,沒成功,就會以為模型還不行。其實它能行,只是你沒給它機會。OpenAI 論文裡明確寫道:GPT-5不是高度可信系統,仍會出錯。但它適合探索空間大、驗證成本低的科研流程。最適合用的,是那些模型成功率很低但不是零的問題。這意味著試錯成本被改寫了。OpenAI 的 13個案例顯示:GPT-5 已經能把研究路徑大幅壓縮。誰會最先吃到紅利?第一類:AI基礎設施與模型提供者OpenAI、Google DeepMind、Anthropic等模型廠商;AWS、Azure、CoreWeave  等 GPU 雲端運算服務商。他們是科研計算力+智能代理的底座,正在定義下一代科研工具的基礎語言。第二類:高科研密度行業玩家藥企、生物公司、新材料研發、新能源系統設計者。他們原本受限於驗證周期、試驗成本,如今得以提前試錯、平行探索。GPT-5能給出假設、文獻依據、模擬程式碼,讓科學家在正式實驗前完成預演驗證。第三類:AI科學工具創業者這是一條還沒被捲爆的新賽道:聚焦科學研究場景的 AI 產品,比如蛋白建模、科研協作平台、圖表生成、公式分析器、科研文獻智能檢索。這類工具,不是Copilot,而是Lab Partner。他們會抓住這一波實驗室 SaaS 的機會。結語|科學的下半場Kevin Weil 有個判斷:也許人們最先真正感受到 AGI 的,不是寫作、不是辦公、不是消費,而是科學。Alex Lupsasca 的感受更直接:它不是完美的,但它是目前最值得我投入時間的合作者。這不是對未來的預言,而是 2025 年正在發生的事。在 GPT-5 出現以前,科學家判斷一條路徑要不要做,往往靠經驗、直覺,以及資源有限的賭注。現在,可以在十條路徑中試一遍、刪八條,再沿著剩下的兩條向前走。OpenAI 沒有試圖把 GPT-5 做成萬能科學家。他們要做的,是讓模型與人一起,在認知邊界上試錯。科學研究從象牙塔被拉入產業主戰場。模型廠商、藥企、材料公司、AI科學工具創業者,正在成為這一波加速的受益者。時間軸被改寫,紅利已經在分配。 (AI 深度研究員)
人類大腦開發率不足10%?但為什麼我們總感覺記憶不夠用
上周在咖啡廳寫報告時,鄰座的中年女士對著手機備忘錄嘆氣:"明明剛存進通訊錄的號碼,怎麼轉眼就找不到了?"這樣的場景,每天都在城市的各個角落上演。學生苦惱於背不完的知識點,上班族抱怨記不住客戶需求,就連退休的老人也會對著剛放下的老花鏡犯迷糊。當我們把這些困擾歸咎於"大腦沒開發好"時,卻很少有人意識到,那個流傳甚廣的"人類大腦僅開發不到10%"的說法,其實早已被神經科學界證偽了。在電影《超體》中,斯嘉麗·約翰遜飾演的角色因藥物激發大腦潛能,展現出操控物體、超越時空的能力,讓"大腦開發率"的概念再次引發熱議。但早在1998年,《神經科學雜誌》就曾發表過一項覆蓋2000名受試者的fMRI研究。結果顯示,大腦在休息狀態下仍有85%以上的區域保持基礎代謝活動,而在完成複雜任務時,幾乎所有腦區都會根據需求被啟動。2013年,科學家通過瀰散張量成像技術發現,人類大腦的神經連線到網路在日常活動中始終處於動態平衡狀態。所謂"未開發的90%大腦",不過是早期腦科學研究不充分時產生的誤解。真正的科學事實是:大腦的"開發"並非區域數量的問題,而是神經突觸的連接效率。神經學家在《自然·神經科學》期刊上指出,嬰兒出生時大腦約有50兆個突觸,隨著成長,無用的連接會被逐漸修剪,成年後穩定在約100兆個。這種"用進廢退"的突觸可塑性,才是大腦高效運轉的核心機制。就像電腦硬碟的儲存空間從來不是問題,關鍵在於資料讀取演算法是否最佳化。人類大腦的奧秘,藏在神經元的連接模式裡,而非簡單的"開發比例"。又一個問題來了,既然大腦並非"只用了10%",那為何我們總感覺記憶不夠用呢?這要從記憶的本質說起。加拿大麥吉爾大學的記憶實驗室曾做過一個有趣的實驗:讓受試者觀看一段包含30個細節的超市監控視訊,20分鐘後測試,平均只能精準回憶6個細節。但核磁共振成像顯示,受試者大腦在觀看視訊時,視覺皮層、海馬體、前額葉等多個區域都處於高強度活動狀態。所以,問題不在於大腦"沒記住",而在於它"主動選擇了遺忘"。事實上,人類的記憶系統遵循著"適應性遺忘"原則。2016年《科學》雜誌刊登的果蠅實驗表明,當神經元突觸的長期增強效應(LTP)過度活躍時,實驗對象反而會出現記憶混亂。這說明進化賦予我們的記憶機制,本質上是一種風險控制:海馬體作為記憶的"臨時快取區",會優先處理被標記為重要的資訊。這種機制在原始社會,能幫助人類專注於關鍵資訊,卻在資訊爆炸的現代社會顯得力不從心。更值得注意的是,記憶的提取效率受多重因素影響。當人們處於多工處理狀態時,前額葉皮層的θ波活動會下降30%,導致記憶編碼質量大幅降低。這就是為什麼我們邊刷手機邊記筆記時,往往轉頭就會忘記。大腦並非"記憶體不夠",而是在同時處理多個任務時,主動降低了某些資訊的儲存優先順序。就像老式相機在光線不足時會自動犧牲畫質,大腦的"記憶赤字",很多時候是注意力分配機制的副產品。在東京大學的老齡化研究中心,研究者發現了一個有趣的現象:70歲以上老人對近期事件的記憶衰退明顯,但對青年時期的細節卻異常清晰。這印證了"記憶保真性梯度"理論——大腦會對與自我認同、情感聯結相關的資訊進行優先保護,而將實用性低的短期記憶視為"垃圾資料"定期清理。這種機制在進化史上意義非凡。原始人類需要記住獵物遷徙路線,卻不必記住三天前篝火的火星軌跡。然而,現代人卻不得不記住快遞取件碼、Wi-Fi密碼、各類APP帳號,這些缺乏情感關聯的符號資訊,恰恰是大腦"默認清除"的對象。面對現代社會的資訊過載,大腦的適應機制顯得有些"力不從心"。斯坦福大學的研究顯示,普通人每天會接觸超過34GB的資訊,相當於10萬字的書籍30本,遠超大腦進化設定的處理閾值。當我們抱怨"記憶力變差"時,或許並非大腦功能退化,而是在持續接收違背進化規律的資訊輸入。現代社會的記憶挑戰,或許不是要戰勝遺忘,而是學會與大腦的進化邏輯和解。就像古人用結繩記事、現代人用雲端儲存,人類記憶的進化,從來都是生物本能與技術工具的協同進化。 (寰宇志)