本周,於舊金山舉辦的 Snowflake Summit 2025 上,OpenAI CEO Sam Altman 開門見山地指出,對於 2025 年仍在觀望的企業領導者,他的建議只有一句:直接開始,別等下一個版本。他表示,企業若總是等待更好的模型、更成熟的方案,反而會錯過真正的先發優勢。真正取得突破的,是那些願意及早下注、小步快跑的團隊。科技在飛速演進,勝負取決於誰擁有快速試錯、快速學習的能力。Snowflake CEO Sridhar Ramaswamy 對此高度認同。他認為,好奇心是今天企業中最被忽視的稀缺能力。很多過去理所當然的工作方式,如今都需要被質疑。新的工具,比如 OpenAI 和 Snowflake 本身,已經極大降低了實驗成本。如果一個組織能圍繞大量小實驗建構有效反饋機制,它就擁有了適應未來的不對稱優勢。企業不該指望等來某個“技術穩定”的時間窗口,而是要承認這是一個持續波動的世界,必須在混亂中行動。Ramaswamy 表示,他去年也在強調“可控試錯” 和 “構造容錯系統” 的重要性,但今年最大的不同是技術成熟度更高了。以 ChatGPT 為例,它已經能即時呼叫 Web 搜尋,處理事實類問題,在結構化與非結構化資料上都有可落地的方案,已經不再只是實驗工具,而是真正進入主流生產系統。Altman 表示,他一年前還不建議大型企業將 AI 納入關鍵工作流,但現在這一天已經真正到來。他看到企業客戶開始在真實業務場景中大量部署 ChatGPT,涵蓋營運、支援、研發等領域。這些公司親自驗證了模型能力的邊界,發現現在的工具已能勝任過去根本不敢嘗試的任務。這一波變化讓他確信,AI 已經越過了企業採用的“可信門檻”。他進一步指出,明年此時我們說的話還會繼續變化。預計 AI 將不再只是最佳化工作流,而會直接進入“關鍵問題求解”環節。企業不再是將 AI 用作加速器,而是會將最棘手、最核心的問題交給模型去處理。這些模型將成為真正的“研究合夥人”,幫助解決連團隊協作都難以拆解的問題。企業會投入大量算力,要求模型給出高品質、有結構的解決路徑。關於 agent ,Convition 創始人 Sarah Guo 問及模型推理、記憶和檢索的演進路徑,Ramaswamy 認為檢索技術一直是生成式 AI 落地的支點。早在 GPT-3 時期,他的團隊就通過大規模 Web 檢索為模型提供事實支撐,以應對突發資訊和高保真需求。而記憶系統則會決定模型能否隨著使用者的持續互動變得更“懂你”。他強調,在未來高度複雜的任務中,模型對上下文的感知能力將決定其行為效果,而檢索與記憶就是支撐這一感知能力的基礎結構。Altman 補充稱,OpenAI 最新推出的程式碼 agent Codex,是他第一次覺得“這東西真的快接近 AGI 了”。使用者只需給出一組任務,它就能自主運行幾個小時,不僅能寫程式碼,還能讀文件、接入 GitHub、查閱 Slack。雖然目前還像一個實習生,但很快就會成長為能獨立連續工作多日的高級員工。類似的變革也在銷售、客服、支援等流程中出現,工作方式正發生根本性變化——人類把任務分發出去,再對成果做整合與反饋,像是在管理一群虛擬員工。Altman 預計,未來的 agent 不僅能處理短周期重複任務,還將處理長時跨度、高層級的認知問題。他相信,在不遠的將來,我們將擁有“AI 科學家”,能幫助人類發現新知識,推動科學突破。當被問及如何定義 AGI,Altman 回顧了 2020 年的情景。當時 GPT-3 尚未發佈,如果讓那時的人看到今天的 ChatGPT,大多數人會驚呼這就是 AGI。這正是人類預期不斷被重塑的例證。他指出,真正重要的是技術進步的速度,而不是某個宣佈“我們已實現 AGI”的節點。他提出,如果某個系統能自主進行科學發現,或極大提升科學探索的效率,那麼就已實現了 AGI 的核心目標。Ramaswamy 用一個比喻回應:潛水艇會不會游泳?技術上看會,但語義上又可能不會。今天的模型已經具備令人驚豔的能力,硬要去爭論是否“滿足 AGI 定義”,反而顯得多餘。就像普通電腦可以擊敗所有國際象棋冠軍,但人類仍樂於下棋。AGI 並不是終點,它是新一輪人機協作時代的起點。Guo 表示,在大眾語境中,AGI 實際上被誤解為“意識”的代名詞,只是大多數人並未意識到。她繼續追問 Altman,OpenAI 是否觀察到那些“能力湧現”的早期跡象,會影響他們的產品構思和公司方向。Altman 指出,未來一兩年內發佈的新模型將具備上一代無法企及的能力。它們能理解複雜上下文,呼叫外部工具,接入各種企業系統,在穩定性上也足以放心託付複雜任務。他強調,未來模型將真正成為“複雜問題解答者”,這不是幻想,而是技術演進的自然趨勢。Guo 問他是否能提供一種直覺框架,幫助企業判斷模型的邊界和潛力。Altman 表示,他喜歡用一個理想框架來思考:“一個非常小的模型,擁有超人類的推理能力,運行速度極快,有 1 兆 token 的上下文窗口,並能呼叫你能想到的所有工具。在這個設定下,問題是什麼、模型有沒有現成知識或資料,其實都不重要”。在這種設定下,“是否提前掌握知識”不再重要,關鍵在於模型是否有能力推理並輸出正確答案。他強調,不應把大模型當作資料庫,而應把它當作推理引擎——它能在高度複雜的資訊環境中找到結構性解法。Guo 提出一個假設性問題 —— 如果現在有 1000 倍算力,你們會用它做什麼?Altman 首先給出一個元答案:讓模型自己思考,怎麼最有效地用這 1000 倍算力,比如讓它設計更好的模型。他的實用回答是:在推理階段投入更多算力,確實能顯著提高模型表現。他建議,企業應該大膽在最困難的問題上加大算力投入,那怕只是部分任務,也能獲得非線性收益。 (有新Newin)