“AI 已經比人類聰明了。”
OpenAI CEO Sam Altman 在最新的公開訪談中說這句話時,用的是陳述語氣,不是預測。
他的原話是:“今年,AI 變得比我們更聰明了。這是個重大時刻。生活還在繼續,但有些根本性的東西改變了。”
但大多數人對 AI 的認知,還停留在ChatGPT 是個聊天工具的階段。
Altman 在訪談中反覆提到一個場景: 起初,你問 ChatGPT 問題,它給建議,你有時採納。 後來它變得更聰明,建議幾乎總是對的,你開始依賴它。 再後來,它給出的建議你已經不理解了,但結果證明仍然正確。這時你面臨選擇:要麼跟隨你不理解的建議保持競爭力,要麼被同齡人甩開。
而世界上數億人每天都在重複這個過程。每一次對話、每一個選擇,都在成為它下一代模型的訓練資料。
這就是 Altman 真正想說的: AI 的問題不再是“它能做什麼”,而是“我們與它的關係正在如何改變”。
我們以為自己在使用工具。 實際上,我們正在無意識地訓練一個正在接管決策權的系統。 而這一切,發生得如此自然,以至於多數人還沒察覺。
Sam Altman 開門見山地說了這樣一句話:
“我們現在已經有了能在最難智力競賽中擊敗最聰明人類的系統。但大多數人對 AI 的認知,還停留在使用 ChatGPT 的階段。”
這不是在預測未來,而是在描述現在。 他想傳達的重點,是一個巨大的認知差距。
不是 AI 能力不夠強,而是它的真實能力,遠超出了普通使用者的日常感知。
為什麼你感受不到?
因為這些能力,並不是通過炫技展示的,而是悄悄融入到日常體驗中。
它可能已經幫你寫過一段程式碼、改過一封郵件、生成過一次旅行計畫。 你只覺得“還挺方便”,卻沒意識到:它比你更懂完成這類任務的方法。
這也是 Altman 最強調的一點:
AI 的進步速度,遠遠超過了人類社會適應它的速度。
不是 AI 太快,而是我們太慢。
人類對 AI 的認知,還停留在“我問它答” 的階段,但 AI 已經進入了“我猜你要問”的階段。
換句話說,但 AI 已經進入了另一個階段:
它在觀察你的行為,學習你的偏好,提前準備你可能需要的答案。
Sam Altman 在訪談中反覆強調一件事: 人類不是在使用 AI,而是在“訓練”AI。
人們在生活和工作中,越來越依賴 AI 做重要決策。每一次使用,每一次反饋,都變成了它學習的素材。
這就是 AI 工作的底層邏輯。
舉個例子:你在用 ChatGPT 搜電影推薦時,點了其中一個; 你寫郵件時,它給了你三種語氣,你選了“更溫和”的; 你問它工作建議,雖然不全認同,但你最後還是聽了它的做法。
這些看似普通的小動作,正在一點點告訴 AI:那種風格更受歡迎?那個回答更有用?什麼被採納,什麼被忽略?
它沒有“心”,但有非常高效的“記性”和“歸納能力”。 你的選擇,就是它的學習素材。
Altman 甚至說:
“我們不是告訴 AI 該怎麼做,而是它在看我們怎麼選,然後自己學。”
這才是當下最被低估的一點。
不是你在用 AI,而是你在教 AI 怎麼理解你所在的世界。
就像 Altman 說的:
“我們不是在告訴 AI 該怎麼做,而是它在看我們怎麼選,然後自己學。我們正在進入一個新的反饋循環,模型學習人類的選擇,人類又被模型訓練過的內容所影響。”
這才是當下最容易被忽視的事實:
你的點贊、你的選擇、你的使用習慣,連同其他所有人的,一起塑造著下一代 AI。
它會變成什麼樣,取決於我們今天教了它什麼。
Sam Altman 在這次訪談中,提出了一個容易被忽視的風險: “我們真正該擔心的,不是 AI 想做什麼,而是它說了什麼我們就聽什麼。”
這是他對 AI 風險的第三種分類。
前兩種風險你可能聽過:
第一種:壞人用 AI 做壞事,比如製造病毒、發動攻擊;
第二種:AI 變得太強,開始不聽人類的,走上“失控路線”。
這兩種像電影情節一樣刺激,大家都在討論。 但 Altman 說,最容易被忽略的,反而是第三種。
這種情況不嚇人,也不激烈,但最可能真實發生:
AI 沒有任何意圖,也不會“叛變”,它只是不斷給出建議,而這些建議總是對的。漸漸地,你就開始什麼都聽它的。
想像一個場景:
你問 AI 一份商業策劃的建議, 它列了五點,其中三點你覺得很合理,另兩點你不太懂。 但你看著它這麼自信地寫出來,而且過去幾次它給的建議也確實有效, 於是你照做了。
幾次之後,它給出的內容你已經完全看不懂了,但你依然照做,因為它之前說的都對。
Altman 表示:
“我們開始接受 AI 給出的答案,那怕我們不明白它為什麼這麼說。”
這不是 AI 控制你,而是你慢慢把選擇權交給了一個你不理解的東西。
它沒有動機,也不需要控制任何人。
但結果是:我們正在把越來越多的判斷權,交給一個我們不完全理解的系統。
前三節講的是一個正在發生的事實: AI 已經比我們聰明,我們每天在無意識地訓練它,而我們正在把越來越多的判斷權交給一個不完全理解的系統。
這聽起來像是一條單行道。
但 Altman 在訪談中反覆強調的是:我們還有時間窗口。
不是說“一切都很美好”,而是說如果現在意識到這個過程,還來得及影響方向。
他提到 OpenAI 早期的一個討論: 當被問到如果 AI 真的變得比我們更聰明,它該扮演什麼角色,聯合創始人 Ilya Sutskever 給出的答案是: “我們希望超級智能像慈愛的父母對待孩子那樣對待人類。”
Sam Altman 認為這個比喻抓住了關鍵。
但他也清楚,這不是 AI 的默認設定,而是需要我們主動塑造的方向。 問題在於:AI 會成為什麼樣,取決於我們現在如何使用它、如何訓練它。
第二節說過,你每一次使用都在訓練 AI。
第三節說過,你正在把判斷權交給它。
但這不意味著你只能被動接受。
Altman 的觀點是:我們現在的行為,正在定義 AI 的未來性格。如果我們希望它有同理心、懂得克制,那麼我們自己就要在使用它的過程中體現這些價值觀。
這不是說 AI 會有“人性”,而是說: 你喂給它什麼樣的資料、你獎勵什麼樣的回答、你容忍什麼樣的建議,最終會塑造它的行為模式。
Sam Altman 說“溫暖的 AI”“有同理心的 AI”時,他不是在描繪科幻烏托邦,而是在提醒:如果我們不主動參與塑造,AI 就會被其他人的價值觀塑造。
這個選擇權現在還在我們手中。
但窗口期不會太長。
如果說過去幾年,我們最常問的問題是:
“AI 會不會變得太強?”
那 Altman 這次想說的,是另一個問題:
“AI 的問題不是它想做什麼,而是我們正在如何使用它。”
它已經比我們聰明,但大多數人還把它當聊天工具。
我們以為在用工具,實際上每一次點贊、每一個選擇,都在訓練它。
它給出的建議我們已經不完全理解,但還是照做了。
這不是 AI 有野心,而是我們習慣了把判斷權交出去。 它沒有意識,但它在觀察你的每一次選擇,並用這些資料最佳化下一個答案。
當全球數億人都在無意識地訓練同一個系統時,當這個系統變得比我們更聰明時,我們還能不能保持清醒?
Altman 說,我們還有時間窗口。
但前提是:
你得先意識到,你的每一次點贊,都在投票決定 AI 的未來。 (AI深度研究員)