我們正處於一個 AI 極度分裂的時代。一方面,Suno 和 Sora 這樣的產品正在不斷刷新我們的認知上限。在演示視訊裡,AI 能生成足以亂真的音樂和電影級畫面,Suno 甚至被稱為能「席捲全球」。但在另一方面,當我們把目光轉向自動駕駛、金融投顧這些真正需要「幹活」的領域時,AI 的表現卻往往讓人甚至不敢鬆開方向盤。為什麼 Demo 裡的 AI 如此完美,一進現實就顯得「智障」?01Agent元年,Demo 的幻覺與落地的「恐怖谷」在12月18日的 Contech大會的AI落地分論壇上,主持人趙昊就曾提出過這個問題。對此,財經博主小Lin提出了一個非常精準的概念,叫 「Paper Return」(紙面收益)。這就好比投資,模型跑分再漂亮、Demo 演示再驚豔,那都只是紙面上的富貴。一旦真金白銀投下去,進入複雜的物理世界,市場壓根不會按你的假設走。這背後的核心矛盾,在於不確定性與確定性的博弈。目前的生成式 AI,本質上是基於機率預測下一個 Token 的「隨機鸚鵡」。在寫詩、畫圖、做視訊這些「容錯率極高」的創意領域,AI 的隨機性是驚喜,是靈感。但在自動駕駛、醫療診斷這些「零容錯」的現實場景中,隨機性就是災難。更棘手的是責任歸屬。當 AI 從輔助角色的 Copilot 變成主導決策的 Pilot,誰來為它的決策負責? 這是一個繞不開的社會契約問題。如果 AI 是一個不可解釋的黑盒,它做對了你不敢信,因為它可能是蒙的;它做錯了你沒法改,因為它沒法告訴你為什麼。所以,Agent(智能體)遲遲無法大規模落地的根本原因,可能不是我們的算力還不夠大,或者參數還不夠多。而是我們一直試圖用「資料鏈(Data Chain)」去解決本該由「因果鏈(Causal Chain)」和「價值鏈(Value Chain)」解決的問題。正如北京通用人工智慧研究院(BIGAI)朱松純教授所言,我們需要「為機器立心」。只有當 AI 擁有了「心」,也就是具備了可解釋的認知架構和價值體系,它才能走出「達特茅斯陰影」,真正獲得人類的信任。為了講清楚這個極其抽象的技術哲學,我們不妨先看一個最硬核的工程樣本:奔馳的自動駕駛。奔馳在2021年就拿到了德國政府批准的L3級商用自動駕駛系統,在24年就加入了L4的測試大軍。這家近140年的車企,是如何用奔馳標準,把「狂野」的 AI,關進「邏輯」的籠子裡的?02奔馳標準,將 AI 關進「物理與邏輯的籠子」自動駕駛的L4等級,是車企要承擔事故主要責任的。奔馳憑什麼敢做這個嘗試?並不是因為奔馳的神經網路比別人「聰明」多少,而是因為它更「穩」,或者說,它更懂如何用確定性的邏輯去約束不確定性的 AI。我們可以把奔馳的技術譜系拆解為兩層:底層的物理冗餘和核心的邏輯鎖。首先是物理冗餘,這是對物理世界不可預測性的極致敬畏。在奔馳看來,真正的安全不能只靠演算法。它的制動系統、轉向系統,甚至連車載電網都是雙份的。這意味著什麼?那怕主電腦突然斷電,或者轉向電機卡死,那個備份的「副神經系統」也能在毫秒級接管,把車停下。更有意思的細節在感測器列表裡。除了常規的雷射雷達,奔馳甚至在車輪拱裡裝了濕度感測器,還裝了能聽警笛聲的麥克風。為什麼要裝這些?因為視覺 AI 可能會把路面水坑的反光看錯,產生幻覺。但濕度感測器不會騙人,它會直接基於物理摩擦力的減小,告訴系統「必須減速」。 這就是用物理感測器的「真」,去兜底 AI 視覺的「幻」。但更硬核的,是第二層防線:SFF(Safety Force Field,安全力場)。這是奔馳解決 AI「黑盒」問題的殺手鐧。目前的端到端大模型還無法保證全無幻覺,它就像一個直覺極強、但偶爾會沖猛了的賽車手。它看著攝影機說:「前面那個白色的東西好像是一團雲氣,我們可以加速衝過去。」這時候,SFF 系統就介入了。它不像 AI 那樣依賴機率預測,它只信奉牛頓定律。SFF 是一個基於物理規則的邏輯層,是一個完全透明的「白盒」。它的邏輯非常簡單粗暴:不看前面是雲還是車,只看雷射雷達傳回的物理空間資料。如果計算出前方50米有實體佔據空間,根據「兩個物體不能同時佔據同一空間」的物理公理,現在不剎車100%會撞。這就是奔馳的答案:用白盒(可解釋的物理規則)去配合黑盒(不可解釋的神經網路)。不管 AI 內部的數億個參數怎麼「湧現」,最終的輸出必須也要和邏輯層的毫秒級校驗相互校驗。這種架構解決了「安全性」和「責任歸屬」的問題。如果出了事故,我們可以清晰地回溯是邏輯層的規則沒寫對,還是感測器的輸入出了錯,而不是對著一個幾千億參數的黑盒兩眼一抹黑。但是,SFF 只能解決「不撞車」的問題。它是一條底線,一個籠子。如果要讓 Agent 真正像人一樣不僅「守規矩」,還能「懂人心」。比如判斷路邊的行人是想過馬路還是在等車?比如判斷後座的乘客是想快點到家還是想穩一點睡覺?光有剎車是不夠的。AI 需要的不僅僅是物理規則的約束,更需要一種認知的覺醒。03U與V,朱松純的「AGI 認知架構」奔馳用 SFF(安全力場)為 AI 加上了「物理鎖」,這解決的是底線安全的問題。但對於一家百年豪華車企來說,僅僅做到「不撞車」是遠遠不夠的。當 L3 甚至 L4 等級的自動駕駛真正鋪開時,車不再只是一個交通工具,而是一個擁有巨大動能的智能體。它如何在複雜的社會交通流中博弈?它如何與車內的乘客建構信任?我們不妨借用朱松純教授的「U & V」認知框架,來解讀奔馳正在探索的「AI 價值觀工程」。這或許比單純的技術堆疊,更能看清自動駕駛的未來。1.U(能力):不僅僅是快,更是「奔馳標準」的執行力在 AI 的語境裡,U 代表勢能函數,也就是能力。它通常被定義為「更快、更省、更智能」。目前的自動駕駛行業,大部分玩家都在瘋狂捲 U。也就是如何讓車開得更像一個老司機:敢於在晚高峰搶道、敢於壓線博弈、敢於在黃燈前一腳油門衝過去。這種策略確實最佳化了效率(U),但也帶來了一種「演算法的傲慢」——為了效率犧牲了對他人的尊重和秩序的安全。奔馳顯然不想走這條路。在奔馳的體系裡,U 的執行必須服從於更高的指令。這就是為什麼大家會覺得奔馳的自動駕駛有點「慫」:即使是綠燈,它也開得很謹慎;在沒有紅綠燈的斑馬線前,它會絕對禮讓行人。這種「老派」的作風,在極客眼裡不夠酷,但恰恰證明了奔馳已經在 AI 的底層植入了另一套系統V。2.V(價值):把「老派紳士」的靈魂程式碼化V (Value) 代表價值函數,也就是 AI 決策時的優先順序排序。朱松純教授認為,智能體必須擁有價值觀。而對於奔馳來說,這個 V 就是其反覆強調的「以人為本」。如果說 SFF 是物理層的剎車,那麼 V 就是認知層的剎車。它決定了 AI 在面對兩難選擇時,向左還是向右。首先是隱私的紅線。在資料這塊,奔馳的 V 極其強硬——資料屬於使用者。那怕犧牲一部分訓練便利性,也要確保合規。這是寫在 V 函數最底層的約束。其次是互動的紅線。在路權博弈中,奔馳的 V 設定是「安全與優雅」高於「效率」。這種看起來不夠激進的策略,實際上是在為機器建立一種「人格」一個可靠、穩重、不冒進的夥伴。正如朱教授所說,「心即是理」。奔馳正在做的,其實就是通過定義 V,把百年積累的造車哲學(心),轉化為 AI 必須遵守的決策邏輯(理)。3.下一步的探索:從「冷冰冰的邏輯」到「懂人心的夥伴」但這還不是終點。奔馳並沒有止步於「守規矩」,他們正在探索更高級的 V,意圖理解(Intent Understanding)。目前的 AI 大多是被動的:你踩剎車它減速,你喊指令它執行。但未來的 AI Agent,需要像一個懂你的老管家。奔馳最新的車機系統與豆包大模型的合作,就是一個訊號。他們試圖讓 AI 擁有「記憶」和「共情」能力。它不再機械地執行命令,而是開始變得“善解人意”。最直觀的是目前奔馳正在開發,還未上線量產車型的新氛圍燈功能,當感知到你情緒愉悅時,它會調動多彩光影為你助興;而當感知到危險時,它會瞬間變成警示的橙紅色。這種互動讓座艙不再是冷冰冰的機器,而是具備了情感溫度的夥伴。這種“夥伴感”建立在極度自然與擁有記憶的互動之上。新系統反應極,0.2 秒的極速響應配合擬人化的對話風格,徹底告別了機械感;更重要的是它擁有了類似人類的短期記憶。它能理解上下文,比如你隨口提一句“喜歡紫色”,過一會只需說“把氛圍燈調成那個顏色”,它就能立刻調動記憶精準執行。這種邊聽、邊想、邊做的流暢體驗,讓人彷彿是在和真人交流,而非向裝置下達指令。這種改變確實產生了效果。根據奔馳的資料顯示,該系統上線後最高頻的 AI 相關指令是“給我講個笑話”、“陪我聊聊天”和“你真棒”。這幾個簡單的詞彙完美說明了,靠著共情和自然,使用者不再僅僅把車機當作一個調節空調的工具,而是潛意識裡開始把它當作一個可以交流、甚至尋求陪伴的朋友。這說明奔馳正在試圖打通 U 和 V 的邊界:讓 AI 的能力(U),去主動適配人的情緒價值(V)。未來的奔馳智能體,或許不需要你開口,就能通過你的眼神、你握方向盤的力度,推斷出你是趕時間還是想兜風,從而在「激進模式」和「舒適模式」之間無感切換。這就是奔馳正在探索的路徑:用「可解釋的物理規則」兜底安全,用「可定義的價值函數」建構性格,最終讓 AI 成為一個有溫度的「人」。04為機器立心,從工具到夥伴為什麼我們現在遇到所謂的「智能客服」時,往往第一反應是想要人工服務?朱松純教授在訪談中點破了這個現象的本質:因為它們只是「鸚鵡」。它們有口無心,只會重複訓練資料裡的機率組合。更致命的是,它們無法為自己的行為負責。在人類的經濟社會中,信任是建立在「抵押品」之上的。你要跟我做大生意,我得看你的註冊資本;你要進我家門,如果不小心打碎了花瓶,你得賠得起。這就是契約。但現在的 AI Agent,無論是在網際網路上帶貨的數字人,還是那些生成程式碼的助手,它們是沒有任何「抵押品」的。它們做錯了,模型不會痛,伺服器不會關,所有的風險都由使用者承擔。這就是為什麼 Demo 再完美,我們依然只敢把它們當工具,而不敢視為夥伴。要跨越這個從工具到夥伴的鴻溝,工程上的修修補補(比如加防火牆、寫死規則)已經不夠了。我們需要一場架構級的革命,朱松純教授將其命名為——為機器立心。這聽起來像哲學,但其實是極其嚴謹的科學。所謂的「心」,在數學架構上,就是一套完整的、內生的價值函數體系(V)。它不僅僅是外掛的「紅線」,而是內化為 AI 決策的本能。就像人類不需要背誦幾百條法律條文也能安全地生活一樣,安全感源於我們內心的良知和對社會規範的認同。「心即是理」。當 AI 真正擁有了「心」,它的一言一行(理)就會自然得體。它不需要你規定「不能傷害人類」,因為它在計算下一步行動的收益時,會自動把「傷害人類」的價值權重降到最低,那怕這能帶來極高的效率回報。回到我們最開始的問題:為什麼奔馳敢說「出了事車企負責」?這其實就是奔馳作為一家企業,在強行給它的 AI 繳納「抵押品」。在 AI 尚未完全擁有獨立的「心」之前,奔馳用自己的品牌信譽和法律責任,充當了那個擔保人。奔馳給出的答案是:做一個更負責任的 AI。物理冗餘是它的底線能力(U);SFF 安全力場是它的邏輯鎖;而「以人為本」的價值觀(V),則是它試圖賦予這台機器的「心」。這既是「奔馳標準」,也預示了 AI 安全的未來底線。我們正站在一個新時代的門檻上。朱松純教授預測,未來可能會有上百億的機器人和智能體進入我們的社會。如果這些智能體只有強大的能力(U),卻沒有匹配的價值觀(V),那我們將面臨的不僅是「落地難」,而是巨大的混亂。從 Suno 的音樂到奔馳的 L3,從 Demo 裡的「紙面收益」到現實世界的真金白銀 ,中間隔著的,其實就是這顆「機器之心」。這顆心,由物理的感知建構,由因果的邏輯串聯,最終由價值的判斷驅動。只有當 AI 學會了「立心」,它才能從那個冰冷的黑盒中走出來,不再是只會預測機率的鸚鵡,而是一個能理解你的意圖 、能為自己負責 、值得你把後背(或者方向盤)交給它的真正夥伴。這,或許才是通用人工智慧(AGI)真正到來的時刻。 (騰訊科技)