在很長一段時間裡,自動駕駛行業的“潛規則”是:無論演算法吹噓得多麼神乎其神,駕駛座上總得坐著一個時刻準備接管的人類——安全員。這個人的存在,是技術的枴杖。
然而,當特斯拉決定在Robotaxi營運中徹底拿掉這個“兜底”的角色時,事情的性質變了。這不僅僅是少付一份工資的問題,這是AI在物理世界中,第一次真正意義上獲得了“獨立行事權”。
這也預示著一個新時代的開啟:算力正式接管運力。
拿掉安全員,底氣何在?答案在於特斯拉FSD底層邏輯的根本性重構——“端到端”大模型。
在過去,Waymo等競爭對手,包括早期的特斯拉,使用的是基於規則的程式碼。遇到紅燈寫一行程式碼停下,遇到行人寫一行程式碼避讓。這種方式在特定區域非常穩健,但一旦面對擁有無窮變數的真實世界,程式碼行數再多也覆蓋不了所有的“長尾效應”的Corner Cases。
特斯拉的V12版本之後,徹底拋棄了數十萬行C++程式碼,轉而投向神經網路。現在的FSD像人類一樣,通過觀看數以億計的視訊片段來“學習”駕駛。
移除安全員,意味著特斯拉的資料飛輪已經跨過了“恐怖谷”。 模型不再需要人類隨時糾錯,它對複雜環境的泛化能力已經超越了規則定義的上限。這是純視覺方案對雷射雷達方案的一次降維打擊——前者靠的是通用智能,後者靠的是高精地圖的死記硬背。
為什麼馬斯克如此執著於Robotaxi?因為這是人類歷史上極其罕見的、能將原子世界的物理運輸,塞進位元世界的軟體服務的商業模式。
一旦拿掉安全員,Robotaxi的U單車經濟模型將發生質變:
當打車比買車、養車甚至坐公車更便宜時,私家車的概念將面臨解構。特斯拉不需要賣出更多的車,它只需要讓現有的車跑得更多。拿掉安全員,是這筆帳能算平的關鍵前提。
技術可行,商業跑通,但真正的“深水區”在於倫理與法律。
只要還有安全員,事故的責任主體就是清晰的——人。但當車內空無一人,一旦發生事故,誰來負責?是寫程式碼的工程師?是提供算力的雲端?還是擁有車輛的車主?
特斯拉移除安全員,實際上是在倒逼監管層面的立法加速。這是一種“騎兵突進”式的策略:用既定事實來推動法律標準的建立。
這也帶來了巨大的風險敞口。在數百萬輛Robotaxi構成的網路中,那怕是99.9999%的安全性,剩下的0.0001%在龐大的基數下也會產生絕對數量的事故。
特斯拉麵臨的挑戰,不再是識別一個路障,而是如何在一個由人類情感、法律條文和道德判斷構成的複雜社會中,讓一個冷冰冰的演算法獲得“信任牌照”。
特斯拉Robotaxi拿掉安全員,不僅是汽車工業的里程碑,更是通用人工智慧在物理世界的第一次大規模“成人禮”。
它證明了AI不僅能生成文字、生成圖片,還能即時感知、決策並物理操控重達兩噸的鋼鐵物體,在混沌的人類世界中穿行。
那個空著的駕駛座,留給我們的不僅僅是寬敞的空間,更是一個巨大的思考:當機器不再需要人類的監督,人類在未來的生產力鏈條中,究竟該站在那裡?
對於特斯拉,這是兆市值的入場券;對於我們,這是未來已來的敲門聲。 (AI Xploring)