要說最近的車圈頂流,非「蘿蔔快跑」莫屬。
這個名字呆萌的東西,其實是百度旗下的無人駕駛計程車。前幾天,蘿蔔快跑在武漢大面積鋪開,憑藉著超低價和新奇感,吸引了不少人體驗。
但很快,有人就發現,蘿蔔快跑雖然是個高科技產品,卻有點笨笨的,不少武漢人戲稱它為“苕蘿蔔”,在武漢方言裡,就是“笨蘿蔔”的意思。
那麼,蘿蔔快跑到底有多「苕」?
事實上,「苕蘿蔔」這個名字還蠻寫實的,在有些情況下,蘿蔔快跑真有點傻乎乎的氣質。
被各種障礙物「嚇到」不敢挪動,只是基礎操作。只見一輛打著雙閃的蘿蔔快跑在馬路中間一動不動,定睛一看,「硬控」它的居然是一條躺在路上的綠色編製袋。面對這個障礙物,蘿蔔快跑一副束手無策的樣子,也不會繞過它,就傻乎乎地停在編織袋前方。
最後還是一位看不下去的路人大爺將袋子拿走,蘿蔔快跑終於才敢動彈。
有時候路上沒有障礙物,但是路況略微複雜,蘿蔔快跑也是立刻「智商不夠用」了。
例如在早高峰的滾滾車流裡,一輛想要變換車道來接乘客但又不敢的蘿蔔快跑,只好在原地等待,在汽車堆裡顯得弱小可憐又無助。
面對川流不息的行人和其他車輛,蘿蔔快跑直接「判斷」前方沒有前進的空間,然後也不管這是哪兒,停車會不會造成擁堵,直接趴在馬路上乖乖等待。還有一位網友拍攝的影片顯示,一輛蘿蔔快跑在路口一直「禮讓」了10輛來車,才抓住機會繼續開動。
就連旁邊沒什麼車,只是偶然遇到了自家兄弟,也不知道怎麼處理,小挪一點後直接一同停下,把「有禮貌」三個大字寫在了腦門上。
但有時候,「遇到問題就停下來」的蘿蔔快跑又一副莽漢的樣子,哪怕前面是幾乎淹沒車輪的積水,蘿蔔快跑也照開不誤。
說到底,還是出於對路況的判斷不到位,不夠智能,造成了以上這些情況。
此外,也有時候,「苕蘿蔔」之所以傻,是因為它們把「遵守規則」刻在了DNA裡。
例如,非要等到自己的乘客不可,不然就算後面塞車成長龍,蘿蔔快跑也不會挪動一下。
再比如,說好了要給你送到目的地,那差一公尺都不行。
部落客「熱乾面要加醋」表示,自己原本準備在目的地馬路對面下車,然後再走兩步就到了,但蘿蔔快跑卻依舊堅持走到下一個十字路口,再掉頭,誓要將乘客嚴謹地送到目的地。中途下車?不可能的。
還有從不超車,就算前面是速度超慢的電動車…
看來,武漢人叫它「苕蘿蔔」有自己的道理。
要知道蘿蔔快跑為什麼傻傻的,得先知道智慧駕駛是怎麼實現的。
國內某知名車企的自動駕駛演算法工程師高昊飛(化名)告訴壹讀,目前智慧駕駛發展有兩大技術路線,一是傳統的模組化路線,二是端到端的模式。
模組化路線就是將智慧駕駛的實現拆分為模組化步驟:感知(獲取資訊)、規劃(演算法分析)、控制(執行操作),即首先透過車載雷達、攝影機等感測器獲取環境信息,然後由車載處理器根據所獲取的資訊並結合高精度地圖和內建演算法進行路徑和車速規劃,發送控制命令,最後由底層處理器執行控制,使車輛行駛。
其中規劃演算法即是無人駕駛汽車的“思考方式”,蘿蔔快車以及其他智慧駕駛之所以有時候“傻傻的”,就是因為規劃演算法還不夠成熟。目前規劃演算法主要是人為定義規則,舉個例子,演算法程序可能會規定:沿著車道線中間行駛,並且遵守交通規則,實線不能變換車道,如果前方有障礙物就停車,如果前方沒有障礙物,就繼續行駛通過。
但問題是,人為定義的規則難以覆蓋所有的場景,並且實際生活中,道路場景非常複雜,甚至經常出現矛盾情況,比如在實線車道遇到障礙物,交通規則規定不能壓實線,但要繞開障礙物規劃的行駛路徑必然會壓到線。
這時候如果是人來駕駛,可以靈活的做出最佳選擇,但這種矛盾的場景如果沒被演算法覆蓋,無人駕駛汽車就無法做出下一步行動。 “最終的結果可能是,它只能按照算法代碼來'死板地'處理情況,遇到存在矛盾的場景就不會動了,看似傻乎乎的。”
而且,模組化路線還存在級聯誤差問題。簡單說就是,在對訊息的處理和傳遞中,訊息可能會發生偏差,從“馬冬梅”變成“馬懂沒”,最終可能影響汽車控制的精確度。
那麼,端到端又是什麼,它能解決蘿蔔快跑們的困境嗎?
高昊飛解釋道,端到端其實就是打破了模組化步驟之間的界線,讓汽車像人一樣從大量的實際經驗中學習總結,對當前行駛環境直接做出全局最優的最佳規劃。 「未來的方向就是減少人為定義的規則,賦予(汽車)自主學習的能力。這就像ChatGPT,進行擬人化學習,讓車子像老司機一樣能夠靈活處理各種存在矛盾和問題的場景。」高昊飛說。
目前,包括華為、小鵬等在內的許多公司都提出了自動駕駛端到端技術路線的規劃,並逐步落實。
但值得注意的是,完全的端到端路線也不是完美的。模組化路線出了問題,我們可以定位到到底是哪一步驟的問題——訊息是一步步傳遞的,檢查每一步就可以,但端到端出錯後,就很難追溯原因。
高昊飛拿ChatGPT做了個類比:「這就像ChatGPT有時會'胡說八道',比如一本正經教你做一道'鞋底炒辣椒',但你不知道到底為什麼它會這麼說;完全端到端後,智慧駕駛汽車也可能會做出一些令人無法解釋的舉動,而你不知道它為什麼要這麼開車。
ChatGPT胡說可能不會造成什麼嚴重後果,但汽車萬一做出了什麼「奇怪」的舉動,後果很可能是人們難以承受的。因此,目前各家公司發布的自動駕駛端對端技術,也都同時有著大量的規則演算法為行駛安全兜底。
對於有網友假設「買一輛無人駕駛汽車,上下班時接送我,其餘時間外出賺錢養我」的設想,高昊飛及其同事表示,目前看來還不太現實,單出了交通事故誰負責這事兒,就扯皮不清。
“而且,誰知道你的智慧駕駛汽車,是乖乖外出拉客幹活,還是去街頭'鬥毆'了呢?” (中國新聞周刊)