提到智能車,大家都不會陌生,智能車是一個集環(huán)境感知、規(guī)劃決策、多等級輔助駕駛等功能于一體的綜合系統(tǒng),它集中運用了計算機、現(xiàn)代傳感、信息融合、通訊、人工智能及自動控制等技術,是典型的高新技術綜合體,自動駕駛便與之有著異曲同工之妙。自動駕駛的核心技術,有的人認為是感知、有的人認為是決策,有的人認為是非技術的東西,比如能否持續(xù)賺到錢、能否做好前瞻性的管理工作等等。本期文
章就知乎上的幾位答主的觀點,來看自動駕駛技術的核心。
小鵬、特斯拉、蔚來“聰穎“不一
在對Model 3、小鵬P7、蔚來ES6的自動駕駛功能進行測試時,其中一項是對雪糕筒的識別和反饋卻截然不同:
小鵬:直接沖過去。
特斯拉:變道躲避。
蔚來:提示駕駛員接管車輛,自動剎車,同時打開雙閃。
當時測試的車輛速度是40-50km/h,理論上來說,以三臺車當前的硬件能力,不可能識別不到前方樁桶,最終不同的表現(xiàn)其實代表的就是三臺車不同的決策邏輯,來聽下三臺車的內心獨白:
小鵬P7:前方有樁桶?這是施工路段吶,理論上這屬于駕駛員自己接管的范圍,主動介入有可能造成危險,萬一出了事責任也很難劃分清楚吧?算了,還是維持當前操作!
特斯拉:前方有障礙物?哈哈,大顯身手的機會來了!看我的,變道避障!
蔚來:前方有障礙物?可能有危險吧?不行不行,趕緊剎車降速,同步告知駕駛員和周圍車輛,小心!有危險??!
自動駕駛技術的核心還是決策
自動駕駛技術的核心實際上還是決策。過去幾年由于視覺感知的不穩(wěn)定,自動駕駛的發(fā)展受到了極大的制約,因此很多人都認為環(huán)境感知才是自動駕駛技術的核心。但隨著環(huán)境感知的硬件越來越好,底層控制系統(tǒng)越來越精準,智能決策的重要性越來越關鍵。
如果自動駕駛類比人開車,那么感知就類似于人的眼耳,獲取汽車周邊的環(huán)境信息,而手腳則是偏執(zhí)行層的控制。那么自動駕駛的核心就應該更偏向腦部的功能——決策。
過去往往都在吐槽Mobileye的攝像頭或者哪家的雷達不行(眼神不太好),譬如車道線無法準確識別,靜止車輛在遠距離識別不到,這個目標又丟了,然后再加一堆的邏輯去解決這些參數(shù)異常跳動或者目標無法準確識別、丟失等問題。除此之外還需對執(zhí)行層進行調試,譬如這個EPS死區(qū)有點大,這個車輛制動響應不太好(可以理解為手腳不太好使)。但隨著供應商以及自研技術的提升,這樣的場景越來越少了,無車道線場景也可以給出安全行駛的邊界了,大家也有更多的精力去打磨決策相關的內容了,在學會走路的基礎之上,研究如何的跑的更快,跑的更優(yōu)雅了。
決策邏輯評價體系攸關重要
①能不能
比如,想識別所有的障礙物,但是你能枚舉出所有的障礙物來測試嗎?大千世界,無奇不有,顯然是不能枚舉完的。所以,那些沒測過的障礙物,風險怎么評估呢?你敢在產(chǎn)品放行文件上簽字嗎?
仿真能大大提高測試的覆蓋度,那么仿真和實際的偏差,怎么評估呢?仿真能識別了,實際就能嗎?
簡單來說就是幾個問題,第一,你知道你能識別什么,但是你知道你不能識別什么嘛?第二,如果你知道不能識別,那你能及時報警讓駕駛員接管嗎?第三,如果沒接管,你能及時執(zhí)行最小風險策略嗎?這些需要一套體系來管理和評價。
SOTIF能解決不少問題,但是SOTIF,有幾個公司能完全用起來呢。更別說SOTIF解決不了的問題了。
②可不可靠
之前是一些模糊邊界的問題。那么對于已經(jīng)定義清楚的功能,怎么保證可靠性呢?
功能安全里有個安全目標的概念,簡單說就是對于影響安全的事件(比如制動失效),有一套體系來保證相關的功能是可靠的。這里就引出了最常用的提高可靠性的方法---冗余。
冗余在傳統(tǒng)的車輛上很常見,比如扭矩計算,比如制動執(zhí)行機構的冗余。但是對于自動駕駛的一些問題,比如基于AI的感知,目前還不好做。
因此,沒法直接套用功能安全的體系,來保證已經(jīng)定義并實施的功能,是‘可靠’的。那怎么辦呢?可以結合數(shù)據(jù)閉環(huán)來debug。但有個問題是,數(shù)據(jù)閉環(huán)是滯后的。就算用測試車,測試車的數(shù)據(jù)在數(shù)量和test case的覆蓋度是比較局限的。OK,所以還要結合仿真,所以老問題又來了,仿真測試能過,路測就可以嗎?偏差怎么評估呢?
這就是一系列如何評價可靠性的問題。不是對自動駕駛悲觀,只是覺得要正視問題,避免盲目自信。也許以后有更好的體系來支撐自動駕駛的開發(fā),但是歸納起來一句話---都需要時間。但是不希望有車企用激進的方式,像特斯拉那樣用消費者來做測試,加速這個進步。