自動駕駛與安全: 在安全為先的領域

對於社會大眾來說, 他們希望, 自動駕駛汽車能遵循比人類駕駛員更為嚴格的標準. 就在上周, Elaine Herzberg女士在美國亞利桑那州不幸被一輛處於自動駕駛模式的Uber汽車撞倒, 最終搶救無效身亡. 在這場悲劇發生之後, 真的是時候思考一下感測和決策對於安全的意義了.

首先, 我們當前所面臨的一大挑戰就是解讀感測器資訊. 從警察公布的視頻中似乎可以看出, 即便檢測和分類對象的能力是自動駕駛汽車系統中最基本的構建模組, 但其實, 這也是一項極具挑戰性的任務. 然而, 這種能力是當前高級駕駛輔助系統 (ADAS) 的核心, 該系統囊括自動緊急刹車 (AEB) 和車道保持等功能. 數十億英裡的行駛裡程足以驗證, ADAS中的高精度感測系統正在挽救生命. 同樣地, 在克服更大的挑戰之前, 這種技術也是未來全自動駕駛汽車所需要的基本要素.

為了證明當前ADAS技術的能力和精妙之處, 我們在TV監視器的視頻中運行了Mobileye的軟體, 這台監視器播放了警方提供的事故片段. 儘管狀況不佳——有可能很多事故現場的高動態範圍數據已丟失, 但Mobileye的軟體依舊在撞擊前大約1秒的時候, 就清晰的檢測到了. 下方的圖片展示了三張快照, 上面檢測到的單車邊界框和Herzberg女士. 該檢測有兩個獨立運行的來源: 模式識別 (產生邊界框) 和一個 '自由空間' 檢測模組 (產生水平圖, 其中紅色部分表示紅線上方出現了一名 '路人' ) . 利用運動結構 (技術術語為 '平面+視差' ) , 第三個模組可以區分道路和物體. 這樣就驗證了檢測到的物體是3D的, 但可信度較低, 因此被描述為 'fcvValid: Low' , 而顯示在屏幕左上方. 出現低可信度是因為, 此處缺失生產型車輛通常可用的資訊, 並且映像質量較差, 畢竟, 在行車記錄儀拍攝的視頻基礎上再次拍攝, 可能會存在某些未知的縮減採樣.

映像來源於警方公布的TV監視器上的視頻片段. 重疊的映像顯示了Mobileye ADAS系統的響應. 綠色和白色邊界框是單車和行人檢測模組所輸出的結果. 水平圖顯示了道路和障礙物之間的邊界, 我們稱之為 '自由空間' .

此次實驗所使用的軟體與當前配備ADAS的車輛採用的軟體相同, 並已經在數十億英裡的用戶行駛裡程中得到了驗證.

現在, 像深度神經網路等人工智慧技術的發展, 讓很多人認為, 高精物體檢測系統已經可以被輕鬆地開發出來, 而那些計算機視覺專家十幾年的經驗則被視為大打折扣. 這使得很多新手湧入這一領域. 雖然這些新技術的確有用, 但很多傳統依舊不能忽略, 這包括識別和完成數百次極端情況的測試, 對數千萬英裡數據集的注釋以及在數十個ADAS項目上進行極具挑戰性的試生產驗證測試. 經驗至關重要, 尤其是在安全為先的領域.

對事件的第二個觀察是透明度. 人人都說 '我們把安全放在最重要的位置' , 但我們認為, 要想獲得公眾信任, 就必須更加透明. 正如我在去年10月在Mobileye發布責任敏感安全模型 (RSS) 時所說, 決策必須符合人類判斷的常識. 我們將 '危險情況' 和 '正確響應' 等常識概念做了數學公式化設計, 並建立了一個從數學上確保符合定義的系統.

第三個觀察則是冗餘. 真正的感知系統需要有冗餘設計, 而且, 必須依賴於獨立的資訊源: 攝像頭, 雷達和雷射雷達. 把這些資訊源整合起來, 有助於提高駕駛舒適度, 但不利於安全. 為了展示我們獲得了切實的冗餘度, Mobileye開發了獨立, 僅攝像頭的端到端系統以及獨立的雷射雷達和僅雷達系統.

如果類似上周的事故再次發生, 用戶本來就很脆弱的信任, 將會被進一步降低, 並可能引發被動監管, 最終扼殺這項重要的工作. 正如我在介紹責任敏感安全模型時所說, 我堅信, 現在就需要對全自動駕駛汽車的安全驗證框架做出有意義的討論. 我們邀請汽車廠商, 該領域的技術公司, 監管部門以及其它相關各方一起解決這些重要問題.


對於社會大眾來說, 他們希望, 自動駕駛汽車能遵循比人類駕駛員更為嚴格的標準. 就在上周, Elaine Herzberg女士在美國亞利桑那州不幸被一輛處於自動駕駛模式的Uber汽車撞倒, 最終搶救無效身亡. 在這場悲劇發生之後, 真的是時候思考一下感測和決策對於安全的意義了.

首先, 我們當前所面臨的一大挑戰就是解讀感測器資訊. 從警察公布的視頻中似乎可以看出, 即便檢測和分類對象的能力是自動駕駛汽車系統中最基本的構建模組, 但其實, 這也是一項極具挑戰性的任務. 然而, 這種能力是當前高級駕駛輔助系統 (ADAS) 的核心, 該系統囊括自動緊急刹車 (AEB) 和車道保持等功能. 數十億英裡的行駛裡程足以驗證, ADAS中的高精度感測系統正在挽救生命. 同樣地, 在克服更大的挑戰之前, 這種技術也是未來全自動駕駛汽車所需要的基本要素.

為了證明當前ADAS技術的能力和精妙之處, 我們在TV監視器的視頻中運行了Mobileye的軟體, 這台監視器播放了警方提供的事故片段. 儘管狀況不佳——有可能很多事故現場的高動態範圍數據已丟失, 但Mobileye的軟體依舊在撞擊前大約1秒的時候, 就清晰的檢測到了. 下方的圖片展示了三張快照, 上面檢測到的單車邊界框和Herzberg女士. 該檢測有兩個獨立運行的來源: 模式識別 (產生邊界框) 和一個 '自由空間' 檢測模組 (產生水平圖, 其中紅色部分表示紅線上方出現了一名 '路人' ) . 利用運動結構 (技術術語為 '平面+視差' ) , 第三個模組可以區分道路和物體. 這樣就驗證了檢測到的物體是3D的, 但可信度較低, 因此被描述為 'fcvValid: Low' , 而顯示在屏幕左上方. 出現低可信度是因為, 此處缺失生產型車輛通常可用的資訊, 並且映像質量較差, 畢竟, 在行車記錄儀拍攝的視頻基礎上再次拍攝, 可能會存在某些未知的縮減採樣.

映像來源於警方公布的TV監視器上的視頻片段. 重疊的映像顯示了Mobileye ADAS系統的響應. 綠色和白色邊界框是單車和行人檢測模組所輸出的結果. 水平圖顯示了道路和障礙物之間的邊界, 我們稱之為 '自由空間' .

此次實驗所使用的軟體與當前配備ADAS的車輛採用的軟體相同, 並已經在數十億英裡的用戶行駛裡程中得到了驗證.

現在, 像深度神經網路等人工智慧技術的發展, 讓很多人認為, 高精物體檢測系統已經可以被輕鬆地開發出來, 而那些計算機視覺專家十幾年的經驗則被視為大打折扣. 這使得很多新手湧入這一領域. 雖然這些新技術的確有用, 但很多傳統依舊不能忽略, 這包括識別和完成數百次極端情況的測試, 對數千萬英裡數據集的注釋以及在數十個ADAS項目上進行極具挑戰性的試生產驗證測試. 經驗至關重要, 尤其是在安全為先的領域.

對事件的第二個觀察是透明度. 人人都說 '我們把安全放在最重要的位置' , 但我們認為, 要想獲得公眾信任, 就必須更加透明. 正如我在去年10月在Mobileye發布責任敏感安全模型 (RSS) 時所說, 決策必須符合人類判斷的常識. 我們將 '危險情況' 和 '正確響應' 等常識概念做了數學公式化設計, 並建立了一個從數學上確保符合定義的系統.

第三個觀察則是冗餘. 真正的感知系統需要有冗餘設計, 而且, 必須依賴於獨立的資訊源: 攝像頭, 雷達和雷射雷達. 把這些資訊源整合起來, 有助於提高駕駛舒適度, 但不利於安全. 為了展示我們獲得了切實的冗餘度, Mobileye開發了獨立, 僅攝像頭的端到端系統以及獨立的雷射雷達和僅雷達系統.

如果類似上周的事故再次發生, 用戶本來就很脆弱的信任, 將會被進一步降低, 並可能引發被動監管, 最終扼殺這項重要的工作. 正如我在介紹責任敏感安全模型時所說, 我堅信, 現在就需要對全自動駕駛汽車的安全驗證框架做出有意義的討論. 我們邀請汽車廠商, 該領域的技術公司, 監管部門以及其它相關各方一起解決這些重要問題.

2016 GoodChinaBrand | ICP: 12011751 | China Exports