英特爾旗下自駕車技術業者Mobileye近期發布一份技術報告, 斷言自駕車產業需要一個數學模型來免除自駕車發生交通事故的責任, 以確保自駕車安全性. 對此專家雖初步認為Mobileye推出此數學模型, 顯示Mobileye在思考自駕車安全問題上很深入, 給予正面評價. 但對此外界也提出質疑, 如如何定義可證明安全(provably safe), 也認為此數學模型仍有部分待解課題, 包括自駕車是否可能學會人類鑽法律及規則漏洞等. 據EE Times報導, 這份報告是由英特爾資深副總裁, Mobileye執行長Amnon Shashua以及Mobileye技術副總裁Shai Shalev-Shwartz所撰寫, 兩名作者在報告中解釋其政策是可證明的安全, 在這個意義上將不會導致自駕車的事故責任. 對此美國杜克大學教授Missy Cummings指出, 可證明的安全非全新概念, 且至今該問題的最棘手的部分仍未改變. 簡單說, 電腦科學家從數學觀點視為是可證明的安全, 不代表是以測試工程師所認為安全的方式來證明安全性. Cummings與美國卡內基美隆大學教授 Phil Koopman均指出, Mobileye所做的假設不應被視為理所當然, 如關於軟體錯誤(software bug)的假設, 因為由軟體錯誤所造成的潛在問題非常小. Koopman一大憂心在於自駕車所配置光達(LiDAR)與雷達故障的問題, 是否會與Mobileye所討論的假設情況相同, 必須要證明在應用情況中的真實性, 而不是只是予以假設. 即使如此, Koopman仍對此給予肯定, 畢竟英特爾開了一個可以測試假設的出發點, 反而對於自駕車未來可能學會如何鑽法律漏洞感到憂心. 一般駕駛在真實道路行駛時, 開久了都會知道一般道路規則有哪些漏洞可鑽, 久而久之就學會如何利用這些漏洞. 如果人類會如此, 具自主判斷力的自駕車何不也可能具備這樣的能力? 在此情況下, 自駕車也能在不違反道路安全規則前提下, 找出合法鑽漏洞的自主行車方式. Koopman也認為, 人類應預期機器學習(ML)可能擅長於學習如何鑽漏洞. Koopman基本同意Mobileye報告所言, 但如果將安全與 '不是我的錯' 划上等號則可能存有陷阱, 這類形式化的數學驗證原則上能被證明為正確的, 但這類假設在真實世界中卻可能無法成立. 總結, 來說這仍是未來可逐步提升自駕車安全性的合理起點, 但建議仍需要建立一個能實際運行的安全系統, 在此情況下任何漏洞都不是問題.