英特尔推自驾车创新安全演算法 | 在概念上仍有待解课题

英特尔旗下自驾车技术业者Mobileye近期发布一份技术报告, 断言自驾车产业需要一个数学模型来免除自驾车发生交通事故的责任, 以确保自驾车安全性. 对此专家虽初步认为Mobileye推出此数学模型, 显示Mobileye在思考自驾车安全问题上很深入, 给予正面评价. 但对此外界也提出质疑, 如如何定义可证明安全(provably safe), 也认为此数学模型仍有部分待解课题, 包括自驾车是否可能学会人类钻法律及规则漏洞等. 据EE Times报导, 这份报告是由英特尔资深副总裁, Mobileye执行长Amnon Shashua以及Mobileye技术副总裁Shai Shalev-Shwartz所撰写, 两名作者在报告中解释其政策是可证明的安全, 在这个意义上将不会导致自驾车的事故责任. 对此美国杜克大学教授Missy Cummings指出, 可证明的安全非全新概念, 且至今该问题的最棘手的部分仍未改变. 简单说, 电脑科学家从数学观点视为是可证明的安全, 不代表是以测试工程师所认为安全的方式来证明安全性. Cummings与美国卡内基美隆大学教授 Phil Koopman均指出, Mobileye所做的假设不应被视为理所当然, 如关于软件错误(software bug)的假设, 因为由软件错误所造成的潜在问题非常小. Koopman一大忧心在于自驾车所配置光达(LiDAR)与雷达故障的问题, 是否会与Mobileye所讨论的假设情况相同, 必须要证明在应用情况中的真实性, 而不是只是予以假设. 即使如此, Koopman仍对此给予肯定, 毕竟英特尔开了一个可以测试假设的出发点, 反而对于自驾车未来可能学会如何钻法律漏洞感到忧心. 一般驾驶在真实道路行驶时, 开久了都会知道一般道路规则有哪些漏洞可钻, 久而久之就学会如何利用这些漏洞. 如果人类会如此, 具自主判断力的自驾车何不也可能具备这样的能力? 在此情况下, 自驾车也能在不违反道路安全规则前提下, 找出合法钻漏洞的自主行车方式. Koopman也认为, 人类应预期机器学习(ML)可能擅长于学习如何钻漏洞. Koopman基本同意Mobileye报告所言, 但如果将安全与 '不是我的错' 划上等号则可能存有陷阱, 这类形式化的数学验证原则上能被证明为正确的, 但这类假设在真实世界中却可能无法成立. 总结, 来说这仍是未来可逐步提升自驾车安全性的合理起点, 但建议仍需要创建一个能实际运行的安全系统, 在此情况下任何漏洞都不是问题.

2016 GoodChinaBrand | ICP: 12011751 | China Exports