Pilote de la technologie d'autoconduite d'Intel, Mobileye, a récemment publié un rapport technique affirmant que l'industrie du pilotage a besoin d'un modèle mathématique pour éliminer la responsabilité de conduire un accident de voiture pour assurer la sécurité de la voiture. Bien que les experts croient à titre provisoire que Mobileye introduit ce modèle mathématique, il montre que Mobileye est profondément en pensant à la sécurité de la conduite et donne une évaluation positive. Mais il ya aussi des questions, telles que la façon de définir la sécurité démontrable (sans aucun doute), et que le modèle mathématique a encore quelques problèmes à résoudre, y compris s'il est possible d'apprendre les lacunes légales et réglementaires du forage humain. Selon EE Times, le rapport a été écrit par le premier vice-président d'Intel, Mobileye CEO Amnon Shashua et Mobileye Technology vice-président Shai Shalev-Shwartz, et deux auteurs ont expliqué dans leurs rapports que leurs politiques étaient la sécurité démontrable, Dans ce sens ne mènera pas à la responsabilité d'accident de conduite automatique. Missy Cummings, professeur à l'Université Duke aux États-Unis, souligne que la sécurité démontrable n'est pas entièrement nouvelle et que la partie plus du problème demeure inchangée. En bref, les informaticiens sont considérés comme une sécurité démontrable d'un point de vue mathématique, non comme preuve de sécurité d'une manière qu'un ingénieur de test juge sûr. Cummings et le professeur Phil Koopman de l'Université Mellon aux États-Unis soulignent que les hypothèses de Mobileye ne devraient pas être prises pour acquis, telles que les hypothèses sur les bogues logiciels (bogues logiciels), parce que les problèmes potentiels causés par les bogues logiciels sont très petites. Koopman une préoccupation majeure est de savoir si le problème du lidar et de la faille radar est le même que le cas hypothétique discuté par le Mobileye, qui doit prouver l'authenticité de la demande, et pas seulement l'hypothèse. Même si, Koopman est toujours sûr de cela, après tout, Intel a ouvert une hypothèse de test et est préoccupé par la possibilité d'apprendre à percer des échappatoires juridiques à l'avenir. Conduite générale dans la vraie route en conduisant, un long temps saurez ce que les règles générales de route ont des trous pour forer, au fil des ans pour apprendre comment utiliser ces vulnérabilités. Si c'est le cas pour les humains, pourquoi n'ont-ils pas la capacité de conduire leur propre discrétion? Dans ce cas, puisque la conduite ne peut pas violer les règles de sécurité routière sous la prémisse de trouver la faille de forage juridique de la manière autonome de conduire. Koopman croit également que les humains devraient s'attendre à l'apprentissage de machine (ml) pour être habile à apprendre comment percer des trous. Koopman fondamentalement d'accord avec le rapport Mobileye, mais si la sécurité et «pas ma faute» ont été assimilés, il pourrait y avoir des pièges, et cette validation mathématique formelle pourrait se révéler vrai en principe, mais de telles hypothèses pourraient ne pas être possibles dans le monde réel. En conclusion, c'est encore un point de départ raisonnable pour l'avenir de la sécurité routière, mais il est recommandé que vous avez encore besoin de créer un système de sécurité qui peut effectivement fonctionner, auquel cas toute vulnérabilité n'est pas un problème.