Für die Öffentlichkeit hoffen sie, dass selbstfahrende Autos strengeren Standards folgen können als menschliche Fahrer.Nur letzte Woche wurde Frau Elaine Herzberg unglücklicherweise von einem Uber im Autopilot-Modus in Arizona, USA, niedergeschlagen. Am Ende der Tragödie war es an der Zeit, über die Bedeutung von Wahrnehmung und Entscheidungsfindung für die Sicherheit nachzudenken.
Zuallererst stellt eine der Herausforderungen, denen wir heute gegenüberstehen, die Interpretation der Sensorinformationen dar. Aus dem veröffentlichten Video der Polizei geht hervor, dass selbst wenn die Fähigkeit, Objekte zu erkennen und zu klassifizieren, der grundlegendste Baustein in einem selbstfahrenden Fahrzeugsystem ist. Eine sehr anspruchsvolle Aufgabe, die jedoch im Mittelpunkt des aktuellen Advanced Driver Assistance Systems (ADAS) steht, das Funktionen wie die automatische Notbremsung (AEB) und die Spurhaltung umfasst , Das hochpräzise Sensorsystem von ADAS rettet Leben, und vor der Bewältigung noch größerer Herausforderungen ist diese Technologie auch ein wesentliches Element für das vollautomatische Fahren von Autos in der Zukunft.
Um zu beweisen, dass die aktuelle Kapazität und die Feinheit der ADAS-Technologie, führen wir das Video in einem TV-Monitor in der Mobileye-Software, die ein Fragment des Unfalls durch die Polizei trotz des schlechten Zustand zur Verfügung gestellt spielen überwacht - Es kann eine Menge Unfallort sein high dynamic range Daten verloren wurden, aber Mobileye Software ist in etwa 1 Sekunde, wenn noch vor dem Aufprall, klar erkannt. das Bild zeigt drei Momentaufnahmen, über dem erfassten Fahrrad Begrenzungsbox und Frau Herzberg. der Detektor zwei Quellen unabhängiger Betrieb: Mustererkennung (erzeugt Bounding Box) und ein ‚freier Raum‘ Detektionsmodul (Fig Erzeugungspegel, der die Oberseite des roten Teils einer roten Linie ‚passerby‘ darstellt) mit der Bewegungsanordnung (technische Terminologie‘. Flugzeug + Parallaxe ‚), kann das dritte Modul zwischen Straße unterscheiden und somit das zu erfassende Objekt-Objekt ist 3D zu überprüfen, aber die Zuverlässigkeit niedrig ist, so wird es beschrieben als‘ fcvValid: low‘, wird die obere linke auf dem Bildschirm angezeigt Seite. auftritt wegen des geringen Vertrauens, wo Deletionsprodukte allgemein verfügbare Fahrzeuginformationen und die Bildqualität schlecht ist, nach allem, Fahrtenschreiber des Fotografieren Ansicht Basierend auf dem Schießstand wieder, kann es einige unbekannte Unterabtasten sein.
Das Bild aus einem Videoclip auf dem TV-Monitor Polizei freigegeben. Überlagert Bild zeigt die Antwort Mobileye ADAS-Systeme. Grüne und weiße Begrenzungsrahmen ist das Ergebnis der Detektionsmodul Fahrräder und Fußgänger Ausgang horizontale Abbildung der Straße und die Hindernisse zeigt Grenzen zwischen, wir nennen das ‚Freiraum‘.
Die Software in dem Experiment mit der Software, die derzeit in Fahrzeugen mit ADAS verwendet gleich und hat sich in den Milliarden von Meilen in Kilometer Benutzer validiert.
Nun hat die Entwicklung von Technologien für künstliche Intelligenz, wie tiefe neuronale Netze, zu der Annahme geführt, dass hochpräzise Objekterkennungssysteme bereits leicht entwickelt werden können, und dass Computervisionsexperten mit mehr als einem Jahrzehnt Erfahrung als Unterbietung gelten der Zustrom von vielen Anfängern auf diesem Gebiet. Obwohl diese neuen Technologien wirklich nützlich, aber immer noch eine Menge Tradition nicht ignoriert werden kann, einschließlich der Identifizierung und Fertigstellung von Hunderten von Tests in extremen Fällen, die Kommentare von mehreren 10.000.000 Meilen und Dutzende von Datensatz in ADAS Das Projekt befindet sich derzeit in einer schwierigen Testphase, in der Tests durchgeführt werden müssen, insbesondere in Bereichen, in denen Sicherheit im Vordergrund steht.
Die zweite Beobachtung des Vorfalls war Transparenz: Jeder sagte: "Wir bringen die Sicherheit in die wichtigste Position", aber wir glauben, dass das Vertrauen der Öffentlichkeit transparenter sein muss, wie ich im vergangenen Oktober bei Mobileye angekündigt habe. Nach dem Responsible Sensitive Security Model (RSS) müssen Entscheidungen dem gesunden Menschenverstand entsprechen: Wir haben Common Sense-Konzepte wie "gefährliche Situationen" und "korrekte Antwort" mathematisch formuliert und eine mathematisch garantierte Übereinstimmung mit der Definition hergestellt. System.
Die dritte Beobachtung stellt die Redundanz dar. Das wahre sensorische System benötigt ein redundantes Design und muss sich auf unabhängige Informationsquellen stützen: Kameras, Radare und Lidars. Die Integration dieser Informationsquellen trägt zur Verbesserung des Fahrkomforts bei. Dies ist jedoch nicht der Sicherheit förderlich: Um zu zeigen, dass wir praktische Redundanz erreicht haben, hat Mobileye ein unabhängiges Nur-Kamera-Ende-zu-Ende-System sowie ein unabhängiges Lidar- und Nur-Radar-System entwickelt.
Wenn etwas wie der Unfall der letzten Woche wieder passiert, wird das bereits schwache Vertrauen des Benutzers weiter reduziert und es kann zu einer passiven Überwachung führen und schließlich diese wichtige Arbeit zunichte machen.Wie ich bei der Einführung des verantwortungsbewussten Sicherheitsmodells sagte, ich fest davon überzeugt, dass jetzt ist es notwendig, eine sinnvolle Diskussion über die automatische Autofahren Sicherheit Validation Framework zu machen. wir laden Automobilhersteller auf dem Gebiet der Technologie-Unternehmen diese wichtigen Fragen mit den Regulierungsbehörden und anderen relevanten Parteien zu adressieren.
Für die Öffentlichkeit, sie hoffen, autonome Fahrzeuge strengere Normen als die menschlichen Fahrer zu folgen. Erst letzte Woche, Frau Elaine Herzberg in Arizona ist ein unglücklicher Autopilot-Modus Uber Auto umgeworfen, Am Ende der Tragödie war es an der Zeit, über die Bedeutung von Wahrnehmung und Entscheidungsfindung für die Sicherheit nachzudenken.
Zunächst einmal haben wir heute eine große Herausforderung ist Sensorinformationen zu interpretieren. Aus dem Video von der Polizei freigegeben erscheinen würde, ist die Fähigkeit, Gegenstände selbst autonome Fahrzeuge zu erkennen und zu klassifizieren die elementarsten Bausteine des Systems, sondern in der Tat ist dies eine sehr anspruchsvolle Aufgabe. dies ist jedoch der Kern der aktuellen Fahrerassistenzsysteme (ADAS) ist, gehören das System eine automatische Notbremsung (AEB) und Spurhaltefunktionen. Multi-Milliarden-Meile Kilometer ausreichend, um sicherzustellen, , Das hochpräzise Sensorsystem von ADAS rettet Leben, und vor dem Überwinden noch größerer Herausforderungen ist diese Technologie auch ein wesentliches Element für das vollautomatische Fahren von Autos in der Zukunft.
Um die Fähigkeiten und Feinheiten der aktuellen ADAS-Technologie zu beweisen, führen wir die Software von Mobileye im Video auf dem Fernsehmonitor, der das von der Polizei bereitgestellte Unfallfragment spielt. Obwohl die Situation nicht gut ist, kann es viele Unfallszenen geben. Die High-Dynamic-Range-Daten gingen verloren, aber die Software von Mobileye wurde noch etwa eine Sekunde vor dem Aufprall eindeutig erkannt, das untere Bild zeigt drei Schnappschüsse der oben erkannten Fahrrad-Begrenzungsbox und Frau Herzberg. Zwei unabhängig voneinander arbeitende Quellen: Mustererkennung (Bounding Box erzeugen) und ein Erkennungsmodul "Freiraum" (erzeugt eine horizontale Karte, wobei der rote Teil einen Passanten darstellt, der über der roten Linie erscheint). (Ebene + Parallaxe '), das dritte Modul kann zwischen Straßen und Objekten unterscheiden.Dies überprüft, ob das erkannte Objekt 3D ist, ist aber weniger zuverlässig und wird daher als' fcvValid: Niedrig 'beschrieben und wird oben links auf dem Bildschirm angezeigt. Die geringe Glaubwürdigkeit ist darauf zurückzuführen, dass hier die für Serienfahrzeuge üblichen Informationen fehlen und die Bildqualität schlecht ist, schließlich das Bild des fahrenden Recorders Basierend auf dem Schießstand wieder, kann es einige unbekannte Unterabtasten sein.
Die Bilder stammen von Videoclips, die von der Polizei auf dem TV-Monitor veröffentlicht wurden.Das Overlay-Bild zeigt die Reaktion des Mobileye ADAS-Systems.Die grüne und weiße Begrenzungsbox ist die Ausgabe des Fahrrad- und Fußgängerdetektionsmoduls.Die horizontale Karte zeigt die Straße und Hindernisse. Zwischen den Grenzen nennen wir es "Freiraum".
Die Software, die in diesem Experiment verwendet wird, ist die gleiche wie die, die in gegenwärtigen ADAS-ausgerüsteten Fahrzeugen verwendet wird, und wurde in Milliarden von Meilen von Benutzermeilen validiert.
Jetzt, da die Tiefe der Entwicklung der künstlichen Intelligenz und neuronale Netz, denken viele Leute, dass hochpräzise Objektdetektionssystem kann schon leicht entwickelt werden, und die Erfahrung in der Computer-Vision-Experten, die 10 Jahre betrachtet stark reduziert wird. Dies macht der Zustrom von vielen Anfängern auf diesem Gebiet. Obwohl diese neuen Technologien wirklich nützlich, aber immer noch eine Menge Tradition nicht ignoriert werden kann, einschließlich der Identifizierung und Fertigstellung von Hunderten von Tests in extremen Fällen, die Kommentare von mehreren 10.000.000 Meilen und Dutzende von Datensatz in ADAS es ist eine Herausforderung, Projekt auf der Vorproduktion Validierungstests. Erfahrung ist wichtig, vor allem im Bereich der sicherheits erste.
Das zweite Beobachtung Ereignis ist die Transparenz. Jeder sagt: ‚Wir haben die Sicherheit auf der wichtigsten Position,‘ aber wir glauben, dass, um das Vertrauen der Öffentlichkeit zu gewinnen, er transparenter sein muss. Als ich im Oktober letztes Jahr Mobileye geschrieben wenn die Verantwortung für sensible Sicherheitsmodell (RSS) sagte, müssen Entscheidungen mit menschlichem Ermessen von gesundem Menschenverstand in Einklang stehen. wir ‚gefährliche Situation‘ und ‚richtige Antwort‘ und anderen gesunden Menschenverstand ein mathematisches Konzept Formulierung Design zu tun, und etablierte ein System die Einhaltung der definierten, um sicherzustellen, mathematisch System.
Die dritte Beobachtung ist überflüssig reale Wahrnehmungssystem redundant ausgelegt haben muss, und auf unabhängige Informationsquellen angewiesen sind: Kameras, Radar und Laser-Radar diese Informationsquellen zu integrieren Fahrkomfort verbessern aber nicht förderlich für die Sicherheit. bekommen wir greifbare Redundanz zu zeigen, entwickelte Mobileye unabhängig, nur End-to-Kamerasystem und ein separates Radar und Laser-Radar-Systeme.
Wenn etwas wie der Unfall der letzten Woche wieder passiert, wird das bereits fragile Vertrauen des Benutzers weiter reduziert, und es kann zu einer passiven Überwachung führen und schließlich diese wichtige Arbeit zunichte machen.Wie ich bei der Einführung des verantwortungsbewussten Sicherheitsmodells sagte, ich Wir sind der festen Überzeugung, dass eine sinnvolle Diskussion über den Rahmen für die Sicherheitsverifizierung für vollautomatisierte Fahrzeuge erforderlich ist, und fordern Automobilhersteller, Technologieunternehmen in diesem Bereich, Regulierungsbehörden und andere relevante Parteien zur Zusammenarbeit auf.