Dieser Artikel liegt der Schwerpunkt Netease Smart Studio produziert AI, der nächste Lese einer großen Ära :! Professor Amon Shashua, Senior Vice President der Intel Corporation und Intel-Tochter Mobileye CEO und Chief Technology Officer.
Für die Öffentlichkeit, sie hoffen, autonome Fahrzeuge strengere Normen als die menschlichen Fahrer zu folgen. Erst letzte Woche, Frau Elaine Herzberg in Arizona ist ein unglücklicher Autopilot-Modus Uber Auto umgeworfen, schließlich starb sie. nach der Tragödie, ist es Zeit zu erfassen und Entscheidungsfindung für die Sicherheit von Bedeutung wirklich zu denken.
Zunächst einmal haben wir heute eine große Herausforderung ist Sensorinformationen zu interpretieren. Aus dem Video von der Polizei freigegeben erscheinen würde, ist die Fähigkeit, Gegenstände selbst autonome Fahrzeuge zu erkennen und zu klassifizieren die elementarsten Bausteine des Systems, sondern in der Tat ist dies eine sehr anspruchsvolle Aufgabe. dies ist jedoch der Kern der aktuellen Fahrerassistenzsysteme (ADAS) ist, gehören das System eine automatische Notbremsung (AEB) und Spurhaltefunktionen. Multi-Milliarden-Meile Kilometer ausreichend, um sicherzustellen, , hochpräzise Sensorsystem in ADAS ist es, Leben zu retten. die gleichen Grundelemente, bevor die größeren Herausforderungen zu bewältigen, wird die Zukunft dieser Technologie voll automatisiert ein Auto braucht die Fahrt.
Um zu beweisen, dass die aktuelle Kapazität und die Feinheit der ADAS-Technologie, führen wir das Video in einem TV-Monitor in der Mobileye-Software, die ein Fragment des Unfalls durch die Polizei trotz des schlechten Zustand zur Verfügung gestellt spielen überwacht - Es kann eine Menge Unfallort sein high dynamic range Daten verloren wurden, aber Mobileye Software ist in etwa 1 Sekunde, wenn noch vor dem Aufprall, klar erkannt. das Bild zeigt drei Momentaufnahmen, über dem erfassten Fahrrad Begrenzungsbox und Frau Herzberg. der Detektor zwei Quellen unabhängiger Betrieb: Mustererkennung (erzeugt Bounding Box) und ein ‚freier Raum‘ Detektionsmodul (Fig Erzeugungspegel, der die Oberseite des roten Teils einer roten Linie ‚passerby‘ darstellt) mit der Bewegungsanordnung (technische Terminologie‘. Flugzeug + Parallaxe ‚), kann das dritte Modul zwischen Straße unterscheiden und somit das zu erfassende Objekt-Objekt ist 3D zu überprüfen, aber die Zuverlässigkeit niedrig ist, so wird es beschrieben als‘ fcvValid: low‘, wird die obere linke auf dem Bildschirm angezeigt Seite. auftritt wegen des geringen Vertrauens, wo Deletionsprodukte allgemein verfügbare Fahrzeuginformationen und die Bildqualität schlecht ist, nach allem, Fahrtenschreiber des Fotografieren Ansicht Basierend auf dem Schießstand wieder, kann es einige unbekannte Unterabtasten sein.
Das Bild aus einem Videoclip auf dem TV-Monitor Polizei freigegeben. Überlagert Bild zeigt die Reaktion Mobileye? ADAS-Systeme. Grüne und weiße Begrenzungsrahmen ist das Ergebnis der Detektionsmodul Fahrräder und Fußgänger Ausgang horizontale Abbildung der Straße und Hindernisse zeigt Die Grenze zwischen, wir nennen es 'Freiraum'.
Die Software in dem Experiment mit der Software, die derzeit in Fahrzeugen mit ADAS verwendet gleich und hat sich in den Milliarden von Meilen in Kilometer Benutzer validiert.
Nun hat die Entwicklung von Technologien für künstliche Intelligenz, wie tiefe neuronale Netze, zu der Annahme geführt, dass hochpräzise Objekterkennungssysteme bereits mit Leichtigkeit entwickelt werden können, und Computervisionsexperten mit mehr als einem Jahrzehnt Erfahrung werden als unterschätzt betrachtet. Viele Neuankömmlinge strömen in diesen Bereich: Obwohl diese neuen Technologien tatsächlich nützlich sind, können viele Traditionen nicht ignoriert werden, einschließlich der Identifizierung und Vervollständigung von Hunderten von extremen Testfällen, Kommentaren zu Dutzenden von Millionen von Datensätzen und Dutzenden von ADAS. Das Projekt befindet sich derzeit in einer schwierigen Testphase, in der Tests durchgeführt werden müssen, insbesondere in Bereichen, in denen Sicherheit oberste Priorität hat.
Die zweite Beobachtung des Vorfalls war Transparenz: Jeder sagte: "Wir bringen die Sicherheit in die wichtigste Position", aber wir glauben, dass das Vertrauen der Öffentlichkeit transparenter sein muss, wie ich im vergangenen Oktober bei Mobileye angekündigt habe. Gemäß dem Responsible Sensitive Security Model (RSS) müssen Entscheidungen dem gesunden Menschenverstand entsprechen: Wir haben Common-Sense-Konzepte wie "gefährliche Situationen" und "korrekte Antwort" mathematisch formuliert und eine mathematisch gesicherte Übereinstimmung mit der Definition hergestellt. System.
Die dritte Beobachtung stellt die Redundanz dar. Das wahre sensorische System benötigt ein redundantes Design und muss sich auf unabhängige Informationsquellen stützen: Kameras, Radare und Lidars. Die Integration dieser Informationsquellen trägt zur Verbesserung des Fahrkomforts bei. Dies ist jedoch nicht der Sicherheit förderlich: Um zu zeigen, dass wir praktische Redundanz erreicht haben, hat Mobileye ein unabhängiges Nur-Kamera-Ende-zu-Ende-System sowie ein unabhängiges Lidar- und Nur-Radar-System entwickelt.
Wenn etwas wie der Unfall der letzten Woche wieder passiert, wird das bereits schwache Vertrauen des Benutzers weiter reduziert, und es kann zu einer passiven Überwachung führen und schließlich diese wichtige Arbeit zunichte machen.Wie ich bei der Einführung des verantwortungsbewussten Sicherheitsmodells sagte, ich Wir sind der festen Überzeugung, dass es notwendig ist, eine sinnvolle Diskussion über den Rahmen der Sicherheitsverifizierung für vollautomatisierte Fahrzeuge zu führen und laden Automobilhersteller, Technologieunternehmen in diesem Bereich, Regulierungsbehörden und andere betroffene Parteien zur Zusammenarbeit ein.