¿Fórmula matemática para garantizar la seguridad de conducir solo? Los eruditos piensan ...

Cada automóvil debe tener alguna manera de determinar qué se puede hacer, qué no puede hacer ...

Mobileye de Intel publicó recientemente un documento que señaló que la fórmula matemática se puede utilizar para determinar el vehículo de conducción automática en la atribución de responsabilidad de accidente de colisión para garantizar la seguridad de la conducción autónoma, esto tocó más de un vehículo de conducción automática de campo de los nervios del observador , "¿Cuál es el problema?" ¿Cómo puede una industria coincidir con la definición propia de seguridad del producto del jugador? "" ¿Se pueden confundir la seguridad y la responsabilidad? "

Por esta razón, EE Times preguntó a varios expertos académicos, desde robótica, sistemas informáticos integrados hasta la seguridad de vehículos automáticos y la interacción humano-robot, y les pedimos a estos expertos que analizaran a Amnon Shashua, CEO de Mobileye / Intel vicepresidente senior , Y Shai Shalev-Shwartz, vicepresidente de tecnología de mobileye, para analizar si están de acuerdo con las opiniones y los problemas que encuentran y brindarles asesoramiento sobre la industria.

Los hechos han demostrado que los académicos son casi un lado para dar una visión positiva a los resultados de la investigación de Mobileye, elogiaron a la empresa por adherirse al final, en el campo de la autoconducción de los problemas más difíciles.

Phil Koopman, profesor de la Universidad Carnegie Mellon en Estados Unidos, dijo: "En general, creo que sería bueno ver un enfoque preliminar y riguroso para la seguridad de conducir un vehículo de forma automática. Un automóvil debe tener alguna manera de juzgar qué se puede hacer y qué no se puede hacer, así que admiro el trabajo del autor en esta dirección.

Missy Cummings, profesora de Duke, directora del Laboratorio de Humanos y Autonomía, está de acuerdo con la idea de que "realmente aprecio que Mobileye comience a pensar en estos temas en profundidad".

Sin embargo, tanto los profesores de Koopman como Cummings creen que el enfoque de Mobileye es solo "el primer paso" en el mundo real de la resiliencia, especialmente cuando los vehículos con piloto automático deben coexistir e interactuar con vehículos impulsados ​​por humanos, Es un gran salto, por lo que puede ser seguro para conducir solo, la definición de Mobileye debe ser capaz de adaptarse a la dura realidad del mundo.

Koopman valora el valor de las recomendaciones específicas de Mobileye para la seguridad de conducción autónoma, dijo: "Nadie puede hacer el consejo perfecto por primera vez, pero no importa, vamos a probar muchas formas diferentes de expresar y formular el autoconducto Seguridad hasta que encontremos una solución práctica ".

Los dos autores de la discusión de Mobileye sobre "seguridad" en el documento explican que su estrategia es "probar que es seguro, y en este sentido no conduce a accidentes de tráfico atribuibles a los vehículos con piloto automático", pero para esta Universidad de Duke Cummings señaló que "seguro seguro" (seguro comprobable) no es un concepto nuevo, y que en Internet se puede encontrar una gran cantidad de artículos académicos publicados (consulte el enlace).

Dijo que el problema más difícil de la seguridad no ha cambiado: "Los científicos informáticos, desde el punto de vista matemático, para considerar qué puede probar la seguridad, no significa que con la prueba los ingenieros acordarán que es seguro".

Debe ser cuestionado

Tanto Koopman como Cummings advirtieron por las suposiciones hechas por Mobileye, diciendo que no se puede dar por sentado y necesita ser cuestionado, como señala Koopman, "hay algunas suposiciones de que si realmente sucede en el mundo real, me sorprenderá mucho".

El ejemplo de Cummings es un error de software, la siguiente es una descripción del problema de seguridad por parte del autor de Mobileye:

... Ahora estamos discutiendo los errores que conducen a un comportamiento inseguro, como se mencionó anteriormente, nuestra estrategia es segura y, en este sentido, no da lugar a accidentes de tráfico atribuibles a los vehículos con piloto automático. (Por ejemplo, si todos los sensores están dañados o perforados a alta velocidad), falla del software (algunos modelos tienen errores graves) o se producen errores de detección. Nuestro objetivo final Es minimizar la posibilidad de tales eventos, la probabilidad de 10 9 veces por hora.

Cummings planteó preguntas sobre los posibles problemas que Mobileye afirma ser un problema potencial causado por errores de software, y citó un informe que explora los eventos de la historia de los vehículos que con frecuencia son recordados por problemas de seguridad, a menudo causados ​​por problemas de software.

Las dudas de Koopman son los problemas del lidar y el radar: "Es difícil creer que se pueda resolver la independencia de Raytheon y el radar y las suposiciones que se discuten". Señaló que "alguien debe demostrar que tienen razón". No es solo una hipótesis, y es casi seguro que algunas suposiciones son incorrectas, y los autores ni siquiera se dan cuenta de que han cometido un error ".

Es como le preocupa a Koopman: "Esto es seguridad: el accidente es la parte más difícil, por lo que debe planear esos accidentes, y tenga cuidado de observarlos cuando ocurran", pero también dijo "Todavía estoy contento de ver a esos autores comenzar a hacer suposiciones, y saben que están asumiendo que debido a esto, tenemos un punto de partida para probar esas suposiciones".

Definir seguridad

Koopman no está muy preocupado por la definición de seguridad de Mobileye: "El documento afirma que si tienen una definición dura de atribución de responsabilidad, puedes construir un sistema que nunca será culpado. "Dijo:" Desde el punto de vista del sistema, esto puede hacer que sea seguro, y si todos los coches en el camino tienen esa estrategia y seguirán, creen que todo será bastante seguro ".

Al admitir las preocupaciones sobre la implementación real de este concepto, Koopman una vez más hizo hincapié: "Saber por qué podría no funcionar es una parte muy importante, y ver una sugerencia realmente concreta de que podemos pensar y aprender de ella". Buenas cosas ".

¿Cuál es el problema con Koopman de que existen posibles problemas con el enfoque propuesto por Mobileye? Sus dudas son que los vehículos de piloto automático "aprendan a 'engañar' al sistema '; en el mundo real, la conducción humana tiende a encontrar lagunas en las reglas del camino y luego Hasta cierto punto, el uso de estas lagunas, ¿por qué una "inteligencia artificial" de la auto-conducción no puede jugar el mismo truco?

(Continuará)

Compilador: Judith Cheng

2016 GoodChinaBrand | ICP: 12011751 | China Exports