인텔의 자체 운전 기술 드라이버, mobileeye, 최근 운전 산업 자동차의 안전을 보장 하기 위해 자동차 사고를 운전의 책임을 제거 하는 수학적 모델을 필요로 하는 기술 보고서를 주장 발표 했다. 전문가 들은 잠정적으로 mobileye이 수학적 모델을 도입 믿고 있지만, 그것은 mobileye 운전의 안전성에 대해 생각에 깊이 이며 긍정적인 평가를 제공 보여줍니다. 하지만 또한, 같은 방법으로 증명할 수 있는 안전 (provably 안전)을 정의 하는 질문, 그리고 수학적 모델은 여전히, 여부를 인간의 시추의 법적 및 규제 허점을 배울 수 있습니다 등 해결 될 몇 가지 문제가 있다. EE 타임스에 따르면, 보고서는 인텔의 수석 부사장, mobileeye CEO는 amnon shashua 및 mobileeye 기술 부사장 shai shalev-shwartz, 그리고 두 작가에 의해 쓰여진 그들의 보고서에서 자신의 정책을 증명할 수 있다고 설명 보안, 이런 의미에서 자기 운전 사고 책임으로 이어질 하지 않습니다. 미시 커밍스, 미국 듀크 대학 교수, 지적 보안은 완전히 새로운 것이 아니라 문제의 trickiest 부분은 변하지 남아 있다. 요컨대, 컴퓨터 과학자 들은 입증 된 보안으로 볼 때 수학적 관점에서, 안전의 증거로 서 테스트 엔지니어는 안전 하다 고 판단 하는 방식으로 볼 수 있습니다. 커밍스 및 교수 필 koopman 멜론 대학의 미국에서 mobileeye의 가정이 소프트웨어 버그 (소프트웨어 버그)에 대 한 가정과 같은, 때문에 잠재적인 문제는 소프트웨어 버그로 인 한 매우 작은 위치 부여를 위해 촬영 하지 않아야 지적 했다. koopman 중요 한 관심사는 lidar의 문제 및 레이다 결함이 응용의 진위, 다만 가정을 증명 해야 하는 mobileye에 의해 토론 된 가설적 인 케이스와 동일 하 여부 이다. 그럼에도 불구 하 고, koopman 아직이 확실 하다, 결국, 인텔은 테스트 가설을 열었습니다 미래에 법적 허점을 훈련 하는 방법을 학습의 가능성에 대해 우려 하고있다. 실제도로 운전 일반 운전, 오랜 시간이 일반적인도로 규칙은 이러한 취약점을 사용 하는 방법을 배울 수 년 동안 훈련 구멍을가지고 무엇을 알 수 있습니다. 이것이 인 간에 대 한 경우, 왜 그들은 자신의 재량을 운전 하는 능력이 없어? 이 경우, 운전의 자율 방식의 법적 드릴링 허점을 찾는 전제 하에도로 안전 규칙을 위반 하지 않을 수 있기 때문에. koopman는 또한 인간이 기계 학습 (ML)가 구멍을 교 련 하는 방법을 배우기에 숙달 되기 위하여 기대 해야 한다고 믿는다. koopman 기본적으로 mobileeye 보고서에 동의 하지만, 보안과 ' 내 잘못 '을 동일시 했다 경우, 함정, 그리고 그러한 공식적인 수학적 검증이 원칙적으로 사실 증명할 수 있겠지만, 그러한 가정이 가능 하지 않을 수도 현실 세계. 결론적으로, 이것은 여전히 안전 운전의 미래에 대 한 합리적인 출발점 이지만, 당신은 여전히 실제로 실행할 수 있는 보안 시스템을 만들어야 합니다 어떤 경우에는 취약점이 문제가 되지 않는 것이 좋습니다.