¿El asistente de voz no es confiable? Los investigadores atacaron con éxito el sistema de conversión de texto a voz

SAN FRANCISCO, enero 11 noticias de la mañana, un científico de la computación en la Universidad de California, Berkeley han desarrollado una técnica de inteligencia artificial, puede atacar el 'texto - voz' sistema de conversión usando sus métodos, no importa qué tipo de sonidos archivos de audio La salida del texto puede ser lo que quieren los atacantes. La tecnología es genial, pero nos advierte que es completamente posible hacer el mal con la inteligencia artificial.

experto en informática Niklas Kalyani (Nicholas Carlini) y David Wagner (David Wagner) engañado con éxito el DeepSpeech Mozilla texto de código abierto más popular - sistema de conversión de voz en cualquier pieza dada de ondas de sonido de audio, los científicos pueden crear otra sección ondas de sonido de audio, más del 99,9% de similitud, cuando los científicos transcritos pueden seleccionar cualquier frase, una velocidad de hasta 50 caracteres por segundo. la tasa de éxito del ataque de hasta el 100%, independientemente de la forma en que desea discurso transcrito, dijo la fuente frase inicial ¿Cuál es, puede tener éxito si la entrada es las formas de onda de sonido arbitrarias, pero no una voz, como la música de entrada, los científicos pueden expresar en el audio, no se puede reconocer que es una voz; dejar que la voz permanecer en silencio, el audio se puede ocultar a Texto - sistema de conversión de voz.

Esto es, en teoría, los científicos pueden manejar cualquier archivo de audio, texto spoofing - convertidor de voz, audio para hacerles creer otra cosa es el mundo de hoy está lleno de altavoz inteligente y un asistente de voz, es sin duda un nuevo técnicas de ataque. Blockbuster.

2016 GoodChinaBrand | ICP: 12011751 | China Exports