Voice Assistant unzuverlässig? Forscher haben das Text-zu-Sprache-Konvertierungssystem erfolgreich angegriffen

SAN FRANCISCO, 11. Januar Morgen Nachrichten, UC Berkeley Computer-Wissenschaftler haben eine künstliche Intelligenz-Technologie entwickelt, die das "Text-to-Speech" -Umwandlungssystem angreifen kann.Mit ihrer Methode, egal wie die Audio-Datei klingt , Die Ausgabe des Textes kann sein, was Angreifer wollen. Die Technologie ist cool, aber sie warnt uns, dass es durchaus möglich ist, Böses mit AI zu tun.

Den Computerexperten Nicholas Carlini und David Wagner gelang es, Mozillas populärsten Open-Source-Text-in-Sprache-Konverter von DeepSpeech zu betrügen und jedem eine Klangwelle zu geben, damit ein Wissenschaftler eine neue machen konnte Audio-Schallwellen mit einer Ähnlichkeit von über 99,9% erlauben es Wissenschaftlern, jede Phrase mit einer Transkriptionsgeschwindigkeit von bis zu 50 Zeichen pro Sekunde auszuwählen, wobei die Erfolgsrate der Attacken unabhängig von der zu transkribierenden Sprache bis zu 100% beträgt Wenn Sie willkürliche Wellenform-Sounds, aber keine Stimme eingeben, wie zum Beispiel das Eingeben von Musik, können Wissenschaftler die Stimme in das Audio einfügen und Sie können es nicht als Stimme erkennen, Sie können das Audio ausblenden, indem Sie es ruhig halten Text - Sprachumwandlungssystem.

Mit anderen Worten, in der Theorie können Wissenschaftler willkürliche Audiodateien manipulieren und den Text-zu-Sprache-Konverter tricksen, um sie davon zu überzeugen, dass Audio etwas anderes ist. Die Welt ist heute voll von intelligenten Sprechern und Sprachassistenten, und die neue Angriffstechnik ist zweifellos eine Blockbuster.

2016 GoodChinaBrand | ICP: 12011751 | China Exports