Voice Assistant peu fiable? Les chercheurs ont attaqué avec succès le système de conversion de synthèse vocale

SAN FRANCISCO, 11 janvier nouvelles du matin, les informaticiens de UC Berkeley ont développé une technologie d'intelligence artificielle capable d'attaquer le système de conversion "text-to-speech", en utilisant leur méthode, quel que soit le son du fichier audio , La sortie du texte peut être ce que les attaquants veulent. La technologie est cool, mais elle nous avertit qu'il est tout à fait possible de faire du mal avec l'IA.

Les experts en informatique Nicholas Carlini et David Wagner ont réussi à tromper le convertisseur texte-voix OpenSource le plus populaire de Mozilla, donnant à quiconque une onde sonore pour qu'un autre Les ondes sonores audio, avec une similarité de plus de 99,9%, permettent aux scientifiques de sélectionner n'importe quelle phrase à une vitesse de transcription allant jusqu'à 50 caractères par seconde.Le taux de réussite des attaques est de 100%, quel que soit le discours transcrit. Si vous entrez des sons de formes d'ondes arbitraires, mais pas de voix, comme la saisie de musique, les scientifiques peuvent insérer la voix dans l'audio et vous ne pouvez pas la reconnaître comme une voix, vous pouvez masquer l'audio en la maintenant silencieuse Système de conversion texte-voix.

En d'autres termes, en théorie, les scientifiques peuvent manipuler des fichiers audio arbitraires et tromper le convertisseur de synthèse vocale pour les convaincre que l'audio est autre chose.Le monde est aujourd'hui rempli de haut-parleurs intelligents et d'assistants vocaux, et la nouvelle technique d'attaque est sans aucun doute Blockbuster.

2016 GoodChinaBrand | ICP: 12011751 | China Exports