Новости

Голосовые помощники ненадежны? Исследователи успешно атаковали систему преобразования текста в речь

САН-ФРАНЦИСКО, 11 января, утренняя новость, компьютерные ученые Калифорнийского университета в Беркли разработали технологию искусственного интеллекта, которая может атаковать систему преобразования текста в речь. Используя их метод, независимо от того, что звучит звуковой файл , Вывод текста может быть тем, чего хотят нападающие. Технология крутая, но она предупреждает нас, что вполне возможно сделать зло с помощью ИИ.

Компьютерные эксперты Николас Карлини и Дэвид Вагнер преуспели в обмане самого популярного в Mozilla конвертера преобразования текста в речь DeepSpeech с открытым исходным кодом, предоставляющего любому звуковому звуку для ученого, чтобы сделать еще один Звуковые звуковые волны с подобием более 99,9% позволяют ученым выбирать любую фразу при скорости транскрипции до 50 символов в секунду. Частота успешных атак достигает 100% независимо от того, какая речь будет транскрибироваться, и исходная фраза источника Если вы вводите произвольные звуковые сигналы, но не голос, например, ввод музыки, ученые могут вставлять голос в аудио, и вы не можете распознать его как голос, вы можете скрыть звук, не заставляя его молчать Текст - система преобразования голоса.

Другими словами, в теории ученые могут манипулировать произвольными аудиофайлами и обманывать конвертер текста в речь, чтобы убедить их в том, что звук - это что-то еще. Сегодня мир полон умных динамиков и помощников по голосу, а новая техника атаки, несомненно, одна блокбастер.

2016 GoodChinaBrand | ICP: 12011751 | China Exports