語音助手不可靠? 研究者成功攻擊文本語音轉換系統

新浪科技訊 北京時間1月11日上午消息, 加州大學伯克利分校的計算機科學家開發出一種人工智慧技術, 可以攻擊 '文本-語音' 轉換系統. 利用他們的方法, 不管音頻檔案聽起來是怎樣的, 文本輸出結果都能變成攻擊者想要的樣子. 技術很酷, 但是卻向我們發出警告: 用AI作惡是完全可能的.

計算機專家尼克拉斯·卡利尼 (Nicholas Carlini) 和大衛·瓦格納 (David Wagner) 成功欺騙Mozilla最流行的DeepSpeech開源文本-語音轉換系統. 給出任意一段音頻聲波, 科學家就可以製作出另一段音頻聲波, 相似度超過99.9%, 轉錄時科學家可以選擇任意短語, 速度最高可以達到每秒50字元. 攻擊的成功率高達100%, 不論想要轉錄的語音是怎樣的, 最初所說的源短語是怎樣的, 都可以成功. 如果輸入的是任意波形的聲音, 但不是語音, 比如輸入音樂, 科學家可以將語音插入音頻, 你無法識別它是語音; 讓語音保持靜默, 就可以將音頻隱藏到文本-語音轉換系統.

也就是說, 從理論上講, 科學家可以處理任意音頻檔案, 欺騙文本-語音轉換器, 讓它們相信音頻是其它東西. 當今的世界到處都是智能音箱和語音助手, 新攻擊技術無疑是一枚重磅炸彈.

2016 GoodChinaBrand | ICP: 12011751 | China Exports