اخبار

دستیار صوتی غیر قابل اعتماد؟ پژوهشگران با موفقیت به سیستم تبدیل متن به گفتار حمله کردند

با استفاده از روش خود سیستم تبدیل، مهم نیست چه نوع از فایل های صوتی برای تلفن های موبایل - SAN FRANCISCO، ژانویه 11 صبح اخبار، یک دانشمند کامپیوتر در دانشگاه کالیفرنیا، برکلی یک تکنیک هوش مصنوعی را توسعه داده اند، می توانند 'صدای متن حمله ، خروجی متن می تواند همان چیزی باشد که مهاجمان می خواهند. تکنولوژی خنک است، اما به ما هشدار می دهد که با AI کاملا ممکن است بد باشد.

سیستم تبدیل صدای در هر قطعه داده شده از امواج صوتی صوتی، دانشمندان می توانند بخش دیگری ایجاد - کارشناس کامپیوتر نیکلاس کالیانی (نیکلاس Carlini) و دیوید واگنر (دیوید واگنر) با موفقیت به DeepSpeech موزیلا متن منبع باز محبوب ترین فریب موج های صوتی صوتی، بیش از 99.9٪ شباهت، زمانی که دانشمندان رونویسی می توانید هر عبارت را انتخاب کنید، به سرعت های تا 50 کاراکتر در ثانیه. حمله به میزان موفقیت تا 100٪، بدون در نظر گرفتن چگونه می خواهید سخنرانی رونویسی، این منبع گفت عبارت اولیه چه، می تواند موفق باشد اگر ورودی شکل موج صدای دلخواه را، اما نه یک صدا، مانند موسیقی های ورودی است، دانشمندان می توانند به صدا صدا، شما نمی تواند تشخیص آن را به یک صدا است، اجازه دهید صدای سکوت، به صوتی را می توان به پنهان سیستم صوتی متنی - صوتی.

است که، در تئوری، دانشمندان می توانند هر فایل صوتی، متن حقه بازی را اداره کند - مبدل گفتار، صدا به آنها را باور چیز دیگری است که جهان امروز پر از بلندگو هوشمند و دستیار صدا است، تکنیک های حمله جدید است که بدون شک. فیلمبرداری

2016 GoodChinaBrand | ICP: 12011751 | China Exports