أخبار

مساعد صوت لا يمكن الاعتماد عليها؟ هاجم الباحثون بنجاح تحويل النص إلى كلام نظام التحويل

سان فرانسيسكو، 11 يناير أخبار الصباح، وقد وضعت علماء الكمبيوتر جامعة كاليفورنيا بيركلي تكنولوجيا الذكاء الاصطناعي التي يمكن أن تهاجم "تحويل النص إلى كلام" نظام التحويل باستخدام طريقة عملها، بغض النظر عن ما يبدو ملف الصوت مثل ، يمكن أن يكون الناتج من النص ما المهاجمين تريد.التكنولوجيا باردة، لكنه يحذرنا أنه من الممكن تماما أن تفعل الشر مع منظمة العفو الدولية.

نجح خبراء الكمبيوتر نيكولاس كارليني وديفيد واغنر في الغش الأكثر شعبية ديسبيتش مفتوحة لتحويل النص إلى كلام موزيلا، مما يعطي أي شخص موجة الصوت الصوت لعالم لجعل آخر وتسمح الموجات الصوتية الصوتية، التي تشابه أكثر من 99.9٪، للعلماء باختيار أي عبارة في سرعة النسخ تصل إلى 50 حرفا في الثانية، ونسبة نجاح الهجمات تصل إلى 100٪، بغض النظر عن الكلام الذي يتم كتابته، إذا قمت بإدخال الأصوات الموجي التعسفي، ولكن ليس الصوت، مثل إدخال الموسيقى، يمكن للعلماء إدراج الصوت في الصوت، وكنت لا يمكن التعرف عليه كصوت؛ يمكنك إخفاء الصوت عن طريق الاحتفاظ بها صامتا نص - نظام تحويل الصوت.

وبعبارة أخرى، من الناحية النظرية، يمكن للعلماء التلاعب الملفات الصوتية التعسفية وخداع تحويل النص إلى كلام لإقناعهم أن الصوت هو شيء آخر، والعالم اليوم مليء المتحدثين الذكية ومساعدي الصوت، وتقنية الهجوم الجديد هو بلا شك واحدة اقبال شديد.

2016 GoodChinaBrand | ICP: 12011751 | China Exports