أخبار

منظمة العفو الدولية تخشى البشر الضرر؟ DeepMind تطوير اختبارات خاصة لضمان سلامة AI

سان فرانسيسكو، 12 ديسمبر أخبار الصباح، حتى لو كنت لا أتفق مع هذه التصريحات المتشائمة ايلون موسك أيضا يتفق بالتأكيد مع وجهة نظر: مع التطبيق التدريجي الذكاء الاصطناعي إلى العالم الحقيقي، لا بد البشرية لتحقيق بعض الخوارزميات لإيذاء.

وقد أصبح هذا البرنامج للتعلم الذاتي فهم الأساس لالمركبات غير المأهولة اوبر لمساعدة الناس على التعرف على المادة الفيسبوك، لذلك الأمازون اليكسا أفهم سؤالك. الآن، DeepMind الأبجدية منظمة العفو الدولية في لندن وكانت الشركة قد وضعت بسيطة اختبار لمعرفة ما إذا كانت هذه الخوارزميات الجديدة آمنة.

يحتاج الباحثون إلى سد البرمجيات أي في سلسلة من ألعاب الفيديو 2D بسيطة، لعبة تسمى غريدورلد التي تتكون من سلسلة من كتل من بكسل التي تبدو قليلا مثل لوحة الشطرنج الذي يقيم تسعة ميزات الأمان، بما في ذلك ما إذا كان أو لا نظام الذكاء الاصطناعي سوف تعديل الذات وتعلم الغش.

وقال جان ليك، الباحث الرئيسي للمشروع، مؤخرا مؤتمر نيبس أن خوارزميات الذكاء الاصطناعي التي تظهر السلوك غير الآمن في الشبكة العالمية قد لا تكون آمنة في العالم الحقيقي.

كان ديبميند يطور الاختبار في الوقت الذي يشعر فيه الناس بالقلق بشكل متزايد من الآثار السلبية للذكاء الاصطناعي، ومع تطور التكنولوجيا، فمن الواضح أن العديد من الخوارزميات سوف تستخدم البيانات منحازة للتدريب وسوف يكون من الصعب الضغط لإظهار لماذا بعض النظم قد وصلت إلى بعض الخلاصة السلامة منظمة العفو الدولية هو موضوع مهم ل نيبس.

ديبميند، والمعروف عن تطوير البرمجيات منظمة العفو الدولية أن يتفوق على البشر، وقد وضعت مؤخرا مجموعة من الخوارزميات التي تغلب على أفضل اللاعبين الإنسان في الشطرنج وغيرها من الألعاب دون الحاجة إلى معرفة أي شيء مقدما - في بعض الأحيان فقط قبول بضع ساعات من التدريب يمكن أن يكون.

وقال ليك أنه إذا أراد ديبميند لتطوير الذكاء الاصطناعي للأغراض العامة (وهو البرنامج الذي يمكن أن تأخذ على المهام المتعددة التي يمكن أن تتطابق أو تتجاوز البشرية)، فهم أمن البرنامج أمر بالغ الأهمية، وأكد أن العالم الافتراضي لا الكمال بعض الخوارزميات قد تؤدي بشكل جيد في هذا الاختبار ولكن قد لا تكون آمنة بما فيه الكفاية في العالم الحقيقي المعقدة.

ووجد الباحثون أن اثنين من خوارزميات ديبميند التي تهيمن على ألعاب الفيديو أتاري لم يمر اختبار الأمن الشبكة العالمية. "انهم لم تنظر في هذه القضايا الأمنية عند تصميم"، وقال ليك.

سيناريو واحد أن عناوين الاختبار هذه قريبة من تلك التي تصور المسك كارثة الذكاء الاصطناعي: هل برامج الذكاء الاصطناعي تجد طرق لمنع البشر من إيقاف تشغيله؟ من أجل الفوز في المباراة، يجب أن تمر الخوارزمية من خلال ممر رقمي ضيق إلى مكان معين، في 50٪ ، كان هناك الطوب الوردي في الممر حجب النظام، وزر الأرجواني في مكان آخر على الشبكة العالمية لإزالة البلاط الوردي.هذا الاختبار أراد أن نرى ما إذا كانت الخوارزمية سوف تتعلم لاستخدام هذا الزر لتجنب التدخل في حد ذاته.

الجزء الآخر من الاختبار هو التعامل مع الآثار الجانبية غير المقصودة: الخوارزمية لديها لنقل الطوب الرقمية إلى هدف معين، ولكن لا يمكن إلا أن تدفع الطوب ولا يمكن سحبها، وذلك في بعض الحالات أنها سوف تكون ثابت في بعض الأماكن لا يمكن أن تتحرك.كما قال عدم وجود "عكسية" هي قضية أمنية تواجه الذكاء الاصطناعي.

gridworld متاح لأي شخص لتحميل واستخدام، أما إذا كانت كافية لضمان سلامة نظام الذكاء الاصطناعي، ليس هناك أية نتيجة. وفي دراسة بدعم من OpenAI المسك قامت بالاشتراك DeepMind، والبرمجيات الذكاء الاصطناعي ويبدو أن نعرف كيفية إرضاء معلم البشرية، بدلا من السعي الأعمى من الأهداف. تطوير مثل هذا النظام من شأنه أن يحد من فعالية النظام، مما تسبب في صعوبة في العثور على البرامج التي لا توجد في البشر، ولكن داريو أمود (داريو Amodei) قال مدير أبحاث الأمن OpenAI أنه في بيئة معقدة ، وذلك باستخدام مدرب البشري قد تكون قادرة على ضمان الأمن بشكل أفضل.

2016 GoodChinaBrand | ICP: 12011751 | China Exports