اخبار

تیم تحقیقاتی EPFL روش هایی را برای جلوگیری از انفجار AI از دستورات انسانی مشخص می کند

ماشین AI یک اقدام، مشاهده خاص انجام، و پس از آن بر این اساس تنظیم رفتار است. پس از اعلام نتایج تازه مشاهده، تنظیم رفتار دوباره، و تکرار این روند یادگیری از این، اما این روند به احتمال زیاد خارج از کنترل. موسسه فدرال تکنولوژی در لوزان (EPFL) توزیع برنامه نویسی آزمایشگاهی (توزیع آزمایشگاه برنامه نویسی) نمایندگی استاد رشید Guerraoui، AI همیشه سعی خواهد کرد برای جلوگیری از دخالت انسان، به طوری که مهندس AI باید دستگاه در نهایت جلوگیری از یاد بگیرند که چگونه برای جلوگیری از فرمان انسان است. با توجه به دوستتان گزارش داد که متخصص در تیم تحقیقاتی EPFL کشف کردهاند که چگونه این موضوع اجازه می دهد تا اپراتور برای کنترل یک گروه از روش های ربات AI، و در سیستم پردازش اطلاعات عصبی سازماندهی شده توسط (NIPS) کنفرانس کالیفرنیا در این گزارش منتشر شده است. این پژوهش توسعه خود رانندگی است و پهپاد سهم قابل توجهی به در اعداد بزرگ و با خیال راحت یادگیری را اجرا کنند. تقویت یادگیری (یادگیری تقویتی) یکی از روش های یادگیری ماشین است. در این مرجع در رفتار، هوش مصنوعی با توجه به اجرای مناسب رفتارهای خاصی به پاداش باشد. برای مثال، اگر درست پشته ربات مجموعه خوب از جعبه تونست از خارج از جعبه را می توان به نمره نقل مکان کرد؛ با این حال، اگر باران خارج، دستگاه هنگامی که مردم خارج بان کی مون Xiangzi رفتن اپراتور بهره برداری از ربات قطع، به طوری که ربات در نهایت یاد بهترین ماندن در خانه پشته جعبه به منظور گرفتن امتیاز بیشتر. Guerraoui گفت چالش واقعی است به قطع بهره برداری از ربات، اما به نوشتن نیست برنامه، از مردم برای مداخله در فرایند یادگیری است را تغییر دهید، آن را تشویق کند که به بهینه سازی رفتار برای جلوگیری از انسان را متوقف کند. 2016، موسسه برای آینده، دانشگاه آکسفورد و انسان DeepMind گوگل (آینده نوع بشر) پژوهشگران به توسعه یک مطالعه از پروتکل جلوگیری از ماشین از قطع شدن غیر قابل کنترل می شود. برای مثال، در مثال بالا، اگر باران خارج، ربات خواهد بود نمره وزن، انگیزه بیشتری برای بازیابی ربات خارج از جعبه. Guerraoui بیان می شود، این راه حل بسیار ساده است، چون فقط یک ربات دست زدن. با این حال، هوش مصنوعی است که اغلب در برنامه های کاربردی شامل ده ها تن در ماشین آلات، مانند خود رانندگی و یا هواپیماهای بدون سرنشین استفاده می شود. این مطالعه همکاری نویسنده الکساندر مورر گفت: آن را می سازد همه چیز پیچیده تر است، چرا بین دستگاه خواهد از یکدیگر به خصوص در مورد وقفه یادگیری، یکی دیگر از همکاری نویسنده Hadrien Hendrikx دو ماشین به عنوان یک مثال، که در آن دو خودرو در جاده های باریک نیست می توانید راه به یکدیگر است. آنها باید بدون نقض قوانین ترافیک، برای رسیدن به مقصد در اسرع وقت، در حالی که سرنشینان می توانید کنترل را در هر زمان می برد. اگر اولین ماشین از که در آن مردم اغلب درایو های ترمز، ماشین دوم هر بار برای انطباق رفتار خود را، زمانی که نهایی خواهد شد ترمز، یا ممکن است از اولین اتومبیل بیش از حد نزدیک و یا باز کردن بیش از حد آهسته اشتباه گرفته شود. محققان EPFL می خواستم از طریق امنیتی عبور قطع (interruptibility امن) برای حل این مسئله پیچیده است. روش مردم اجازه می دهد به قطع فرایند یادگیری AI در صورت لزوم، در حالی که اطمینان که رفتار وقفه از رویکرد AI به یادگیری را تغییر دهید. دیگر نویسندگان این مطالعه ال مهدی ال Mhamdi گفت، به عنوان آنها الگوریتم های یادگیری اضافه کردن ساز و فراموش شده، حذف برخی از خاطرات از ماهیت هوش مصنوعی است. به عبارت دیگر، محققان سیستم یادگیری و پاداش AI تغییر به طوری که نفوذ، برق اضطراری، مانند پدر و مادر تنبیه یک کودک، و بچه های دیگر خانواده را تحت تاثیر قرار نمی فرایند یادگیری. مورر گفت که تیم مورد مطالعه الگوریتم های موجود، و متوجه شد که بدون توجه به سیستم هوش مصنوعی پیچیده، تعداد ربات های درگیر و یا قطع نوع، همه قطع ایمنی قابل اجرا و می توان آن را با ترمیناتور (نابودگر) مورد استفاده با هم، نتایج باقی می ماند همان حال حاضر استفاده از تقویت یادگیری خود دستگاه نیست رایج است. ال Mhamdi گفت پیامدهای آن اشتباهات بسیار کوچک، این سیستم به خوبی کار می کند.

2016 GoodChinaBrand | ICP: 12011751 | China Exports