در گزارش با عنوان "طراحی اخلاقی: اولویت های سلامت بشر و هوش مصنوعی و سیستم های مستقل"، هشت بخش تقسیم بر پیشرفت های جدید AI وجود دارد: اصول کلی، هوش مصنوعی تخصیص سیستم؛ روش شناسی تحقیق و طراحی اتنوگرافی؛ امنیت و سلامت هوش مصنوعی عمومی و سوپر AI؛ کنترل اطلاعات شخصی و دسترسی شخصی؛ بازسازی سیستم های سلاح های اتوماتیک؛ مسائل اقتصادی / انسان دوستانه؛
اصول کلی که در سطح بالا مسائل اخلاقی قابل اجرا به تمام انواع سیستم های اطلاعاتی و مستقل مصنوعی در تعیین اصول کلی، توجه اصلی سه عامل است: تجسم حقوق بشر؛ اولویت را به حداکثر رساندن سود خود به انسان و محیط طبیعی؛ تضعیف هوش مصنوعی اثرات ریسک و منفی.
اصل بهره بشر مستلزم توجه به چگونه به اطمینان حاصل شود که AI به حقوق بشر را نقض نمیکند. اصل مسئولیت درگیر این است که چگونه اطمینان حاصل شود که AI می تواند پاسخگو باشد. به منظور حل مشکل گسل، جلوگیری از سردرگمی عمومی، سیستم هوش مصنوعی باید مسئولیت سطح برنامه می شود، به منظور اثبات چرا خاص خود اصل شفافیت بدان معنی است که عملکرد سیستم های خودمختار باید شفاف باشد و این واقعیت که هوش مصنوعی شفاف به معنی آن است که مردم می توانند چگونگی و چرا تصمیم گیری های خاصی را بیابند.
با توجه به چگونه هنجارها و ارزش های اخلاقی تعبیه شده در سیستم هوش مصنوعی انسان، در این گزارش آمده که با توجه به سیستم هوش مصنوعی به تصمیم گیری، برای دستکاری محیط زیست خود و دیگر جنبه های مستقل تر، مجاز به اتخاذ، یادگیری و مطابق با جامعه آن را در خدمت و هنجارها و ارزش های جامعه ضروری است به سه مرحله برای رسیدن به هدف از ارزش های جاسازی شده از سیستم هوش مصنوعی:
نخست، شناسایی هنجارها و ارزشهای یک جامعه یا گروه خاص؛
دوم، این هنجارها و ارزش به سیستم AI نوشته شده است؛
سوم، بررسی اثربخشی هنجارها و ارزش می شود را به سیستم هوش مصنوعی نوشته شده است، یعنی اینکه آیا و هنجارها و ارزش واقعی سازگار باشد، سازگار است.
اگر چه تحقیقات مربوط به این موارد در حال انجام است، مانند اخلاق ماشین، اخلاق ماشین، ماشین اخلاقی، تراز ارزش، اخلاق مصنوعی، AI امن، AI دوستانه، و غیره با این حال، آن شده است مردم را به توسعه سیستم های کامپیوتری است که شناخت و درک هنجارها و ارزش های انسانی و آنها را در نظر گرفتن این مسائل در هنگام تصمیم گیری در حال حاضر. در حال حاضر عمدتا دو مسیر وجود دارد: از بالا به پایین مسیرها و مسیرهای پایین تر. تحقیقات در این زمینه باید تقویت شود.
این گزارش همچنین به ضرورت هدایت توسعه روش شناسی تحقیق و طراحی نجومی، ایمنی و رفاه عمومی هوش مصنوعی و هوش فوق العاده مصنوعی، بازسازی سیستم های سلاح های مستقل و مسائل اقتصادی / بشردوستانه مانند هشت دست اشاره کرد. بیش از 100 رهبر فکری از بخش های علمی، علمی و دولتی در زمینه هوش مصنوعی متشکل از تخصص در زمینه هایی مانند هوش مصنوعی، اخلاق، فلسفه و سیاست و نسخه تجدید نظر شده آن از EAD نسخه طراحی هماهنگ در پایان سال 2017 در دسترس خواهد بود و این گزارش به سیزده فصل با بیش از 250 رهبر جهانی گسترش یافته است.
IEEE رباتیک و رئیس اتوماسیون جامعه است ساتوشی Tadokoro توضیح دهد که چرا آنها می خواهند به توسعه چنین استاندارد: روبات ها و سیستم های خودکار نوآوری اجتماعی قابل توجهی به تازگی به ارمغان بیاورد، توجه بیشتر و بیشتر عمومی به مشکلات اجتماعی که ممکن است رخ دهد، و ممکن است بوجود می آیند مزایای بالقوه بزرگی متاسفانه، در این بحث ها، ممکن است پیام های دروغین از دلایل تخیلی و تخیلی وجود داشته باشد.
Tadokoro ادامه داد: «IEEE پذیرفته می شود بر اساس این واقعیت که مقدمه ای از دانش و خرد علمی و فنی برای کمک به رسیدن به یک مشترک تصمیم گیری به حداکثر رساندن منافع نوع بشر به عنوان یک کل. علاوه بر استانداردهای اخلاقی AI، وجود دارد دو استاندارد دیگر از هوش مصنوعی در گزارش، هر پروژه توسط متخصصین حوزه هدایت می شود.
اولین معیار است: «اخلاق سیستم های ماشین، سیستم های هوشمند و سیستم های خودکار به درایو استانداردهای این استاندارد در خصوص 'فشار'، در جهان از هوش مصنوعی، که اشاره به اقدام ظریف هوش مصنوعی خواهد رفتار انسان را تحت تاثیر قرار.
معیار دوم است به صورت خودکار و نیمه خودکار سیستم های استاندارد طراحی خرابی امن. این شامل تکنولوژی خودکار، اگر آنها شکست بخورند، ممکن است آسیبی به انسان شود. در حال حاضر، مشکل واضح ترین این است که وسایل نقلیه مستقل.
معیار سوم «اخلاقی رفاه هوش مصنوعی و خودکار سیستم های اندازه گیری» است. این توضیح می دهد چگونه مصنوعی پیشرفت های فن آوری اطلاعات بهره مند شوند به نفع مردم.
اجرای این استانداردها ممکن است زودتر از ما فکر، دلیل، مثل OpenAI و DeepMind چنین شرکت برای ترویج توسعه هوش مصنوعی سریع تر و سریعتر، و حتی یک سیستم هوش مصنوعی خود یادگیری و گسترش مناطق 'هوشمند' خبرگان ایجاد معتقد است که چنین هوش مصنوعی ثبات در جهان را تضعیف کند، در بیکاری گسترده و جنگ منجر، و حتی به ایجاد سلاح قتل "تبدیل شده است. به تازگی، مهم است که به بحث در مورد سازمان ملل متحد مردم را تشویق به طور جدی نیاز به تکنولوژی هوش مصنوعی در نظر به عنوان یک سلاح استفاده می شود مقررات سخت تر.