Новости

IEEE запускает три новых стандарта в искусственном интеллекте | Воплощение этических проблем высокого уровня

IEEE недавно объявила о трех новых стандартах для развития искусственного интеллекта. IEEE назвала его «крупнейшей в мире профессиональной технологической организацией». Согласно недавно опубликованному докладу, их стандарты ИИ будут отдавать приоритет людям из-за их приверженности следовать На поле ИИ непрерывного развития.

В докладе под названием «Этический дизайн: приоритеты благосостояния людей и искусственный интеллект и автономные системы» есть восемь подразделений, в которых подробно описаны новые разработки ИИ: общие принципы, искусственный интеллект Системные задания, методология проведения этнографических исследований и проектирования, безопасность и благополучие общего искусственного интеллекта и супер AI, контроль персональных данных и личного доступа, реконструкция автоматических систем оружия, экономические / гуманитарные вопросы;

Общие принципы охватывают этические вопросы высокого уровня, которые применяются ко всем типам ИИ и автономных систем. При определении общих принципов рассматриваются три основных фактора: выражение прав человека, приоритет отдается максимизации преимуществ для людей и окружающей среды, а также ослаблению искусственного интеллекта Риск и негативные последствия.

Принцип человеческого интереса требует рассмотрения того, как обеспечить, чтобы ИИ не нарушал права человека. Принцип ответственности связан с тем, как обеспечить, чтобы ИИ подотчетен. Чтобы устранить эту ошибку и избежать путаницы в обществе, система ИИ должна быть подотчетна на процедурной основе, чтобы оправдать ее конкретные Принцип прозрачности означает, что функционирование автономных систем должно быть прозрачным, а тот факт, что ИИ является прозрачным, означает, что люди могут узнать, как и почему они принимают конкретные решения.

В том, как внедрять человеческие нормы и этические ценности в систему ИИ, в докладе говорится, что по мере того, как системы ИИ становятся более автономными в принятии решений и управлении своей средой, с тем чтобы они могли принимать, учиться и подчиняться обществам, которые они обслуживают И нормы и ценности сообщества имеют первостепенное значение. Цель внедрения ценности в систему ИИ может быть достигнута тремя шагами:

Во-первых, определите нормы и ценности того или иного общества или группы;

Во-вторых, скомпилировать эти нормы и ценности в систему ИИ;

В-третьих, оценить обоснованность норм и ценностей, которые записываются в систему ИИ, т. Е. Являются ли они последовательными и реалистичными с нормами и ценностями.

Хотя вышеупомянутые связанные исследования продолжаются, такие как Моральная мораль, Машинная этика, Моральная машина, Ценностное выравнивание, Искусственная мораль, Безопасный ИИ, дружественный ИИ и т. Д. Тем не менее, людям приходится создавать компьютерные системы, которые признают и понимают человеческие нормы и ценности и заставляют их учитывать эти проблемы при принятии решений. В настоящее время существует в основном два пути: сверху вниз Пути и восходящие пути. Исследования в этой области необходимо укрепить.

В докладе также указывалось на необходимость разработки методологий для этнографических исследований и проектирования, безопасности и благополучия общего искусственного интеллекта и супер-искусственного интеллекта, реконструкции автономных систем вооружений и экономических / гуманитарных вопросов, таких как восемь. Более 100 мыслительных лидеров из академических, научных и правительственных секторов в области искусственного интеллекта объединяют опыт в таких областях, как искусственный интеллект, этика, философия и политика, а также его пересмотренная версия EAD Версия Aligned Design будет доступна к концу 2017 года, и отчет будет расширен до тринадцати глав с более чем 250 глобальными лидерами.

Сатоши Тадокоро, председатель Общества робототехники и автоматизации IEEE, объясняет, почему они хотели установить стандарт: «Роботы и автоматизированные системы будут приносить в общество крупные инновации, а общественность все больше обращает внимание на возможные социальные проблемы и то, что может произойти Огромные потенциальные выгоды К сожалению, в этих дискуссиях могут быть некоторые ложные сообщения из вымышленных и творческих причин.

Tadokoro продолжает: «IEEE представит знания и мудрость, основанные на общепризнанных научных и технологических фактах, чтобы помочь сформировать общественное принятие решений и максимизировать общие выгоды для человека». В дополнение к этическим стандартам AI существуют еще два других стандарта ИИ Будучи представленным в отчете, каждый проект возглавляют эксперты домена.

Первый критерий: «Этический стандарт Impetus для роботизированных систем, интеллектуальных систем и автоматизированных систем». Этот стандарт исследует «толчок», который в мире ИИ относится к тонкому действию, которое ИИ может иметь на поведение человека.

Второй стандарт - «Критические критерии проектирования для автоматических и полуавтоматических систем». Он включает автоматизированные технологии, которые, если они потерпят неудачу, могут быть опасны для человека, самая очевидная проблема на данный момент является автопилотом.

Третий критерий - «Показатели благосостояния для морализированных ИИ и автоматизированных систем». В нем объясняется, как преимущества передовых методов ИИ могут принести пользу человечеству.

Эти стандарты, скорее всего, будут реализованы раньше, чем мы думаем, поскольку такие компании, как OpenAI и DeepMind, ускоряют и ускоряют ИИ и даже создают системы ИИ, которые самообучались и расширялись на «умной» арене. Полагает, что такой искусственный интеллект подрывает стабильность мира, приведет к крупномасштабной безработице и войне и даже превратится в создание «оружия убийства». Недавно важные обсуждения в Организации Объединенных Наций побудили людей серьезно задуматься о необходимости использования искусственного интеллекта в качестве оружия Более сильное регулирование.

2016 GoodChinaBrand | ICP: 12011751 | China Exports