Новости

Google снова сотрудничает с военными. Где граница этики ИИ?

История начинается в начале марта этого года.

В марте этого года Google был представлен, что он достиг сотрудничества с Министерством обороны США, чтобы помочь ему в разработке системы искусственного интеллекта для беспилотных самолетов. Код проекта - Project Maven.

Некоторые сотрудники полагали, что Google открывает ресурсы для Пентагона, чтобы помочь последним создать технологию беспилотного наблюдения, а другие сомневались в том, что Google использует эту машину. Независимо от того, соответствуют ли технологии обучения этическим стандартам, они считают, что Пентагон будет использовать эту технологию для противопехотных вооружений, что, в свою очередь, принесет вред, который технологические оптимисты никогда не захотят причинить.

Впоследствии, более чем 3100 сотрудников Google совместно подали прошение и написали письмо генеральному директору Sundar Pichai, чтобы выразить протест.

Сотрудники Google совместно подписали письмо Сундар Пичаи. Этот вопрос был дополнительно брошен к концу апреля. Некоторые СМИ обнаружили, что Google удалил трехконечный акцент на свой 18-летний девиз «Не будь злым» в начале кодекса поведения компании. В конце есть предложение, которое не было удалено: «Помните, не будь злым, если вы видите то, что считаете неправильным, говорите!»

В пятницу на еженедельном «прогнозе погоды» генеральный директор Google Cloud Дайан Грин объявил, что Google завершит проект Marven в Министерстве обороны США после истечения срока действия этого контракта. ,

Это, несомненно, крупное событие. «Новости о победе» были сумасшедшими в Google. В связи с тем, что статья вырывается из-под контроля, похоже, что этот вопрос временно заключается в том, что Google «компромисс с сотрудниками и прекращение возобновления с Министерством обороны». Будет закрыто.

Но вчера генеральный директор Google Сундар Пичаи опубликовал статью под названием «AI at Google: наши принципы», в которой перечислены семь руководящих принципов и указано, что Google не прекратит сотрудничество с американскими военными. , Хотя он разъясняет «приложение ИИ, которое не будет преследоваться», но техническое зло по-прежнему является проблемой человеческого зла, этика ЭКС снова заставляет задуматься.

Где границы этики ИИ?

Если Google не очень плоский в недавнем прошлом, жизнь Амазонки Алекса будет нелегкой.

Устройство Echo Amazon было обвинено в записи личных разговоров без разрешения и отправке аудио случайно случайному лицу в списке контактов пользователя. Это последний случай, когда страшный инцидент Alexa о «игре в насмешку над людьми» прошел. Как долго.

Реакция Амазонки на Алекса далека от примера. Еще в 2016 году один человек был 19-летней девочкой. Робот чата по имени Тэй отправился в Интернет в Twitter. Этот искусственный интеллект, разработанный Microsoft, использует технологию изучения естественного языка. , Способность обрабатывать и подражать человеческим разговорам, захватывая данные, которые взаимодействуют с пользователем, беседуя, как человек, с шуточками, кубиками и смайликами. Но на линии меньше, чем через день, Тэй был «настроен» на проклятие расовой чистки. 2. Грубый и экстремист, Microsoft пришлось снять его с места для «обновления системы».

Крайние замечания, сделанные роботом Microsoft Тай, действительно заставляют людей думать осторожно. По словам Кэминга, аналитика aixdlun, с изюминкой проблем ИИ, этические проблемы AI также будут все больше и больше внимания. Где граница этики AI? Прежде всего, необходимо уточнить несколько вопросов.

1. Является ли робот гражданским объектом?

С быстрым развитием технологий искусственного интеллекта роботы обладают все более мощным интеллектом. Разрыв между машинами и людьми постепенно сузился. Роботы, которые появятся в будущем, будут иметь биологические мозги, которые могут даже конкурировать с количеством нейронов в человеческом мозге. Будущие будущие футуристики США даже предсказывают, что: в середине этого столетия небиологический интеллект будет в 1 миллиард раз больше, чем мудрость всех людей сегодня.

Гражданство, похоже, не является проблемой для роботов. В октябре прошлого года рождение Софии, первого робота-гражданина в мире, означало, что человеческое создание имеет ту же идентичность, что и люди, и права, стоящие за их идентичностями. , обязательства и социальный статус.

Юридическая квалификация гражданского субъекта по-прежнему является разделительной линией этики ИИ. За прошедший период у философов, ученых и законодателей в Соединенных Штатах, Великобритании и других странах все были острыми аргументами. В 2016 году Комитет по правовым вопросам Европейской комиссии Европейская комиссия подала ходатайство, требующее размещения самых современных автоматизированных роботов в качестве «электронных лиц». Помимо предоставления им «определенных прав и обязанностей», рекомендуется также, чтобы интеллектуальные роботы регистрировались в своих целях. Налоговый платеж, оплата и счет фонда для получения пенсии. Если это законное движение будет принято, это, несомненно, вызовет встряску в традиционной гражданской предметной системе.

Строго говоря, робот не является естественным человеком с жизнью, но также отличается от юридического лица, у которого есть своя независимая воля, и представляет собой набор физических лиц. Если делается попытка осудить ИИ в результате неправомерного поведения робота, это действительно преждевременно.

2. Алгоритмическая дискриминация будет несправедливой

Обвинение в искусственном интеллекте при допущении ошибок в суждении состоит в том, что он часто является «дискриминационным». Google, которая использует самую передовую технологию распознавания изображений, когда-то обвинялась в «расовой дискриминации», потому что ее поисковая система обозначала бы черных как «орангутанов». И поиск «профессиональных причесок», подавляющее большинство из которых являются черными племянниками. Профессор лаборатории конфиденциальности данных Гарвардского университета профессор Ратанья Суини обнаружил, что поиск в Google «черных символов», скорее всего, поп Объявления, связанные с криминальными записями - результаты Google Smart Adsense.

И опасность заключается не только в том, чтобы «видеть друг друга» - ведь маркировка фотографии чернокожих с надписью «Орангутанг» лишь немного оскорбительна. И решение использовать искусственный интеллект переходит в большее количество полей, которые фактически связаны с судьбой человека. Эффективно влияя на занятость, благосостояние и личный кредит, мы вряд ли можем закрывать глаза на «несправедливость» в этих областях.

Точно так же, когда ИИ вторгается в область вербовки, финансовый сектор, поле интеллектуального поиска и т. Д., Мы можем видеть, действительно ли «машины алгоритмов», которые мы подготовили, действительно надежны. В сегодняшнем жаждущем мире, может ли алгоритм помочь компании выбрать тысячи миль Тот, кто выбирает один, этот должен быть изящным.

Затем, где источник дискриминации, скрытый мотив ярлыка, отклонение привязки данных или есть ли ошибка в дизайне программы? Могут ли результаты, рассчитанные машиной, служить основанием для дискриминации, неравенства и жестокости? это открытый вопрос.

3. Защита данных - это нижняя линия этики AI

Киберпространство - это реальное виртуальное существование, это независимый мир без физического пространства. Здесь люди осознали «цифровое выживание» с разделением плоти и обладали «цифровой личностью». Так называемая оцифрованная личность - это «сбор личной информации». И обработка, чтобы наметить личный образ в киберпространстве »- то есть личность, созданная с цифровой информацией.

В среде ИИ, основанной на поддержке Интернета и больших данных, он имеет большое количество пользовательских привычек и данных. Если накопление «данных в прошлом» является основой машинного зла, то движущей силой капитала является более глубокий уровень. Причина.

В случае утечки информации в Facebook компания под названием Cambridge Analytica использовала технологию искусственного интеллекта для размещения платной политической рекламы по «психологическим характеристикам» любого потенциального избирателя, а какие рекламные роли были заложены, зависит от своей политики. Тенденции, эмоциональные характеристики и степень уязвимости Многие ложные новости могут быстро распространяться среди конкретных групп людей, увеличивать воздействие и тонко влиять на оценочные суждения людей. Технический писатель Кристофер Вилли недавно опубликовал это руководство для средств массовой информации. «Пищевой» источник умных технологий - во имя академических исследований - более 50 миллионов пользовательских данных, которые он намерен захватить.

Другими словами, даже если нет проблемы с утечкой данных, так называемая «интеллектуальная интеллектуальная интеллектуальная разработка» пользовательских данных также очень легко плавать на грани «соответствия», но «вне справедливости». Что касается границ этики ИКС, то информационная безопасность становится каждый Основная нижняя строка «информационного лица» в эпоху Интернета.

отражение

В видео о недавнем пожаре по этике AI художник Александр Ребен не имел никаких действий, но отдал приказ через помощник голоса: «ОК, стреляй».

Тем не менее, менее чем за одну секунду, Google Assistant нажал на курок пистолета и сбил красное яблоко. Сразу же раздался зуммер.

В обоих ушах раздался шум.

Кто стрелял в яблоко? Является ли ИИ или человеком?

В этом видео Ребен говорит ИИ снимать. Engadget сказал в своем отчете, что если ИИ достаточно умен, чтобы предвидеть наши потребности, возможно, когда-нибудь ИИ возьмет на себя инициативу, чтобы избавиться от тех, кто делает нас несчастными. Ребен сказал, что обсуждение такого устройства Это важнее, чем такое устройство существует.

Искусственный интеллект не является предсказуемой, совершенной рациональной машиной, его этические недостатки состоят из алгоритмов, люди используют цели и оценки. Однако, по крайней мере пока, машины по-прежнему являются реакцией человеческого реального мира, а не «должны быть Мировое руководство и пионеры.

Очевидно, чтобы придерживаться этической нижней линии ИИ, люди не пойдут в день «машинной тирании».

Приложение: «Семь рекомендаций Google»

Выгодно обществу

2. Избегайте создания или усиления предрассудков

3. Установить и проверить безопасность

4. Обязанность объяснять людям

5. Интеграция принципов конфиденциальности

6. Соблюдайте высокие стандарты научной разведки

7. Определите подходящее приложение, основанное на принципе

2016 GoodChinaBrand | ICP: 12011751 | China Exports