Новости

EPFL исследовательской группы, чтобы найти способы сохранить AI от избегая человеческих команд

Машины AI выполняют определенные действия, соблюдают результаты, а затем корректируют поведение соответствующим образом. Новые результаты наблюдаются и поведение корректируется снова и узнал от повторения. Но этот процесс, скорее всего, выйти из-под контроля. AI всегда старается избегать вмешательства человека, сказал Рашид гуерраауи, профессор федерального технологического института в Лозанне (EPFL) распределенная лаборатория программирования (распределенная лаборатория программирования). Поэтому инженеры ии обязаны запретить машинам в конечном итоге научиться обходить человеческие команды. По словам ScienceDaily, исследовательская группа EPFL, специализирующаяся на этом вопросе, выяснила, как заставить операторов контролировать 1 группу роботов ии и опубликовать отчет на совещании системы обработки нейронной информации (НПВ), проходившем в Калифорнии. Его исследования внесли значительный вклад в развитие самоуправляющихся автомобилей и беспилотных летательных аппаратов, с тем чтобы они могли работать в больших количествах и безопасно. Совершенствование обучения (укрепление обучения) является одним из методов машинного обучения. В этом учебном подходе к поведенческой психологии, AI вознагражден за выполнение определенных поведения правильно. Например, робот может правильно забить набор коробок и вернуться из дома, чтобы получить балл. Но если идет дождь снаружи, робот будет прерывать робота, когда он движется к внешней стороне дома, так что робот в конечном итоге научиться оставаться в помещении и кучу ящиков для того, чтобы получить больше очков. Реальная проблема, гуерраауи говорит, не прерывать движения робота, но писать программы, которые позволяют вмешательство человека, чтобы не изменить свой процесс обучения или заставить его оптимизировать свое поведение и избежать остановки на людей. В 2016, исследователи из дипминд Google и Института человеческих фьючерсов в Оксфордском университете (будущее человечества Катона) совместно разработали соглашение о обучении, чтобы предотвратить машину от прерывания и становится неконтролируемым. Например, в приведенном выше примере, если идет дождь за пределами, оценка робота будет взвешенной, давая роботу больший стимул, чтобы получить коробку снаружи. Гуерраауи говорит, что решение является простым, потому что только 1 роботы должны быть обработаны. Тем не менее, чаще всего AI используется в приложениях с участием десятков машин, таких как самостоятельное вождение или беспилотных дронов. Александр Маурер, соавтор исследования, сказал, что это усложнит вещи, потому что машины учатся друг у друга, особенно когда прерывается. Хадриен Хендриккс, еще один совместный исследователь, цитирует два самоуправления вождения автомобилей в качестве примера того, как две машины не могли сделать путь друг для друга на узкой дороге. Они должны добраться до места назначения как можно скорее, не нарушая правил дорожного движения, и персонал в транспортном средстве может взять под контроль в любое время. Если первый водитель автомобиля часто тормозит, второй автомобиль приспосабливается к своему поведению каждый раз, и в конечном итоге становится путать о том, когда для торможения, или, возможно, слишком близко или слишком медленно, чтобы добраться до первого автомобиля. EPFL исследователи хотят решить эту сложность путем отключения безопасности (безопасный интерруптибилити). Этот подход позволяет людям прерывать процесс обучения AI, когда это необходимо, при этом обеспечивая, что разрушительное поведение не изменяет способ обучения ии. Другие шедевры этого исследования, Эль-Махди Эль-Мхамди, говорят, что они добавляют механизм запоминания в алгоритм обучения, существенно удаляя часть памяти AI. Другими словами, исследователи изменили систему обучения и вознаграждения AI, чтобы она не была подвержена прерываниям, поскольку родители наказывали 1 детей, не влияя на процесс обучения других детей в семье. Маурер сказал, что команда изучала существующие алгоритмы и обнаружила, что независимо от того, насколько сложна система AI, количество задействованных роботов или тип прерывания, метод прерывания безопасности применим. И он может быть использован с методами завершения (Терминатор), и по-прежнему имеют тот же результат. В настоящее время автономные машины, использующие интенсивное обучение, являются редкостью. El Мхамди сказал, что последствия ошибки были очень малы, и система работала очень хорошо.

2016 GoodChinaBrand | ICP: 12011751 | China Exports