Новости

Как получить ИИ из-за смещения?

Автор обсуждает различные предубеждения, которые могут быть добавлены в приложения искусственного интеллекта и машинного обучения между преднамеренными и непреднамеренными ...

Мы все видели сцену, в которой машины управляли миром и людьми, уничтожены. К счастью, эти фильмы - просто развлечение. В реальной жизни эти принудительные сцены не произойдут. Однако одна из наиболее практических проблем, которые следует отметить, - это : алгоритмическое смещение (алгоритмическое смещение).

Так называемый «алгоритмический предрассудок» относится к предрассудкам дизайнера или разработчика в программировании, который кажется вредоносным, или используемые данные являются предвзятыми. Результат, конечно, представляет собой множество проблем. Например, поиск Google был неверно истолкован, квалифицированные кандидаты не могли попасть в медицинскую школу, чаты-боты распространяли расизм и информацию о дискриминации по половому признаку в Twitter.

Сетевые «деревенские люди» слишком сильны. Робот чата Microsoft Тайу учили быть расово-дискриминационным на 1 день. Microsoft срочно позволила ей «замолчать» ...

Одна из самых сложных проблем, вызванных алгоритмическим смещением, заключается в том, что инженеры, занимающиеся программированием, могут создавать предрассудки, даже если они не являются расовыми, гендерными или дискриминационными по возрасту. Искусственный интеллект (AI) по существу предназначен для самостоятельного изучения, иногда Конечно, мы можем вносить коррективы после этого, но наилучшим решением является предотвращение его возникновения. Итак, как мы можем сделать AI непредвзятым?

По иронии судьбы, одна из самых захватывающих возможностей искусственного интеллекта: мир без человеческих предрассудков. Например, когда дело доходит до найма сотрудников, алгоритмы могут использоваться, чтобы заставить мужчин и женщин равными при подаче заявления на ту же работу. Лечение или избежать расизма в полицейской деятельности.

Независимо от того, знают ли люди, что созданные человеком машины действительно отражают то, как люди видят мир, у них также будут похожие стереотипы и мировоззрения. Поскольку искусственный интеллект все более и более углублен в жизни, мы должны обратить внимание на этот вопрос.

Еще одна проблема, с которой сталкивается искусственный интеллект, заключается в том, что смещение не является одной формой, а скорее существует в разных типах, включая интерактивные предубеждения, подсознательные предубеждения, смещения выборки, ориентированные на данные смещения и искажения в подтверждение.

Различные типы смещения AI

«Интерактивный предрассудок» относится к предубеждению алгоритма из-за взаимодействия пользователя с алгоритмом. Когда машина настроена на изучение из окружающей среды, они не могут решить, какие данные хранить или отбрасывать. Что правильно? Вместо этого они могут использовать только предоставленные им данные, будь то хорошие, плохие или уродливые, могут основываться только на таких основах. Ранее упомянутый робот Microsoft chat Тай является примером такого рода предрассудков. Он стал расистским из-за влияния сообщества онлайн-чатов.

«Подпороговое предвзятое отношение» относится к алгоритму, связывающему неправильные идеи с такими факторами, как раса и пол. Например, при поиске фотографии врача искусственный интеллект сначала представляет собой фотографию врача-мужчины, а не врача-женщины, и наоборот. Однако подобные ситуации возникают при поиске медсестер.

«Селективное смещение» относится к алгоритму, на который влияют данные, что приводит к чрезмерному усилению определенной группы или группы, так что алгоритм полезен для него, а стоимость заключается в том, чтобы жертвовать другими группами. Возьмите набор сотрудников в качестве примера, если искусственный интеллект Тренинг для распознавания только резюме мужчин, тогда женщины, ищущие работу, вряд ли смогут добиться успеха в процессе подачи заявки.

«Ориентированное на данные смещение» относится к тому факту, что исходные данные, используемые для обучения алгоритму, были предвзятыми. Машины похожи на детей: они не подвергают сомнению данные, которые они получают, они просто ищут шаблоны в них. Если данные начинаются Будучи искаженным, результат его вывода также будет отражать это.

Последний вид - это «предвзятое подтверждение», которое похоже на ориентированное на данные смещение. Оно смещается в сторону предвзятой информации. Такое смещение влияет на то, как люди собирают информацию и как интерпретировать информацию. Например, если вы чувствуете, что люди родились в августе. Люди, родившиеся больше, чем другие месяцы, более креативны и склонны искать данные, которые укрепляют эту идею.

Когда мы знаем, что существует так много предрассудков, которые могут проникнуть в экземпляр системы искусственного интеллекта, это выглядит очень тревожным. Но важно признать тот факт, что сам мир предвзято, поэтому в некоторых случаях мы Полученные результаты не удивительны, но этого не должно быть. Нам нужен процесс тестирования и проверки алгоритмов и систем искусственного интеллекта для обнаружения предрассудков на ранней стадии разработки и до развертывания.

Разница между алгоритмом и человеком заключается в том, что он не лежит. Поэтому, если результат предвзятый, должна быть причина, то есть данные, полученные алгоритмом. Люди могут лгать и объяснять, почему они не нанимают кого-то. , но искусственный интеллект может быть не таким. Используя алгоритмы, мы можем знать, когда будут предубеждения, и скорректировать их, чтобы мы могли преодолеть эти проблемы в будущем.

Искусственный интеллект может учиться и делать ошибки. Обычно, только после того, как используется фактический алгоритм, все внутренние предрассудки могут быть обнаружены, потому что эти предрассудки увеличены. Вместо того, чтобы рассматривать алгоритм как угрозу, лучше рассматривать его как решение. Хорошая возможность для всех вопросов, связанных с предрассудками, и при необходимости исправить их.

Мы можем разработать системы для выявления смещенных решений и принятия своевременных мер. По сравнению с людьми, искусственный интеллект особенно подходит для байесовских методов для определения вероятности гипотезы и устранения всех возможных Человеческое предубеждение. Это сложно, но это возможно, особенно учитывая важность искусственного интеллекта, и в ближайшие годы оно станет все более важным. Это безответственная вещь.

С развитием систем искусственного интеллекта важно понять, как это работает, чтобы сделать его сознательным с помощью дизайна и избежать потенциальных предрассудков в будущем. Не забывайте, что, несмотря на быстрое развитие искусственного интеллекта, он по-прежнему На начальном этапе необходимо изучить и улучшить многие области, которые будут продолжаться в течение некоторого времени. В то же время искусственный интеллект станет более умным. В будущем будет все больше и больше способов преодоления предрассудков и других проблем. ,

Для науки и техники очень важно постоянно подвергать сомнению методы работы и причины машин. Большая часть искусственного интеллекта похожа на операции с черным ящиком. Процесс принятия решений скрыт, но открытость и прозрачность искусственного интеллекта установлены. Ключ к доверию и недопущению недоразумений.

На этом этапе существует множество исследований, которые помогли выявить предрассудки, например, в Институте Фраунгофера Генриха Герца. Они сосредоточены на выявлении различных типов предрассудков, таких как предубеждения, упомянутые выше, и более «низкоуровневых» предрассудков. Проблемы, которые могут возникнуть во время обучения и развития искусственного интеллекта.

С другой стороны, то, что нужно учитывать, - это неконтролируемое обучение. В настоящее время большинство моделей искусственного интеллекта разрабатываются посредством контролируемого обучения, то есть собираются только данные, отмеченные людьми. Контролируемое обучение использует немаркированные данные. Алгоритм должен сортировать себя, идентифицировать и агрегировать данные. Этот метод обычно на несколько порядков медленнее, чем контролируемое обучение, но этот метод относительно ограничивает вмешательство человека. Может устранить любое сознательное или бессознательное человеческое уклонение и избежать воздействия на данные.

Есть много вещей, которые можно улучшить с точки зрения инфраструктуры. При разработке новых продуктов, веб-сайтов или функций технологическим компаниям нужны талантливые люди во всех областях. Диверсификация предоставит множество данных для алгоритма, но также непреднамеренно Эти данные предвзяты. Если кто-то анализирует результаты, вероятность наложения предрассудков будет довольно высокой.

Кроме того, алгоритмический аудит имеет и другие роли. В 2016 году исследовательская группа Университета Карнеги-Меллона в США обнаружила алгоритмические ошибки в онлайн-объявлениях о работе. Они перечислены в Интернете, в Google Advertising. Список людей, ищущих работу, показывает, что доля мужчин с высокими доходами почти в шесть раз выше, чем у женщин. Исследовательская группа пришла к выводу, что если сначала будут проводиться внутренние алгоритмические проверки, это поможет уменьшить такие предубеждения.

Короче говоря, предрассудки в машине - это человеческий предрассудок. Существует множество видов искусственного интеллекта, но на самом деле он исходит только из одного источника: человека.

Ключевым моментом является то, что технологические компании, инженеры и разработчики должны принимать эффективные меры, чтобы избежать непреднамеренного создания предвзятых алгоритмов. Благодаря проверке алгоритмов и постоянному открытию и прозрачности в них мы уверены, что можем сделать искусственный интеллект. Алгоритм избавления от предрассудков.

2016 GoodChinaBrand | ICP: 12011751 | China Exports