Новости

Технология распознавания лиц, точность неравномерного отклонения цвета человеческой расы

Американские исследователи, проверяющие точность технологии распознавания лиц, представленной IBM и Microsoft, обнаружили, что проверенные сервисы были более точными в белом цвете и менее точными в темном цвете людей. В докладе говорится, что причина этого в том, что Первоначальный алгоритм обучения имеет меньший оттенок цвета кожи, и эксперты призвали отраслевых игроков быть более прозрачными в текущей идентификации технической информации о точности. Согласно Wired, исследователи протестировали Microsoft и IBM, чтобы идентифицировать услуги анализа лица на фотографиях и результаты Установлено, что вышеупомянутые алгоритмы компании почти на 100% точны при идентификации людей более белого цвета, но часто делают ошибки при анализе темнокожих женщин из-за использования методов машинного обучения для создания более темного цвета в данных обучения алгоритма лицевого анализа Меньше, служба сортировки фотографий Google, используемая для того, чтобы удивить чернокожих, обозначив черный как шимпанзе, поэтому, как обеспечить, чтобы системы машинного обучения, развернутые в потребительских продуктах, бизнес-системах и правительственных программах, поддавались искусственному интеллекту (ИИ) В разделе важных тем, обсуждавшихся в 2016 году, Джорджтаунский университет (Джорджтаунский университет) сообщил, что это были ФБР и местная полиция Из технологий распознавания лиц на африканских американцах мало. В этом новом исследовании исследователь MIT Джой Буоламвини и исследователь Microsoft Тимнит Гебру инвестировали в систему распознавания 1270 евро С фотографиями африканских парламентариев и использованием системы классификации шкалы Фицпатрика для тестирования облачных сервисов Face ++ от Microsoft, IBM и материкового запуска Megvii, а исследователи заблокировали Три службы в функции определения пола и обнаружили, что эти три службы перед мужчинами, чем женщины, точность выше белого цвета лучше, чем темный цвет, все услуги для женщин с темными цветами, точность Microsoft не ответила правильно на белых людей с коэффициентом ошибок в IBM 0,3%, но частота ошибок Microsoft составляла 21% для чернокожих и 35% для IBM и Face ++. Услуги с дополнительными алгоритмами машинного обучения стали горячей областью конкуренции для крупных компаний: Microsoft, IBM, Google и Amazon заявляют, что облако - это задача, которая подходит для синтаксического анализа значения изображений и текста как Например, спорт, здравоохранение и производство, но в то же время клиенты могут вынуждены принять ограничения. Pivothead, стартап, который разрабатывает смарт-очки для слабовидящих, является одним из клиентов, которые используют услуги AI от Microsoft, Тем не менее, технические статьи Microsoft отмечают, что гендерное признание и другие черты лица, такие как эмоции и возраст, в настоящее время являются экспериментальными и не совсем точными, а DJ Patil, бывший главный информационный специалист по президенту Обаме, отметил, что в докладе подчеркивается важность технологических компаний должны обеспечить, чтобы их системы машинного обучения, применяемые на все типы человеческих существ, но в отрасли также должна быть более открытой для своих услуг до сих пор ограничений в отношении Microsoft в настоящее время в центре внимания на машинном обучение усилий по этическим вопросам Выступая в качестве лидера, многие из исследователей компании участвуют в этой области и создали Внутренний комитет по искусству и инженерии и исследовательской этике (Aether), который в 2017 году участвовал в аудите и обнаружил, что Microsoft работает над облачными вычислениями для выражений лица у детей Плохая производительность.

2016 GoodChinaBrand | ICP: 12011751 | China Exports