Потенциальные угрозы безопасности алгоритмов искусственного интеллекта, когнитивного уклона, конфликтов правовой этики и т. Д. Часто являются отражением реальных социальных недостатков. Только сосредоточив внимание на машинах и людях, использующих машины, мы можем создать будущее, в котором искусственный интеллект взаимодействует с людьми.
Голосование, оплата за лицо, беспилотный автомобиль, чтобы вернуться домой ... Более 60 лет назад, когда группа молодых ученых впервые предложила концепцию искусственного интеллекта, возможно, не ожидала огромных изменений, которые она принесла, в настоящее время благодаря расчетам Улучшение возможностей, стремление больших данных и прорыв глубокого обучения, искусственный интеллект ускоряют «эволюцию» и все чаще меняют наше производство и жизнь.
Следует отметить, что искусственный интеллект также поднял новые вызовы безопасности, юридической этике и т. Д., Когда торжествует. Например, некоторые эксперты опасаются, что искусственный интеллект может размыть границы между виртуальным миром и физическим миром и даже изменить Человеческая среда обитания и когнитивная форма и, таким образом, породили ряд сложных моральных и этических проблем. Известный физик Хокинг сказал, что краткосрочное воздействие искусственного интеллекта определяется человеком, контролирующим его, в то время как долгосрочный эффект зависит от труда. Независимо от того, контролируется ли интеллект людьми.
С точки зрения процесса технологического развития и логики, эти проблемы могут наступить рано. К счастью, мы не просто застряли в дискуссии, потенциальные риски искусственного интеллекта, ученых и инженеров для предотвращения проблем, от стандартов дизайна продукта, нормативных ограничений и т. Д. В этой статье предлагается ряд возможных схем для управления интеллектуальными машинными системами. Перед лицом непонятных интеллектуальных алгоритмов и недостатка машинного смещения, вызванного прозрачностью, люди усиливают оценку данных, алгоритмов и моделей, используемых искусственным интеллектом, для устранения потенциальных факторов, которые могут привести к предвзятости. Для будущей сильной среды искусственного интеллекта, как машина с квази-личностью может ладить с людьми. Ученые также пытаются исследовать внедрение человеческих ценностей и норм интеллектуальными алгоритмами, чтобы они проявляли такое же сострадание и ответственность, как и люди. Позор и т. Д. Мы надеемся, что, хотя программа искусственного интеллекта контролируется, пусть алгоритм искусственного интеллекта следует «хорошему закону» и поглощает «хорошую» сторону человеческой морали, тем самым контролируя риск машины.
Конечно, создание системы правовой этики нелегко. На реальном языке выражение богатого языка, тонкая эмоциональная привлекательность может быть понята и принята машиной? Можно ли использовать количественные показатели для измерения этических понятий, таких как добро и зло? Определение алгоритмов, установление стандартов? Это проблемы, с которыми мы сталкиваемся при попытке регулирования развития искусственного интеллекта. Но сложность внедрения этики в машины не означает, что мы можем ничего не делать. Решение и поведение выхода машинного обучения часто зависят от него. С этой точки зрения, искусственный интеллект сам по себе не прав или не прав. В идеальных условиях нынешний алгоритм искусственного интеллекта, основанный на глубоком обучении, должен быть нейтральным, объективным и эффективным, его потенциальными рисками безопасности, когнитивными уклонами, Правовые этические конфликты и т. Д. Часто отражают реальные социальные недостатки, но усиливаются в области технологий. Поэтому, чтобы сделать интеллектуальные машины более совершенными, помимо пересмотра или руководства алгоритмами с помощью технических средств, что более важно Он должен стоять лицом вверх, понимать и улучшать реальную социальную среду. Только когда машина и человек, использующие машину, фокусируются друг на друге, мы можем создать искусственный интеллект Позитивное взаимодействие с людьми в будущем.
Этики говорят, что моральный уровень искусственного интеллекта будет зеркалом, отражающим нравственный рост человеческой цивилизации. Человеческое общество не может быть совершенным, а будущее машинного интеллекта тоже одно и то же. Мы должны продолжать неустанно работать, чтобы создать лучшее Эра интеллекта.