영화에서 기계가 세계를 통제하고 인간이 파괴되는 장면을 모두 보았지만 다행히도 이러한 영화는 단지 엔터테인먼트에 지나지 않습니다. 실제 현실에서는 이러한 극단적 인 장면은 발생하지 않습니다. : 알고리즘 바이어스 (알고리즘 바이어스).
소위 '알고리즘 편견'은 악의적 인 것처럼 보이거나 사용 된 데이터가 편향된 프로그래밍의 디자이너 또는 개발자의 편견을 말합니다. 물론 결과에는 다양한 문제가 있습니다. 예를 들어, 구글 검색이 잘못 해석되었고, 자격을 갖춘 후보자는 의대에 진입 할 수 없었고, 채팅 봇은 인종 차별적이고 성 차별적 인 정보를 트위터에 퍼트 렸다.
한 알고리즘 편견이 발생하는 가장 어려운 문제는 프로그래밍 엔지니어로, 경주 경향, 성별, 연령 등의 차별이없는 경우에도, 또한 바이어스를 일으킬 수 있다는 것이다. 인공 지능 (AI)가 기본적으로 자율 학습을 위해 설계, 때때로 그것은 참으로 잘못된 것입니다. 물론, 우리는 사후 조정 될 수 있지만 가장 좋은 방법은 그래서 당신은 어떻게 편견 인공 지능없이 만들 수 있죠. 발생하지 않도록 시작하는 것입니다?
아이러니 컬하게도 인공 지능의 가장 흥미로운 가능성 중 하나는 다음과 같습니다 : 인간의 편견이없는 세상 예를 들어 사람들을 모집하는 것과 관련하여 알고리즘은 동일한 직업을 신청할 때 남녀가 동등한 것을 허용합니다. 치료, 또는 치안에서 인종주의를 피하십시오.
인간이 만든 기계가 사람들이 세상을 바라 보는 방식을 진정으로 반영한다는 것을 사람들이인지하고 있는지 여부와 관계없이, 그들은 또한 비슷한 고정 관념과 세계관을 가질 것입니다. 인공 지능이 점점 더 심오하기 때문에이 문제에주의를 기울여야합니다.
인공 지능이 직면하는 또 다른 도전 과제는 바이어스가 단일 형태가 아니라 상호 작용 바이어스, 잠재 의식 바이어스, 선택 바이어스, 데이터 지향 바이어스 및 확인 바이어스를 비롯하여 다양한 유형으로 존재한다는 것입니다.
다양한 AI 바이어스 유형
'대화 형 편견'은 사용자가 알고리즘과 상호 작용하여 알고리즘을 침해하는 것을 말하며, 주변 환경에서 학습하도록 설정된 경우 유지하거나 삭제할 데이터를 결정할 수 없습니다. 좋거나, 나쁘거나, 못생긴 경우에만 이러한 정보를 사용할 수 있습니다. 이전에 언급 한 Microsoft 채팅 로봇 테일러 (Tay)는 이러한 유형의 편견의 예이며, 온라인 채팅 커뮤니티의 영향으로 인종 차별적 인 태도를 취하고 있습니다.
'잠재적 인 편견'은 잘못된 생각을 인종 및 성별과 같은 요인으로 연결하는 알고리즘을 말합니다. 예를 들어, 의사의 사진을 검색 할 때 인공 지능은 먼저 여성 의사가 아닌 남성 의사의 사진을 보여 주며 반대의 경우도 마찬가지입니다. 그러나 간호사를 검색 할 때 비슷한 상황이 발생합니다.
'선택적 바이어스'는 데이터에 영향을받는 알고리즘을 말하며 특정 그룹이나 그룹의 과다 증폭을 유발하므로 알고리즘이 유용하며 다른 그룹을 희생하는 것이 비용입니다. 인공 지능이있는 경우 직원 모집을 예로 들자. 남성 이력서 만 인정하는 훈련은 여성 구직자들이 지원 과정에서 거의 성공할 수 없습니다.
'데이터 중심의 편견'은 알고리즘을 훈련하는 데 사용되는 원시 데이터 아이들처럼 기계를 바이어스되었음을 의미합니다 : 그들은 데이터를 수신 의문을 제기하지만, 단순히 모델 중 하나가 데이터의 시작을 찾고하지 않습니다 왜곡되면 출력 결과에도이 점이 반영됩니다.
마지막 하나는 '확인 편향'이 유사한 데이터 중심의 편견, 그것은 그 선입견 정보를 선호하는 것은 이러한 편견은 사람들이 정보를 수집하는 방법에 영향을, 어떻게 정보를 해석하는 방법입니다. 예를 들어, 사람들이 8 월에 태어난 것을 느끼는 경우 다른 달보다 더 많이 태어난 사람은 더 창의적이며 이러한 아이디어를 강화하는 데이터를 검색하는 경향이 있습니다.
인공 지능 시스템에 침투 할 수있는 편견이 너무 많다는 것을 알게되면 매우 걱정스러운 것처럼 보입니다. 그러나 세계 자체가 편향되어 있다는 사실을 인식하는 것이 중요합니다. 따라서 어떤 경우에는 인공 지능이 있습니다. 제공된 결과는 놀랄만 한 것이 아니지만, 개발 초기와 배포 전의 편견을 탐지하기 위해 인공 지능 알고리즘 및 시스템을 테스트하고 검증하는 프로세스가 필요합니다.
알고리즘과 인간의 차이는 거짓말이 아니기 때문에 결과에 편향된 경우 알고리즘에 의해 얻은 데이터가 있어야합니다. 인간은 왜 거짓말을하고 왜 사람을 고용하지 않는지 설명 할 수 있습니다. 그러나 인공 지능은 이와 같지 않을 수 있습니다. 알고리즘을 사용하여 우리는 편견이 언제 있을지 알 수 있으며 나중에 이러한 문제를 극복 할 수 있도록 조정할 수 있습니다.
인공 지능은 배울 수 있고 실수를 할 수 있습니다. 일반적으로 실제 알고리즘이 사용 된 후에 만 이러한 편견이 확대되기 때문에 모든 내부 편견을 발견 할 수 있습니다. 알고리즘을 위협으로 취급하는 대신 솔루션으로 간주하는 것이 좋습니다. 모든 편견 질문에 대한 좋은 기회와 필요한 경우 수정하십시오.
우리는 편향된 의사 결정을 감지하고 적시에 조치를 취할 수있는 시스템을 개발할 수 있습니다. 인공 지능은 베이 즈 방식으로 가설 확률을 결정하고 가능한 모든 것을 제거하는 데 특히 적합합니다 인간의 편견 이것은 복잡하지만 특히 인공 지능의 중요성을 고려할 때 가능하며 앞으로 더욱 더 중요해질 것이며 무책임한 행동입니다.
인공 지능 시스템의 발전과 함께, 위해 디자인의 감각을 통해 확인하고, 발생할 수있는 편견 미래의 문제를 방지하기에, 어떻게 작동하는지 이해하는 것이 중요하다. 아직 인공 지능의 매우 급속한 발전에도 불구하고, 잊지하지만하지 마십시오 초기 단계, 배우고 개선 할 수있는 많은 장소. 이러한 조정은, 몇 시간 동안 계속 같은 시간에, 인공 지능 스마트 한 미래에 될 것 편견과 다른 문제를 극복하기 위해 더 많은 방법이있을 것이다있다 .
기술 산업의 경우, 우리는 기계의 작동 방법을 질문을 계속하는 이유는 인공 지능의 대부분은 블랙 박스처럼, 매우 중요 의사 결정 과정이 숨겨진하지만, 공공 및 인공 지능의 투명성, 그것은 설립 신뢰하고 오해를 피하는 열쇠.
이 단계에서 그들이 같은 전술뿐만 아니라보다 '낮은 수준'편견, 일부로서, 편견의 다른 유형을 구별에 대한 편견을 집중, 같은 프라운호퍼 하인리히 헤르츠 연구소 연구 등 많은 연구 도움말 농산물 식별 편견이있다 인공 지능 교육 및 개발 중에 발생할 수있는 문제
다른 한편, 고려해야 할 것은 감독되지 않은 훈련입니다. 오늘날 대부분의 인공 지능 모델은 감독 교육을 통해 개발됩니다. 즉, 인간이 분류 한 데이터 만 수집됩니다. 감독 교육은 레이블이없는 데이터를 사용하며 알고리즘은 자체 분류, 데이터 식별 및 집계가 필요하며 일반적으로 감독 학습보다 몇 배 더 느리지 만이 방법은 사람의 개입을 상대적으로 제한합니다. 의식이나 무의식적 인 인간 편견을 제거하고 데이터에 대한 영향을 피할 수 있습니다.
새로운 제품, 웹 사이트 또는 기능을 개발할 때 기술 회사는 모든 분야에서 재능있는 사람을 필요로합니다. 다변화는 알고리즘에 대한 다양한 데이터를 제공하지만 의도하지 않게 이러한 데이터는 편향되어 있습니다. 누군가가 산출물을 분석하면 편견을 발견 할 가능성이 상당히 높습니다.
2016 년 미국의 카네기 멜론 대학 (Carnegie Mellon University) 연구팀은 인터넷 구인 광고에 알고리즘 적 편향을 발견했으며 인터넷 광고 인 Google Advertising에 상장했습니다. 일자리를 찾는 사람들의 목록에 따르면 남성의 고소득 일자리 비율은 여성의 6 배에 가까운 것으로 나타났습니다. 연구팀은 내부 알고리즘 감사를 먼저 수행하면 이러한 편견을 줄이는 데 도움이 될 것이라고 결론지었습니다.
간단히 말해서, 기계 편견은 인간의 편견입니다. 인공 지능 편향에는 여러 가지가 있지만 실제로는 한 가지 원인, 즉 인간에 의한 것입니다.
기술 기업, 모두 엔지니어와 개발자의 관건은, 생성 알고리즘을 통해 언제든지 개방적이고 투명한 감사를 유지하기 위해 의도적으로 편향된 알고리즘을 방지하기 위해 효과적인 조치를 취해야한다, 우리는 인공 지능을 만들기 위해 자신감을 가지고 알고리즘은 편견을 제거합니다.