Comment se débarrasser des préjugés de l'intelligence artificielle?

L'auteur discute de différents biais qui peuvent être ajoutés à l'intelligence artificielle et aux applications d'apprentissage automatique entre intentionnel et involontaire ...

Nous avons tous vu la machine de film contrôle le monde, et la destruction de la scène humaine. Heureusement, ces films tout divertissement, la vraie vie, ce scénario ne va se passer loin tiré par les cheveux. Cependant, un problème pratique convient de noter que : biais algorithmique (biais algorithmique).

Le soi-disant «préjugé algorithmique» fait référence au préjugé d'un concepteur ou d'un développeur dans une programmation qui semble être malveillante ou dont les données utilisées sont biaisées, ce qui pose bien sûr divers problèmes. Par exemple, la recherche sur Google a été mal interprétée, les candidats qualifiés n'ont pas pu entrer à l'école de médecine, les robots de discussion ont diffusé des informations sur le racisme et la discrimination sexuelle sur Twitter.

Le réseau des «villageois» est trop puissant: le robot de chat de Tay, Tay, a appris à être discriminatoire sur le plan racial pendant une journée et Microsoft lui a permis de «faire taire» ...

Un préjugé de l'algorithme a causé problème le plus difficile est que les ingénieurs de programmation, même si l'intelligence artificielle (AI) n'a pas tendance à la race, le sexe, l'âge et d'autres discriminations, peuvent également causer des biais. Est essentiellement conçu pour l'auto-étude, parfois Cela fait une erreur, bien sûr, nous pouvons faire des ajustements par la suite, mais la meilleure solution est d'empêcher que cela se produise, alors, comment pouvons-nous rendre l'IA non biaisée?

Ironiquement, l'une des possibilités les plus excitantes de l'intelligence artificielle est: Un monde sans préjugés humains.Par exemple, quand il s'agit de recruter des employés, des algorithmes peuvent être utilisés pour rendre les hommes et les femmes égaux en postulant pour le même travail. Traitement, ou éviter le racisme dans la police.

Peu importe si les gens savent que la machine de création humaine, ne reflètent la façon dont les gens perçoivent le monde, donc, aura une vision du monde semblable et les stéréotypes en raison de l'intelligence artificielle de plus en plus profondément dans la vie, nous devons prêter attention à cette question.

Un autre défi auquel l'intelligence artificielle est confrontée est que le biais n'est pas une forme unique, mais existe plutôt dans divers types, y compris les biais interactifs, les biais subconscients, les biais de sélection, les biais orientés données et les biais de confirmation.

Divers types de biais AI

Le «biais d'interaction» fait référence au biais de l'algorithme provoqué par l'interaction de l'utilisateur avec l'algorithme.Lorsque la machine est configurée pour apprendre de l'environnement, elle ne peut pas décider quelles données conserver ou rejeter. Ou plutôt, ils ne peuvent utiliser que les données qui leur sont fournies - que ce soit bon, mauvais ou laid, ne peuvent que porter des jugements basés sur cette base. Tay est un exemple de ce genre de préjugés qui a commencé à devenir raciste à cause de l'influence d'une communauté de discussion en ligne.

« Biais Inconscient » signifie algorithme idée fausse lien avec la race et le sexe et d'autres facteurs. Par exemple, lorsque vous recherchez la photo d'un médecin, l'intelligence artificielle sera le premier spectacle des images de médecins de sexe masculin, et non les femmes médecins, et vice versa Cependant, des situations similaires se produisent lors de la recherche d'infirmières.

« Biais de sélection » means en raison de l'influence des données, ce qui entraîne trop un zoom avant sur un groupe ou des groupes, de sorte que les algorithmes en leur faveur, mais au détriment d'autres groupes. Pour le recrutement du personnel, par exemple, si l'IA est La formation pour reconnaître seulement les curriculum vitae des hommes, alors les femmes qui cherchent un emploi peuvent difficilement réussir dans le processus de demande.

Le «biais orienté données» fait référence au fait que les données originales utilisées pour former l'algorithme ont été biaisées Les machines sont comme les enfants: elles ne remettent pas en question les données qu'elles reçoivent, elles en recherchent simplement les modèles. Être déformé, alors le résultat de sa production reflétera également ceci.

Le dernier type est le «biais de confirmation», qui est similaire à un biais axé sur les données, car il polarise les informations préconçues, ce qui affecte la façon dont les gens collectent l'information et comment interprètent l'information. Les personnes nées plus que les autres mois sont plus créatives et ont tendance à rechercher des données qui renforcent cette idée.

Quand on sait qu'il y a tant de préjugés qui peuvent s'infiltrer dans un système d'intelligence artificielle, cela semble très inquiétant, mais il est important de reconnaître que le monde lui-même est biaisé et que, dans certains cas, nous sommes concernés par l'intelligence artificielle. Les résultats fournis ne sont pas surprenants, mais cela ne devrait pas être le cas Nous avons besoin d'un processus pour tester et valider les algorithmes et les systèmes d'intelligence artificielle afin de détecter les préjugés au début du développement et avant le déploiement.

La différence entre l'algorithme et l'être humain est qu'il ne ment pas, donc si le résultat est biaisé, il doit y avoir une raison, c'est-à-dire les données obtenues par l'algorithme: les humains peuvent mentir et expliquer pourquoi ils n'embauchent personne. , mais l'intelligence artificielle peut ne pas être comme ça.Avec des algorithmes, nous pouvons savoir quand il y aura des préjugés et les ajuster afin que nous puissions surmonter ces problèmes à l'avenir.

L'intelligence artificielle peut apprendre et se tromper: ce n'est généralement qu'après l'utilisation de l'algorithme que tous les biais internes peuvent être découverts parce que ces biais sont amplifiés, au lieu de considérer l'algorithme comme une menace, il vaut mieux la considérer comme une solution. Une bonne opportunité pour toutes les questions de préjugés et corrigez-les si nécessaire.

Nous pouvons développer des systèmes pour détecter les décisions biaisées et prendre des mesures en temps opportun Par rapport aux humains, l'intelligence artificielle est particulièrement adaptée aux méthodes bayésiennes pour déterminer la probabilité d'une hypothèse et éliminer toutes les possibilités. Préjugé humain C'est compliqué, mais c'est faisable, surtout si l'on considère l'importance de l'intelligence artificielle, et cela ne fera que gagner de plus en plus d'importance dans les années à venir: c'est une chose irresponsable.

Avec le développement des systèmes d'intelligence artificielle, il est important de comprendre comment cela fonctionne afin de le rendre conscient par la conception et d'éviter les préjugés potentiels à l'avenir.N'oubliez pas que bien que l'intelligence artificielle se développe très rapidement, elle est encore ses débuts, il y a beaucoup d'endroits à apprendre et améliorés. ces ajustements se poursuivront pendant un certain temps, en même temps, l'intelligence artificielle deviendront plus intelligents dans l'avenir il y aura de plus en plus les moyens de surmonter les préjugés et autres questions .

Pour l'industrie de la technologie, nous continuons à remettre en question les méthodes de fonctionnement de la machine et la raison est très important, la plupart de l'intelligence artificielle est comme une boîte noire, le processus de prise de décision est caché, mais du public et la transparence de l'intelligence artificielle, il est établi confiance et éviter les malentendus de la clé.

A ce stade, il existe de nombreuses études aider à produire l'identification des préjugés, tels que l'étude de l'Institut Fraunhofer Heinrich Hertz, ils se sont concentrés sur distinguer les différents types de partis pris, des préjugés tels que le mentionné ci-dessus, ainsi que plus de préjugés « bas niveau », et quelques-uns problèmes qui peuvent survenir dans le processus de formation et de développement de l'intelligence artificielle.

D'un autre côté, ce qu'il faut considérer, c'est une formation non supervisée: de nos jours, la plupart des modèles d'intelligence artificielle sont développés grâce à une formation supervisée, c'est-à-dire que seules les données humaines ont été collectées. Entraînement supervisé utilisant des données non-étiquetées, l'algorithme doit trier lui-même, identifier et agréger les données, cette méthode est généralement de plusieurs ordres de grandeur plus lente que l'apprentissage supervisé, mais cette méthode limite relativement l'intervention humaine. Peut éliminer tout biais artificiel conscient ou inconscient, et ainsi éviter l'impact sur les données.

Il y a aussi beaucoup de choses qui peuvent être améliorées en termes d'infrastructure.Lors du développement de nouveaux produits, sites Web ou fonctionnalités, les entreprises technologiques ont besoin de personnes talentueuses dans tous les domaines.La diversification fournira une variété de données pour l'algorithme, mais il sera aussi involontairement Ces données sont biaisées Si quelqu'un analyse le résultat, alors la probabilité de trouver un préjugé sera assez élevée.

En outre, l'audit algorithmique a d'autres rôles: en 2016, une équipe de recherche de l'Université Carnegie Mellon aux États-Unis a découvert des biais algorithmiques dans les offres d'emploi en ligne, et les a listés sur Internet, Google Advertising. Une liste de personnes à la recherche d'un emploi montre que la proportion d'hommes occupant un emploi à revenu élevé est près de six fois supérieure à celle des femmes et que si des vérifications algorithmiques internes sont effectuées en premier, cela contribuera à réduire ces préjugés.

En bref, le préjugé machine est un préjugé humain: il existe de nombreux types de biais d'intelligence artificielle, mais en réalité, ils proviennent d'une seule source: l'humain.

La clé réside dans les entreprises technologiques, les ingénieurs et les développeurs, devraient prendre des mesures efficaces pour éviter l'algorithme involontairement biaisé pour générer et maintenir l'audit ouvert et transparent à tout moment par l'algorithme, nous avons la confiance pour faire l'intelligence artificielle algorithme pour se débarrasser des préjugés.

2016 GoodChinaBrand | ICP: 12011751 | China Exports