L'histoire commence au début de Mars de cette année pour commencer.
En Mars, Google a cassé les nouvelles a été conclu avec le département américain de la Défense pour aider ces derniers de développer des systèmes d'intelligence artificielle utilisés dans les véhicules aériens sans pilote, le projet au nom de code du projet Maven.
Les nouvelles est sorti, et instantanément la flambée, les employés de Google ont exprimé leur mécontentement fort avec ce projet croient que les employés de Google en open source pour le Pentagone, qui aident à construire un chameau faire mal la technologie de surveillance de drone ;. autres encore remis en question l'utilisation de la machine si Google technologie d'apprentissage répond aux normes éthiques, ils pensent que le Pentagone utilisera cette technologie pour les armes de destruction, et donc porter préjudice à la technologie qui les optimistes ne l'intention de causer.
Par la suite, Google plus de 3100 employés ont signé une pétition, une lettre au PDG Sandahl · Pichardo Irak (Sundar Pichai), en signe de protestation.
Les employés de Google ont signé une lettre de chose Sundar Pichai à la fin Avril pour une fermentation supplémentaire. Les médias ont découvert, Google a supprimé les dix-huit ans qui suivent la devise « Do not be evil » a souligné au début du code de conduite de l'entreprise sur trois. Seuls les critères à la fin, il n'y avait pas encore supprimé phrase: «Rappelez-vous, ne soyez pas mal, si vous voyez quelque chose que vous pensez est pas la bonne chose, dites à haute voix!
Vendredi, l'hebdomadaire « Prévisions météo » réunion ordinaire, le PDG de Google Diane Greene Nuage (Diane Greene) a annoncé, Google mettra fin à la coopération avec le Département américain de la Défense après l'expiration du projet Maven .
Il s'agit sans aucun doute d'un événement majeur: la «nouvelle de la victoire» était folle à l'intérieur de Google: il semble que cette affaire soit temporairement sur Google pour «compromettre les employés et cesser de renouveler leur contrat avec le ministère de la Défense». Pour être fermé.
Mais hier, le PDG de Google, Sundar Pichai, a publié un article intitulé "AI at Google: nos principes", qui énumérait sept principes directeurs et soulignait que Google ne mettrait pas fin à sa coopération avec l'armée américaine. Bien que cela clarifie «l'application de l'IA qui ne sera pas poursuivie», mais que le mal technique est toujours un problème de mal humain, l'éthique de l'IA est encore une fois une source de réflexion.
Où sont les limites de l'éthique de l'IA?
Si Google n'a pas été très plat dans un passé récent, la vie d'Amazon Alexa ne sera pas facile.
L'appareil Echo d'Amazon a été accusé d'avoir enregistré des conversations privées sans autorisation et d'avoir envoyé des données audio à une personne au hasard dans la liste de contacts de l'utilisateur. Combien de temps
La réponse d'Amazon à la question de Alexa Ce qui est loin d'être le seul. Dès 2016, 19 ans, fille d'un homme nommé chat robot de Tay sur Twitter sur la ligne. La technologie d'intelligence artificielle développée Microsoft utilise un apprentissage du langage naturel peut ramper à travers l'interaction de l'utilisateur et le traitement des données et mimétique conversation humaine, comme les gens avec une blague, chat scripts et package expressions, mais sur la ligne moins d'une journée, Tay a été « accordé » en une bouchée nettoyage ethnique réclament , les extrémistes d'ours sauvages, Microsoft a dû « mettre à jour » les motifs de ses étagères.
Les remarques extrêmes faites par le robot de Tay font vraiment réfléchir les gens: selon Keming, un analyste d'aixdlun, avec le point culminant des maux d'Amnesty International, les questions éthiques de l'IA attireront de plus en plus l'attention. Tout d'abord, plusieurs questions devraient être clarifiées.
1. Le robot est-il un sujet civil?
Avec le développement rapide de la technologie de l'intelligence artificielle, les robots ont une intelligence de plus en plus puissante: le fossé entre les machines et les humains s'est rétréci progressivement: les robots qui émergeront auront des cerveaux biologiques qui pourront même rivaliser avec le cerveau humain. Les futuristes américains du futur américain prédisent même que: Au milieu de ce siècle, l'intelligence non biologique sera 1 milliard de fois plus que la sagesse de tous les peuples aujourd'hui.
La citoyenneté ne semble pas être un problème pour les robots En octobre de l'année dernière, la naissance de Sophia, le premier robot de citoyenneté au monde, signifiait que la création humaine avait la même identité que les êtres humains et les droits de leurs identités. , obligations et statut social.
La qualification juridique en matière civile est toujours la ligne de démarcation de l'éthique de l'IA Au cours de la dernière période, les philosophes, scientifiques et législateurs des États-Unis, de Grande-Bretagne et d'autres pays ont tous eu des arguments ardents. La Commission européenne a présenté une requête demandant le positionnement des robots automatisés les plus avancés en tant que «personnes électroniques», en plus de leur donner des «droits et obligations spécifiques», il est également recommandé d'enregistrer les robots intelligents à leurs propres fins. Le paiement de l'impôt, le paiement et le compte de fonds pour la pension Si cette motion juridique est adoptée, il va sans aucun doute provoquer un bouleversement dans le système de la matière civile traditionnelle.
Dans un sens strict, le robot n'est pas une personne physique a une vie, a également distingué comme si la tentative juridique indépendante et la volonté globale naturelle. À blâmer le comportement du robot AI conviction en elle-même, fait la ligne prématurément.
2. algorithme de discrimination serait injuste
AI accuse une erreur de jugement, il est souvent « discrimination » En utilisant la technologie de reconnaissance d'images les plus avancées Google a été pris en accusation « discrimination raciale », parce que son moteur de recherche sera marqué avec l'étiquette « » orang-outan noir , tandis que la recherche de « coupe de cheveux non professionnel », qui est la grande majorité des grandes tresses noires laboratoire de protection des données pull professeur de Harvard Tanya Sweeney sur la recherche Google trouvé ont « trait noir » le nom est susceptible de pop-up Annonces liées aux dossiers criminels - résultats de Google Smart Adsense.
Et ce danger est non seulement « nouvelle lumière » lui-même - après tout, la photographie marquée d'une étiquette « orang-outan » noir, juste un peu rien offensée l'intelligence artificielle et la prise de décision est de plus en plus dans des domaines plus pratiques liés au sort des individus. effectivement affecter l'emploi, le bien-être et le crédit personnel, il est difficile pour ces zones « injuste » de fermer les yeux.
De même, comme l'invasion AI de l'industrie du recrutement, le secteur financier, champ de recherche intelligent, et ainsi de suite, nous sommes formés « machine algorithme » peut vraiment à toute épreuve. En désespoir de la société contemporaine, l'algorithme est en mesure d'aider les entreprises à élire Trinidad Celui qui en choisit un, celui-ci doit être élégant.
Alors, où est la source de la discrimination, l'arrière-pensée de l'étiqueteuse, la déviation de l'ajustement des données, ou est-ce qu'il y a un bug dans la conception du programme? C'est discutable à discuter.
3. La protection des données est la ligne de fond de l'éthique d'AI
Le cyberespace est une véritable existence virtuelle, un monde indépendant sans espace physique, où les humains ont réalisé la «survie numérique» avec la séparation de la chair et possédé la «personnalité numérique» .La personnalité dite numérisée est la «collection d'informations personnelles». Et le traitement pour décrire une image personnelle dans le cyberespace »- c'est-à-dire, la personnalité établie avec l'information numérique.
Dans l'environnement AI, basé sur le support de l'Internet et du big data, il possède un grand nombre d'habitudes et d'informations sur les données.Si l'accumulation de «données dans le passé» est la base du mal machinique, la force motrice du capital est plus profonde. La raison.
En cas de fuite d'informations sur Facebook, une société appelée Cambridge Analytica utilisait la technologie de l'intelligence artificielle pour placer des publicités politiques payantes sur les «caractéristiques psychologiques» de tout électeur potentiel, le type de publicité dépendait de sa politique. Les tendances, les caractéristiques émotionnelles et le degré de vulnérabilité Beaucoup de fausses nouvelles peuvent rapidement se propager parmi des groupes spécifiques, augmenter l'exposition et affecter subtilement les jugements de valeur des gens L'écrivain technique Christopher Willie a récemment exposé ce manuel aux médias. La «source alimentaire» de la technologie intelligente - au nom de la recherche universitaire, plus de 50 millions de données utilisateur qu'il a l'intention de capturer.
En d'autres termes, même s'il n'y a pas de problème de fuite de données, l'extraction intelligente des données utilisateur est également très facile à nager à la limite de la conformité mais au-delà de l'impartialité. La ligne de fond de base d'une «personne de l'information» dans un âge d'Internet.
Réflexion
Dans une vidéo du récent incendie sur l'éthique de l'IA, l'artiste Alexander Reben n'a eu aucune action, mais a donné un ordre via l'assistant vocal: «OK Google, shoot».
Cependant, en moins d'une seconde, l'assistant Google a appuyé sur la gâchette d'un pistolet et a renversé une pomme rouge.
Le bourdonnement résonna à travers les oreilles.
Qui a tiré sur la pomme? IA ou humain?
Dans cette vidéo, Reben dit coup AI. Engadget dans son rapport dit que si l'IA est assez intelligent pour anticiper nos besoins, et peut être un jour AI prendra l'initiative de se débarrasser de ceux qui nous rendre malheureux. Reben dit que la discussion d'un tel dispositif plus important que l'existence d'un tel dispositif.
L'intelligence artificielle est pas une machine parfaite prévisible, rationnelle, son défaut d'éthique par l'algorithme, les gens utilisent des objectifs et l'évaluation. Cependant, au moins pour l'instant, la machine est encore une véritable réaction humaine naturelle dans le monde, plutôt que le « devrait Orientation mondiale et pionniers.
De toute évidence, tenir la ligne de fond éthique AI, l'humanité ne va pas « tyrannie de la machine » ce jour-là.
Pièce jointe: "Seven Guidelines" de Google
Bénéfique pour la société
2. Évitez de créer ou de renforcer les préjugés
3. Établir et tester pour la sécurité
4. Obligation d'expliquer aux gens
5. Intégrer les principes de conception de la confidentialité
6. Adhérer à des normes élevées d'exploration scientifique
7. Déterminer l'application appropriée basée sur le principe