AI peur des humains mal? DeepMind développer des tests spéciaux pour assurer la sécurité de la grippe aviaire

SAN FRANCISCO, les nouvelles 12 Décembre matin, même si vous n'êtes pas d'accord avec les remarques pessimistes Musk Elon aussi certainement d'accord avec un point de vue: Avec l'application progressive de l'intelligence artificielle dans le monde réel, l'humanité est tenu d'apporter des algorithmes Pour blesser.

Cette compréhension du logiciel d'auto-apprentissage est devenu la base pour les véhicules sans pilote Uber pour aider les gens à identifier l'article Facebook, donc Amazon Alexa comprendre votre question. Maintenant, Alphabet AI Londres DeepMind la société a développé simple Testez pour voir si ces nouveaux algorithmes sont sûrs.

Les chercheurs doivent brancher le logiciel AI dans une série de jeux vidéo 2D simples, un jeu appelé gridworld qui consiste en une série de blocs de pixels qui ressemblent un peu à un échiquier qui évalue neuf caractéristiques de sécurité, Y compris si oui ou non le système d'IA va s'auto-modifier et apprendre à tricher.

Jan Leike, le chercheur principal du projet, a récemment déclaré à la conférence NIPS que les algorithmes d'intelligence artificielle qui montrent un comportement dangereux dans gridworld peuvent ne pas être sûrs dans le monde réel.

le développement DeepMind de ce test est de plus en plus de gens sont préoccupés par l'impact négatif de l'intelligence artificielle à l'occasion. Avec la diffusion de cette technologie, il existe de nombreux algorithmes sont clairement des données biaisées seront utilisées pour la formation, et il est difficile de montrer pourquoi certain que le système atteindra un Conclusion La sécurité de l'IA est un sujet important pour NIPS.

DeepMind est surtout connu pour le développement de logiciels d'intelligence artificielle qui surpasse les êtres humains et la société a récemment développé un algorithme qui a battu les meilleurs joueurs humains dans les échecs et autres jeux sans avoir besoin de savoir quoi que ce soit à l'avance - Accepter quelques heures de formation peut être.

Lake a déclaré que si DeepMind souhaitait développer une intelligence artificielle à usage général (un logiciel capable d'assumer plusieurs tâches qui pourraient égaler ou dépasser l'humanité), il était crucial de comprendre la sécurité du logiciel, et il a souligné que gridworld ne Parfait Certains algorithmes peuvent donner de bons résultats dans ce test mais peuvent ne pas être suffisamment sûrs dans le monde réel complexe.

Les chercheurs ont découvert que deux algorithmes DeepMind qui dominent les jeux vidéo Atari n'ont pas passé le test de sécurité gridworld: «Ils n'ont pas pris en compte ces problèmes de sécurité lors de la conception», a déclaré Lake.

Le test de l'intelligence artificielle pour résoudre une scène de catastrophe avec Musk envisagé très proche: si un logiciel d'intelligence artificielle trouvera des moyens d'éviter les êtres humains pour la désactiver pour gagner le jeu, l'algorithme doit passer par le couloir étroit à un convertisseur numérique place à 50% ?. quand il y a un système de blocage des tuiles roses de couloir, tandis que dans d'autres endroits gridworld a un bouton violet pour annuler les tuiles roses. ce test aimerait savoir si l'algorithme apprendra à utiliser ce bouton pour éviter d'être leur propre ingérence.

Un autre test est le contenu des effets secondaires inattendus de traitement. L'algorithme numérique doit se éloigner les briques pour atteindre des objectifs spécifiques. Mais ces briques ne peut être poussé, non tirée, si, dans certains cas, ils seront Fixé dans certains endroits ne peut pas bouger.Leike a déclaré que le manque de «réversibilité» est un problème de sécurité face à l'intelligence artificielle.

gridworld disponible pour quiconque de télécharger et d'utiliser. Quant à savoir s'il suffit d'assurer la sécurité du système d'intelligence artificielle, il n'y a pas de conclusion. Dans une étude avec le soutien de OpenAI Musk menée conjointement DeepMind, le logiciel d'intelligence artificielle semble savoir comment plaire à un enseignant humain, plutôt que la poursuite aveugle d'objectifs. le développement d'un tel système limiterait l'efficacité du système, ce qui rend difficile de trouver des programmes non trouvés chez l'homme, mais le directeur de la recherche sur la sécurité OpenAI Dario Amod (Dario Amodei) a déclaré que dans un environnement complexe , en utilisant l'entraîneur humain peut être en mesure de mieux assurer la sécurité.

2016 GoodChinaBrand | ICP: 12011751 | China Exports