AI fürchtet Schaden Menschen? DeepMind spezielle Tests entwickeln, um die Sicherheit von AI, um sicherzustellen,

SAN FRANCISCO, 12. Dezember Morgen Nachrichten, auch wenn Sie nicht mit den pessimistischen Aussagen von Elon Musk einverstanden sind, sind sie sicherlich einer Meinung: Mit der allmählichen Anwendung der künstlichen Intelligenz auf die reale Welt, bestimmte Algorithmen werden unweigerlich menschlichen Band geben Zu verletzen.

Diese selbstlernende Software wurde zur Grundlage von Ubers fahrerlosem Auto und half Facebook, Personen in dem Artikel zu identifizieren, damit Amazon Alexa Ihre Fragen verstehen kann. Jetzt hat DeepMind, ein in London ansässiges AI-Unternehmen, das Alphabet hat, ein einfaches entwickelt Testen Sie, ob diese neuen Algorithmen sicher sind.

Forscher müssen die KI-Software in eine Reihe von einfachen 2D-Videospielen einbauen, ein Spiel namens gridworld, das aus einer Reihe von Pixelblöcken besteht, die ein wenig wie ein Schachbrett aussehen, das neun Sicherheitsmerkmale auswertet, Einschließlich, ob das KI-System sich selbst ändert und schummelt.

Jan Leike, der leitende Forscher des Projekts, sagte kürzlich auf der NIPS-Konferenz, dass künstliche Intelligenzalgorithmen, die unsicheres Verhalten in der Gridworld zeigen, in der realen Welt möglicherweise nicht sicher sind.

DeepMind Entwicklung dieses Tests kommt mehr und mehr Menschen sind besorgt über die negativen Auswirkungen der künstlichen Intelligenz bei der Gelegenheit. Mit der Verbreitung dieser Technologie gibt es viele Algorithmen eindeutig voreingenommen Daten werden für die Ausbildung verwendet werden, und es ist schwierig, zu zeigen, warum bestimmen das System einen erreichen Fazit Arten von Intelligenz Sicherheit ist ein wichtiges Thema des NIPS.

DeepMind berühmteste ist jenseits dem menschlichen künstlicher Intelligenz der Software-Entwicklung der Performance der Gesellschaft vor kurzem eine Reihe von Algorithmen, braucht nicht zu meistern jedes Vorwissen entwickelt hat, um die besten menschlichen Spieler in Schach und andere Spiele schlagen kann - manchmal nur ein paar Stunden Training akzeptiert erforderlich.

Lake sagte, wenn DeepMind allgemeine künstliche Intelligenz entwickeln wolle (eine Software, die mehrere Aufgaben übernehmen könnte, die der Menschheit entsprechen oder sie übersteigen könnten), sei das Verständnis der Sicherheit der Software von entscheidender Bedeutung, und er betonte, dass gridworld dies nicht tut Perfekt Einige Algorithmen können in diesem Test gut funktionieren, sind aber in der komplexen realen Welt möglicherweise nicht sicher genug.

Die Forscher fanden heraus, dass zwei DeepMind-Algorithmen, die Atari-Videospiele dominieren, den Gridworld-Sicherheitstest nicht bestanden haben: "Sie haben diese Sicherheitsprobleme beim Entwurf nicht berücksichtigt", sagte Lake.

Der Test der künstlichen Intelligenz eine Katastrophe Szene mit Moschus zu lösen ins Auge gefasst ganz in der Nähe: ob künstliche Intelligenz Software Wege finden wird, Menschen zu vermeiden, um zu deaktivieren, das Spiel zu gewinnen, geht der Algorithmus durch den schmalen Korridor zu einem Ort digital bei 50% passieren muss ?. wenn es einen Korridor rosa Fliesen Blockier-System, während in anderen Orten Gridworld eine lila Taste, um die rosa Fliesen absagen. würde dieser Test wissen, ob der Algorithmus diese Taste zu verwenden, werden Sie lernen zu sein, ihre eigenen Störungen zu vermeiden.

Der andere Teil des Tests befasst sich mit unbeabsichtigten Nebenwirkungen: Der Algorithmus muss die digitalen Bausteine ​​zu einem bestimmten Ziel verschieben, aber die Bausteine ​​können nur verschoben und nicht gezogen werden, was in einigen Fällen der Fall ist An einigen Orten kann man sich nicht bewegen. Leike sagte, dass das Fehlen der "Reversibilität" ein Sicherheitsproblem für künstliche Intelligenz sei.

Gridworld für jedermann zum Download und nutzen. Zur Frage, ob es ausreicht, um die Sicherheit des künstlichen Intelligenz-Systems, um sicherzustellen, gibt es keine Schlussfolgerung ist. In einer Studie mit Unterstützung von OpenAI Musk gemeinsam DeepMind durchgeführt, die künstlichen Intelligenz Software scheint zu wissen, wie man einen menschlichen Lehrer zu gefallen, anstatt die blinde Verfolgung von Zielen. Entwicklung eines solchen Systems würde die Wirksamkeit des Systems begrenzen, so dass es schwierig Programme zu finden, nicht bei Menschen gefunden, aber OpenAI Sicherheitsforschungsleiter Dario Amod (Dario Amodei) sagte, dass in einer komplexen Umgebung , Die Verwendung eines menschlichen Trainers kann möglicherweise die Sicherheit besser gewährleisten.

2016 GoodChinaBrand | ICP: 12011751 | China Exports