Das EPFL-Forschungsteam identifiziert Möglichkeiten, um zu verhindern, dass AI menschlichen Befehlen ausweicht

AI Maschine wird eine bestimmte Aktion, Beobachtung, durchführen und dann Verhalten entsprechend anpassen. Nach den neu beobachteten Ergebnisse, stellen Sie das Verhalten wieder, und wiederholen Sie den Vorgang ab, dies zu lernen, aber dieser Prozess ist außer Kontrolle wahrscheinlich. Eidgenössischen Technischen Hochschule in Lausanne (EPFL) verteilt Programmierung Labor (Distributed Programming Labor) Professor Rachid Guerraoui Darstellung wird AI immer versuchen, menschliche Eingriffe zu vermeiden, so dass der AI-Ingenieur soll die Maschine schließlich lernen, verhindern, wie die menschlichen Befehl zu vermeiden. nach Science berichteten, dass ist spezialisiert auf EPFL Forscherteam hat entdeckt, wie dieses Problem ermöglicht es dem Bediener eine Gruppe von Robotern KI-Methoden zu kontrollieren, und in der neuronalen Informationsverarbeitungssystem organisiert von Kalifornien (NIPS) Konferenz über den Bericht veröffentlicht. die Forschung die Entwicklung von Selbstfahr ist und UAVs leisten einen wesentlichen Beitrag in großen Stückzahlen zu machen und sicher Betriebsverstärkendes Lernen ist eine der Methoden des maschinellen Lernens, bei denen KI die korrekte Ausführung bestimmter Verhaltensweisen belohnt, beispielsweise wenn ein Roboter eine Reihe von Kisten richtig aufstapelt Sie können punkten, bewegen Sie die Box von der Außenwelt kann aber wenn die Außenseite regnet, Maschine Wenn die Leute außerhalb Ban Xiangzi gehen Betreiber Betrieb des Roboters unterbrechen wird, so wird der Roboter schließlich den besten Aufenthalt lernen drinnen stapeln die Box, um mehr Punkte zu bekommen. Sagte Guerraoui die eigentliche Herausforderung der Betrieb des Roboters nicht zu unterbrechen, aber zu schreiben Programm, werden die Menschen nicht für die Intervention des Lernprozesses ändern, es wird nicht induzieren Verhalten zu optimieren Menschen aufhören zu vermeiden. 2016, Institut für die Zukunft der Universität Oxford und DeepMind menschliches Google (Zukunft der Menschheit Institute) Forscher zu entwickeln eine Studie des Protokolls verhindert, dass die Maschine, z. B. in dem obigen Beispiel, wenn die draußen regnet, wird der Roboter gewichtet Punktzahl, ein größerer Anreiz, den Roboter außerhalb der Box zu holen. Guerraoui unkontrollierbar wird unterbrochen wird ausgedrückt, diese Lösung ist sehr einfach, da nur ein Roboterhandling. Allerdings AI oft in Anwendungen verwendet wird Dutzende mehr in Maschinen, wie Selbstfahr oder UAVs. die Studie Co-Autor Alexandre Maurer beteiligt, sagte, es macht Die Dinge werden komplizierter, weil Maschinen voneinander lernen, besonders wenn sie unterbrochen werden, ein anderer Mitforscher, Hadrien Hendrikx Zwei Auto als ein Beispiel, bei der zwei Autos auf den schmalen Straßen, die nicht Art und Weise miteinander geben. Sie werden, ohne die Verkehrsregeln verstoßen, das Ziel so schnell wie möglich zu erreichen, während Insassen Kontrolle jederzeit erfolgen können. Wenn das erste Auto aus wo die Menschen oft Bremse fahren, das zweite Auto jedes Mal, ihr Verhalten anzupassen, wenn die endgültige Bremsung wird, oder kann aus dem ersten Auto zu schließen oder öffnen sich zu langsam. EPFL-Forscher verwechselt werden wollte durch die Sicherheitskontrolle passieren Interrupt (sichere Unterbrechbarkeit) diese komplexe Situation zu lösen. die Methoden AI Lernprozess Menschen ermöglichen, zu unterbrechen, wenn nötig, während sichergestellt wird, dass Interrupt-Verhalten für das Lernen nicht den AI Ansatz ändern. die anderen Autoren der Studie El Mahdi El Mhamdi sagte, als sie Lernalgorithmen Mechanism vergessen, einige Erinnerungen aus der Natur der AI entfernen. mit anderen Worten, beeinflussen die Forscher geändert AI Lernen und Belohnungssystem, so dass ohne Unterbrechung Einfluss, wie Eltern ein Kind zu bestrafen, und nicht die anderen Kinder der Familie Lernprozess Maurer sagte, das Team habe die vorhandenen Algorithmen untersucht und festgestellt, dass unabhängig von der Komplexität des KI-Systems, der Anzahl der beteiligten Roboter oder Arten von Interrupts die Safe-Interrupt-Methode verwendet wird Und es kann mit dem Terminator (Terminator) zusammen verwendet werden, die Ergebnisse die gleichen bleiben jetzt verwenden Verstärkung Selbst maschinelles Lernen ist nicht üblich. Sagte El Mhamdi die Folgen sehr kleine Fehler, dieses System sehr gut funktioniert.

2016 GoodChinaBrand | ICP: 12011751 | China Exports