Wie lehren wir diesen vagen gesunden Menschenverstand von Robotern künstlicher Intelligenz? Viele Forscher haben versucht, dies zu tun, aber schließlich gescheitert. Aber es ist wahrscheinlich, dass sich das bald ändern wird. Derzeit Microsoft-Mitbegründer Paul Allen Nehmen Sie an dieser Projektstudie teil.
Laut der New York Times investiert Allen 125 Millionen Dollar in sein gemeinnütziges Computerlabor, das Allen Artificial Intelligence Institute (AI2), und plant, das Investitionsbudget in den nächsten drei Jahren zu verdoppeln Für bestehende Projekte und das "Alexander-Projekt" ist das letztere eine neue Initiative, die darauf abzielt, die Konzepte des gesunden Menschenverstandes für Roboter zu lehren.
Allen hat auf der Pressekonferenz darauf hingewiesen, dass ich, als ich das AI2-Institut ins Leben rief, hoffe, die Fähigkeiten von Robotern mit künstlicher Intelligenz durch wirkungsvolle Forschung erweitern zu können.In den frühen Stadien der künstlichen Intelligenzforschung haben die Menschen dem Konzept des gesunden Menschenverstandes viel Aufmerksamkeit geschenkt Die Arbeit bleibt stagnierend, Roboter mit künstlicher Intelligenz haben immer noch nicht das Konzept des gesunden Menschenverstandes, das die meisten 10-Jährigen haben.Wir hoffen, diese Forschung zu initiieren und große Durchbrüche in diesem Bereich zu erzielen.
Wenn die Roboter sehr weit fortgeschritten sind, können sie menschliche Aufgaben simulieren, Objekte lokalisieren und identifizieren, klettern, Häuser verkaufen, Katastrophenhilfe leisten usw.
Aber selbst diese fortgeschrittenen Roboter können sich nicht mit einfachen Problemen und Anweisungen auseinandersetzen: Wie gehen sie mit einer ungewöhnlichen Situation um und wie können sie mit "gesundem Menschenverstand" richtiges Verhalten und richtige Antwort korrigieren?
Oren Etzioni, geschäftsführender Direktor des AI2-Instituts, sagte: "Trotz des jüngsten Erfolgs der künstlichen Intelligenz ist es für die künstliche Intelligenz immer noch schwierig, zwischen ihnen zu unterscheiden, aber dies ist für den Menschen sehr einfach. Es gibt derzeit kein System künstlicher Intelligenz, das eine Reihe einfacher Fragen präzise beantwortet, zum Beispiel: Wenn ich Socken in eine Schublade stecke, wird es dann morgen da sein? Oder woher wissen Sie, ob eine Flasche voll ist?
Ezioni betonte zum Beispiel: Als AlphaGo im Jahr 2016 den ersten Schachspieler der Welt besiegt hatte, wusste AlphaGo nicht, dass es ein Brettspiel ist.
Einer der einfachen Gründe, warum wir das Konzept des gesunden Menschenverstandes nicht lehren, ist: "Das Konzept des gesunden Menschenverstandes ist eigentlich sehr schwer zu verstehen." Gary Marcus, Gründer von Geometry Intelligence, lässt sich vom gesunden Menschenverstand und dem abstrakten Denken in der Kinderentwicklung in London inspirieren. Die Forscher des Imperial College konzentrierten sich auf die symbolische Technologie künstlicher Intelligenz, eine Technik, mit der Menschen alles mit künstlicher Intelligenz markieren können.
Bisher hat keine Forschungsstrategie Robotern geholfen, "common sense" -Konzepte zu identifizieren. Das Alexander-Projekt wird einen härteren Ansatz zur Lösung dieses Problems verfolgen und die Forschung in maschinelles Denken und Computervision integrieren und einen gemeinsamen Sinn für Messungen finden. Die Methode.
Gary Marcus, Gründer von Geometry Intelligence, sagte auf der Pressekonferenz, dass ich sehr an dem Alexandria-Projekt interessiert sei und dass es an der Zeit sei, dieses Problem auf neue Art und Weise zu lösen, aber wenn die künstliche Intelligenz sich weiterentwickelt Auf der Bühne und in Verbindung mit weiteren Aspekten des menschlichen Lebens müssen wir die Konzepte des gesunden Menschenverstandes von Robotern lösen. Das aktuelle Alexander-Projekt ist vielleicht der beste Versuch.