People's Daily: Ein intelligentes Zeitalter der gutartigen Interaktion schaffen

Die potenziellen Sicherheitsrisiken künstlicher Intelligenzalgorithmen, kognitiver Voreingenommenheit, rechtlicher Ethikkonflikte usw. spiegeln häufig echte soziale Defekte wider. Nur durch die Konzentration auf Maschinen und Menschen, die Maschinen verwenden, können wir eine Zukunft schaffen, in der künstliche Intelligenz mit Menschen interagiert.

Stimmenbestellung, Kosten für das Gesicht, unbemanntes Auto für den Heimweg ... Vor mehr als 60 Jahren, als eine Gruppe junger Wissenschaftler erstmals das Konzept der künstlichen Intelligenz vorschlug, hatte sie vielleicht nicht mit den gewaltigen Änderungen gerechnet, die heutzutage dank Berechnungen zu erwarten waren Die Verbesserung der Fähigkeiten, der Antrieb von Big Data und der Durchbruch tiefen Lernens und künstlicher Intelligenz beschleunigen die "Evolution" und verändern zunehmend unsere Produktion und unser Leben.

Technologie ist ein zweischneidiges Schwert, und es sollte beachtet werden, dass künstliche Intelligenz auch beim Triumphieren neue Herausforderungen an die Sicherheit, die Rechtsethik usw. gestellt hat: Einige Experten befürchten beispielsweise, dass künstliche Intelligenz die Grenzen zwischen der virtuellen Welt und der physischen Welt verwischen und sogar umformen könnte Das menschliche Lebensumfeld und die kognitive Form und damit eine Reihe schwieriger moralischer und ethischer Probleme. Der bekannte Physiker Hawking sagte, dass die kurzfristige Wirkung künstlicher Intelligenz von der kontrollierenden Person bestimmt wird, während die langfristige Wirkung von der Arbeit abhängt. Ob die Intelligenz vollständig von Menschen kontrolliert wird.

Aus der Perspektive des technologischen Entwicklungsprozesses und der logischen Logik können diese Bedenken früh aufkommen: Zum Glück sind wir nicht nur in der Debatte, den potenziellen Risiken künstlicher Intelligenz, Wissenschaftlern und Ingenieuren, um Problemen vorzubeugen, von Produktdesignnormen, normativen Beschränkungen usw. In dieser Arbeit wird eine Reihe realisierbarer Schemata zur Steuerung intelligenter Maschinensysteme vorgeschlagen: Angesichts unverständlicher intelligenter Algorithmen und fehlender Maschinenvoreingenommenheit, die durch Transparenz verursacht werden, verstärken die Menschen die Bewertung von Daten, Algorithmen und Modellen, die von künstlicher Intelligenz verwendet werden, um potenzielle Faktoren auszuschalten, die zu Verzerrungen führen können. Für die künftige starke künstliche Intelligenzumgebung, wie die Maschine mit Quasi-Persönlichkeit mit den Menschen zurechtkommen kann, versuchen Wissenschaftler auch, die Einbettung menschlicher Werte und Normen mithilfe intelligenter Algorithmen zu untersuchen, damit sie das gleiche Mitgefühl und die gleiche Verantwortung haben wie Menschen. Schande usw. Wir hoffen, dass, während das Programm für künstliche Intelligenz überwacht wird, der Algorithmus für künstliche Intelligenz dem "guten Gesetz" folgt und die "gute" Seite der menschlichen Moral aufnimmt, wodurch das Risiko der Maschine kontrolliert wird.

Natürlich ist es nicht einfach, ein maschinenrechtliches Ethiksystem aufzubauen. In der realen Sprache, dem reichen Sprachausdruck, kann subtiler emotionaler Reiz von der Maschine verstanden und akzeptiert werden. Ist es möglich, quantitative Indikatoren zu verwenden, um ethische Konzepte wie Gut und Böse zu messen? Algorithmen bestimmen, Standards setzen - dies sind die Herausforderungen, denen wir uns gegen die Entwicklung der künstlichen Intelligenz stellen müssen, aber die Schwierigkeit, Ethik in Maschinen einzubetten, bedeutet nicht, dass wir nur nichts tun können. Die Beurteilung und das Verhalten des maschinellen Lernens hängen oft davon ab. Akzeptierte Informationen Aus diesem Blickwinkel ist künstliche Intelligenz selbst nicht richtig oder falsch. Unter idealen Bedingungen sollte der derzeitige Algorithmus künstlicher Intelligenz, der auf tiefem Lernen basiert, neutral, objektiv und effizient sein, seine potenziellen Sicherheitsrisiken, kognitive Verzerrung, Rechtliche ethische Konflikte usw. sind häufig Ausdruck von sozialen Mängeln, die jedoch auf technologischem Gebiet verstärkt werden, um intelligente Maschinen perfekter zu machen, zusätzlich zur Überprüfung oder Steuerung von Algorithmen durch technische Mittel, was noch wichtiger ist Es geht darum, die reale soziale Umgebung zu sehen, zu verstehen und zu verbessern: Nur wenn Maschine und Benutzer der Maschine aufeinander fokussieren, können wir eine künstliche Intelligenz schaffen Positive Interaktion mit dem Menschen in der Zukunft.

Ethiker sagen, dass das moralische Niveau der künstlichen Intelligenz ein Spiegel sein wird, der die moralische Höhe der menschlichen Zivilisation widerspiegelt: Die menschliche Gesellschaft kann nicht perfekt sein, und auch die Zukunft der maschinellen Intelligenz ist die gleiche: Wir müssen unermüdlich weiter daran arbeiten, besser zu schaffen Die Ära der Intelligenz.

2016 GoodChinaBrand | ICP: 12011751 | China Exports