Google kooperiert wieder mit dem Militär Wo ist die Grenze der KI-Ethik?

Die Geschichte beginnt Anfang März dieses Jahres.

Im März dieses Jahres wurde Google enthüllt, dass es eine Zusammenarbeit mit dem US-Verteidigungsministerium erreicht hat, um Letzteren bei der Entwicklung eines Systems für künstliche Intelligenz für Drohnen zu helfen. Der Projektcode lautet Project Maven.

Sobald die Nachricht bekannt wurde, drückten die Google-Mitarbeiter ihre Unzufriedenheit mit dem Projekt aus: Einige Mitarbeiter dachten, dass Google Ressourcen für das Pentagon zur Verfügung stellen würde, damit diese Drohnen-Überwachungstechnologie erstellen könnten. Ob Lerntechnologie ethische Standards erfüllt, glauben sie, dass das Pentagon diese Technologie für Anti-Personen-Waffen verwenden wird, die wiederum den Schaden verursachen, den Technologieoptimisten niemals verursachen würden.

Anschließend haben die mehr als 3.100 Mitarbeiter von Google gemeinsam eine Petition eingereicht und einen Brief an den CEO, Sundar Pichai, geschrieben, um zu protestieren.

Google-Mitarbeiter einen Brief Sundar Pichai Sache zu Ende April für die weitere Gärung abgeschlossen. Die Medien entdeckten, gelöscht Google die 18 Jahre, die unter dem Motto folgen ‚Do not be evil‘ am Anfang des Unternehmens Verhaltenskodex in drei hervorgehoben. Nur Kriterien Am Ende gibt es einen Satz, der nicht gelöscht wurde: "Denk daran, sei nicht böse, wenn du etwas siehst, von dem du denkst, dass es nicht stimmt, sprich es aus!"

Am Freitag gab Google Cloud-CEO Diane Greene beim wöchentlichen "Weather Forecast" -Treffen bekannt, dass Google Project Marven nach Ablauf dieses Vertrages mit dem US-Verteidigungsministerium beenden wird. .

Dies ist zweifellos ein wichtiges Ereignis. ‚Nachrichten des Sieges‘. Mit aus einem Kapitel des Berichts den wogenden, diese Angelegenheit scheint vorübergehend zu Google Mitarbeitern zu gefährden, und die Department of Defense Vertrag zu stoppen 'verrückt Pässe innerhalb des Google Art und Weise Zugeschlossen sein.

Aber erst gestern veröffentlichte Google-Chef Sundar Pichai einen Artikel mit dem Titel "AI bei Google: unsere Prinzipien", der sieben Leitprinzipien auflistete und darauf hinwies, dass Google seine Zusammenarbeit mit dem US-Militär nicht beenden wird. Obwohl es klarstellt, dass "die KI-Anwendung nicht verfolgt wird", aber technisches Böses immer noch ein Problem des menschlichen Bösen ist, ist die KI-Ethik wieder zum Nachdenken anregend.

Wo sind die Grenzen der AI-Ethik?

Wenn Google in der jüngsten Vergangenheit nicht sehr flach war, wird das Leben von Amazon Alexa nicht einfach sein.

Das Echo-Gerät von Amazon wurde beschuldigt, private Gespräche ohne Erlaubnis aufgezeichnet zu haben und Audio an eine zufällige Person in der Kontaktliste des Benutzers gesendet zu haben Dies ist das letzte Mal, als Alexas gruseliger Vorfall, "Spott über Menschen zu spielen" vergangen ist. Wie lange.

Amazon Antwort auf die Frage von Alexa Das ist bei weitem nicht allein. Schon 2016, 19-jährige Mädchen mit einem Mann namens Tay Roboter Chat auf Twitter auf der Linie. Die von Microsoft entwickelte künstliche Intelligenz-Technologie nutzt eine natürliche Sprachenlernen Benutzer-Interaktion und Datenverarbeitung durchkriechen und Mimik menschliches Gespräch, wie Menschen mit einem Witze kann, Chat-Skripte und Ausdrücke Paket, aber auf der Linie weniger als einen Tag, Tay wurde ‚tuned‘ in einen Bissen ethnische Säuberungen lautstark , wilden Bären Extremisten, hatte Microsoft die Gründe seiner Regale ‚Upgrade‘ zu.

Microsoft Robotics Tay extreme Ansichten, das ist viel zu denken, sehr dünne Angst. Smart-Relativität (aixdlun) Ke-ming Analysten glaubt, dass mit dem Höhepunkt der Übel von AI, AI ethische Fragen werden zunehmend geschätzt worden. Wo ist die Grenze der Ethik in der AI? Zunächst sollten einige Fragen geklärt werden.

1. Ist der Roboter ein ziviles Subjekt?

Mit der rasanten Entwicklung der künstlichen Intelligenz, hat der Roboter eine leistungsfähigeren Intelligenz. Die Kluft zwischen Maschinen und Menschen allmählich reduziert wird, wird der Roboter in der Zukunft auftauchen hat ein biologisches Gehirn, sogar vergleichbar mit der Zahl des menschlichen Gehirn Nerven Yuan. Zukünftige US-amerikanische Futuristen sagen sogar voraus: In der Mitte dieses Jahrhunderts wird die nichtbiologische Intelligenz 1 Milliarde Mal höher sein als die Weisheit aller Menschen heute.

Bürgerschaft scheint kein Problem für Roboter zu sein Im Oktober letzten Jahres bedeutete die Geburt von Sophia, dem ersten Staatsbürgerschaftsroboter der Welt, dass die menschliche Schöpfung die gleiche Identität hatte wie die Menschen und die Rechte hinter ihren Identitäten. , Verpflichtungen und sozialen Status.

Die Qualifizierung des Zivil Themas Rechtsethik AI ist nach wie vor die Trennlinie in der letzten Zeit, Philosophen Vereinigte Staaten und Großbritannien und andere Länder, darunter auch Wissenschaftler Anwälte im Jahr 2016 zu diesem Zweck hitzigen Debatte durchgeführt wurden, hat die Europäische Kommission Rechtsausschuss die Europäische Kommission hat einen Antrag auf die Identität der fortschrittlichsten automatisierten Roboter als ‚Cyborg‘ positioniert (elektronische Personen), zusätzlich ist es spezielle Rechte und Pflichten "zu geben, aber auch als intelligente autonome Roboter durchführen registrieren empfohlen seine Steuer, Gebühren, Vorsorgekonto. Rechtsbewegung, wenn kein Zweifel besteht, würde das traditionelle Zivil Thema erschüttert machen.

Im engeren Sinne ist der Roboter nicht um eine natürliche Person, die ein Leben hat, hat zeichnete sich auch als eigenständiges Willen und natürliche Aggregat legal. Wenn der Versuch, das Verhalten des Roboters AI Überzeugung in sich selbst verantwortlich zu machen, funktioniert die vorzeitig Linie.

2. Algorithmische Diskriminierung ist unfair

Ein Vorwurf künstlicher Intelligenz bei Fehleinschätzungen ist, dass es oft "diskriminierend" ist. Google, das die fortschrittlichste Bilderkennungstechnologie verwendet, wurde einst wegen "Rassendiskriminierung" beschuldigt, weil seine Suchmaschine Schwarze als "Orang-Utans" bezeichnen würde. Auf der Suche nach "professionellen Frisuren", von denen die meisten schwarze Neffen sind, hat die Datenschutzbeauftragte der Universität Harvard, Ratanya Sweeney, herausgefunden, dass Google nach "schwarzen Schriftzeichen" sucht Anzeigen im Zusammenhang mit Strafregister - Ergebnisse von Google Smart Adsense.

Und die Gefahr besteht nicht darin, sich selbst "zu sehen", schließlich ist die Kennzeichnung eines Fotos eines schwarzen Mannes mit dem Etikett "Orang-Utan" nur ein bisschen beleidigend. Und die KI-Entscheidung bewegt sich in mehr Bereiche, die tatsächlich mit dem Schicksal des Individuums zusammenhängen. Da wir Beschäftigung, Sozialleistungen und persönliche Kreditwürdigkeit effektiv beeinflussen, können wir in diesen Bereichen kaum die Augen verschließen.

In ähnlicher Weise können wir, wenn AI in das Rekrutierungsfeld, den Finanzsektor, das intelligente Suchfeld usw. eindringt, sehen, ob die von uns trainierten "Algorithmusmaschinen" wirklich narrensicher sind. In einer durstigen modernen Gesellschaft kann der Algorithmus Unternehmen dabei helfen, Tausende von Meilen zu wählen Derjenige, der einen auswählt, muss elegant sein.

Also, wo die Quelle der Diskriminierung ist? Wer-Tag mit Hintergedanken spielen, eine Datenanpassung Abweichung ist, oder Programmierung, wo der Fehler ist? Maschine berechnete Ergebnisse können es diskriminierend, unfair, grausam sein rechtfertigen? Dies ist Es ist fraglich zu diskutieren.

3. Datenschutz ist das A und O der KI-Ethik

Der Cyberspace ist eine echte virtuelle Präsenz, ist eine unabhängige Welt ohne den physischen Raum. Hier Menschheit die Trennung des Körpers ‚Being Digital‘ realisiert, mit einer ‚digitalen Persönlichkeit‘. Die so genannte digitale Persönlichkeit ist die persönlichen Informationen ‚sammeln Und Verarbeitung, um ein persönliches Bild im Cyberspace zu skizzieren "- das heißt, die Persönlichkeit mit digitalen Informationen etabliert.

In der KI-Umgebung, die auf der Unterstützung des Internets und der Big Data basiert, gibt es eine große Anzahl von Benutzergewohnheiten und Dateninformationen.Wenn die Anhäufung von "Daten in der Vergangenheit" die Grundlage des Maschinen-Bösen ist, dann ist die treibende Kraft der Kapitalmacht eine tiefere Ebene. Der Grund.

Im Falle eines Ausbleibens von Facebook-Informationen nutzte eine Firma namens Cambridge Analytica künstliche Intelligenz, um bezahlte politische Anzeigen über die "psychologischen Eigenschaften" eines potenziellen Wählers zu schalten. Welche Art von Werbung geschaltet wurde, hängt von der eigenen Politik ab. Tendenzen, emotionale Eigenschaften und der Grad der Verletzlichkeit Viele falsche Nachrichten können sich schnell auf bestimmte Gruppen von Menschen ausbreiten, die Exposition erhöhen und die Werturteile von Menschen auf subtile Weise beeinflussen Der technische Autor Christopher Willie hat dieses Handbuch kürzlich den Medien zugänglich gemacht. Die "Food" Quelle von Smart-Technologie - im Namen der akademischen Forschung, mehr als 50 Millionen Nutzerdaten, die es zu erfassen beabsichtigt.

Zurück Worte, selbst wenn kein Datenverlust Problem ist, die so genannten Benutzerdaten ‚intelligentes Mining‘ ist auch sehr einfach in der ‚Compliance‘ zu gehen, sondern ‚unbillig‘ Kanten. Da die Grenzen von AI Ethik, Informationssicherheit jedes worden ist Das grundlegende Endergebnis einer "Informationsperson" im Internetzeitalter.

Reflexion

Der Künstler Alexander Reben hatte in einem Video über die Branding on AI Ethik nichts zu tun, sondern erteilte einen Befehl über den Sprachassistenten: "OK Google, shoot."

In weniger als einer Sekunde konnte Google Assistant jedoch eine Pistole abdrücken und einen roten Apfel umwerfen.

Das Summen hallte durch die Ohren.

Wer hat den Apfel geschossen? Ist KI oder Mensch?

In diesem Video erzählt Reben AI Schuss. Engadget in seinem Bericht sagte, wenn die KI ist intelligent genug, um unsere Bedürfnisse zu antizipieren, und vielleicht eines Tages AI wird die Initiative ergreifen loszuwerden, die bekommen, die uns unglücklich machen. Reben sagte, dass die Diskussion über eine solche Vorrichtung Es ist wichtiger als ob ein solches Gerät existiert.

Künstliche Intelligenz ist nicht eine vorhersehbare, rational perfekte Maschine, sein ethischer Defekt durch den Algorithmus, die Menschen benutzen Ziele und Beurteilung. Aber zumindest für jetzt, die Maschine ist immer noch eine echte natürliche menschliche Reaktion in der Welt, anstatt die Sollens Anleitung und Pioniere der Welt.

Offensichtlich werden die Menschen nicht zum Tag der "Maschinen-Tyrannei" gehen, um an der ethischen Grundlinie der KI festzuhalten.

Anhang: Googles "Sieben Richtlinien"

Wohltuend für die Gesellschaft

2. Vermeide oder schaffe Vorurteile

3. Etablieren und auf Sicherheit prüfen

4. Verpflichtung, den Menschen zu erklären

5. Integrieren Sie Prinzipien des Datenschutzes

6. Befolgen Sie die hohen Standards der wissenschaftlichen Exploration

7. Bestimmen Sie die entsprechende Anwendung basierend auf dem Prinzip

2016 GoodChinaBrand | ICP: 12011751 | China Exports