Wie bekomme ich AI aus Voreingenommenheit?

Der Autor diskutiert verschiedene Vorurteile, die zu künstlichen Intelligenz und maschinellen Lernanwendungen zwischen beabsichtigten und unbeabsichtigten ...

Wir alle haben die Szene gesehen, in der die Maschine die Welt und die Zerstörung der Menschen kontrollierte. Glücklicherweise sind diese Filme nur Unterhaltung. Im wirklichen Leben werden diese erzwungenen Szenen nicht passieren. Jedoch ist eines der praktischeren Probleme, die beachtet werden sollten : algorithmische Verzerrung (algorithmische Verzerrung).

Das sogenannte "algorithmische Vorurteil" bezieht sich auf das Vorurteil eines Designers oder Entwicklers in der Programmierung, das bösartig erscheint, oder die verwendeten Daten sind voreingenommen. Das Ergebnis brachte natürlich eine Vielzahl von Problemen mit sich. Zum Beispiel wurde die Google-Suche falsch interpretiert, qualifizierte Kandidaten konnten die medizinische Fakultät nicht betreten, Chat-Bots verbreiteten Informationen über Rassismus und sexuelle Diskriminierung auf Twitter.

Das Netzwerk "Dorfbewohner" ist zu mächtig. Microsofts Chat-Roboter Tay wurde für einen Tag rassistisch diskriminiert. Microsoft erlaubte ihr dringend, "zum Schweigen zu bringen" ...

Ein Algorithmus Vorurteil verursachte schwierigstes Problem besteht darin, dass bei der Programmierung Ingenieuren, auch wenn keine Tendenz hat, Rasse, Geschlecht, Alter und andere Diskriminierung, auch Bias verursachen kann. Künstliche Intelligenz (AI) im Wesentlichen für das Selbststudium konzipiert ist, manchmal es wäre in der Tat falsch. natürlich können wir nach der Tatsache angepasst werden, aber die beste Lösung ist, um es zu starten zu verhindern. so wie Sie es ohne Vorurteile künstliche Intelligenz machen?

Ironischerweise ist eine der aufregendsten Möglichkeiten der künstlichen Intelligenz: Eine Welt ohne menschliche Vorurteile: Wenn es zum Beispiel um die Rekrutierung von Mitarbeitern geht, können Algorithmen eingesetzt werden, um Männer und Frauen bei der Bewerbung für denselben Job gleich zu machen. Behandlung, oder vermeiden Sie Rassismus in der Polizeiarbeit.

Ungeachtet dessen, ob die Menschen sich bewusst sind, dass von Menschen geschaffene Maschinen wirklich widerspiegeln, wie Menschen die Welt sehen, werden sie auch ähnliche Stereotype und Weltanschauungen haben Da künstliche Intelligenz im Leben immer tiefer geht, müssen wir diesem Problem Aufmerksamkeit schenken.

Eine weitere Herausforderung künstliche Intelligenz gegenüber, Vorurteile ist nicht nur eine einzige Form, aber es gibt verschiedene Arten, darunter interaktive Vorurteile, unbewusste Voreingenommenheit, selection bias, datengesteuerte Vorspannung und Bestätigungsneigung.

AI verschiedene Arten von Bias

"Interaktives Vorurteil" bezieht sich auf das Vorurteil des Algorithmus, das durch die Interaktion des Benutzers mit dem Algorithmus verursacht wird. Wenn der Computer so eingestellt ist, dass er von der Umgebung lernt, kann er nicht entscheiden, welche Daten er behalten oder verwerfen soll. Oder falsch, stattdessen können sie nur die ihnen zur Verfügung gestellten Daten verwenden - ob gut, schlecht oder hässlich, kann nur auf Basis dieser Basis Urteile fällen Tay ist ein Beispiel für diese Art von Vorurteilen und begann aufgrund des Einflusses einer Online-Chat-Community rassistisch zu werden.

"Unterschwellige Verzerrung" bezieht sich auf den Algorithmus, der falsche Vorstellungen mit Faktoren wie Rasse und Geschlecht verknüpft: Zum Beispiel zeigt die künstliche Intelligenz bei der Suche nach einem Arztfoto zunächst das Bild eines männlichen Arztes, nicht eines weiblichen Arztes, und umgekehrt. Ähnliche Situationen treten jedoch bei der Suche nach Krankenschwestern auf.

"Selektive Verzerrung" bezieht sich auf einen Algorithmus, der von Daten beeinflusst wird, was zu einer Überverstärkung einer bestimmten Gruppe oder Gruppe führt, so dass der Algorithmus vorteilhaft ist und die Kosten andere Gruppen opfern. Nehmen Sie die Rekrutierung von Mitarbeitern als Beispiel, wenn künstliche Intelligenz vorhanden ist Ausbildung, um nur die Lebensläufe von Männern zu erkennen, dann können Frauen Arbeitssuchende im Bewerbungsprozess kaum erfolgreich sein.

"Data-Oriented Bias" bezieht sich auf die Tatsache, dass die ursprünglichen Daten, die zum Trainieren des Algorithmus verwendet wurden, beeinträchtigt wurden. Maschinen sind wie Kinder: Sie stellen die empfangenen Daten nicht in Frage, sondern suchen nur nach Mustern in ihnen Da es verzerrt ist, wird das Ergebnis seiner Ausgabe dies ebenfalls widerspiegeln.

Die letzte Art ist eine "Bestätigungsverzerrung", die der datenorientierten Voreingenommenheit ähnelt. Sie beeinflusst diese vorgefassten Informationen. Eine solche Voreingenommenheit wirkt sich darauf aus, wie Personen Informationen sammeln und wie sie Informationen interpretieren. Zum Beispiel, wenn Sie glauben, dass Menschen im August geboren wurden. Menschen, die mehr als in anderen Monaten geboren sind, sind kreativer und suchen nach Daten, die diese Idee verstärken.

Wenn wir wissen, dass es so viele Vorurteile gibt, die eine Instanz eines Systems künstlicher Intelligenz infiltrieren, scheint es sehr beunruhigend zu sein, aber es ist wichtig zu erkennen, dass die Welt selbst voreingenommen ist und wir daher künstliche Intelligenz haben. Die Ergebnisse sind nicht überraschend, aber das sollte nicht der Fall sein.Wir brauchen ein Verfahren zum Testen und Validieren von Algorithmen und Systemen für künstliche Intelligenz, um Vorurteile frühzeitig in der Entwicklung und vor dem Einsatz zu erkennen.

Der Unterschied zwischen dem Algorithmus und dem Menschen besteht darin, dass es nicht lügt.Daher, wenn das Ergebnis verzerrt ist, muss es einen Grund geben, das heißt, die Daten, die durch den Algorithmus erhalten werden. Menschen können lügen und erklären, warum sie niemanden einstellen. Aber künstliche Intelligenz ist vielleicht nicht so: Mit Hilfe von Algorithmen können wir wissen, wann Vorurteile auftreten, und sie so anpassen, dass wir diese Probleme in Zukunft überwinden können.

Künstliche Intelligenz kann lernen und Fehler machen: Erst nachdem der eigentliche Algorithmus verwendet wurde, können alle internen Vorurteile gefunden werden, weil diese Vorurteile verstärkt werden: Statt den Algorithmus als Bedrohung zu behandeln, ist es besser, ihn als Lösung zu betrachten. Eine gute Gelegenheit für alle Vorurteilsfragen und gegebenenfalls korrigieren.

Wir können Systeme entwickeln, um voreingenommene Entscheidungen zu erkennen und rechtzeitig Maßnahmen zu ergreifen.Im Vergleich zu Menschen ist künstliche Intelligenz besonders geeignet für Bayes'sche Methoden, um die Wahrscheinlichkeit einer Hypothese zu bestimmen und alles Mögliche zu eliminieren Menschliche Vorurteile: Das ist kompliziert, aber vor allem angesichts der Bedeutung künstlicher Intelligenz machbar, und es wird in den kommenden Jahren immer wichtiger werden - eine unverantwortliche Aufgabe.

Bei der Entwicklung von Systemen künstlicher Intelligenz ist es wichtig zu verstehen, wie es funktioniert, um es durch Design bewusst zu machen und potenzielle Vorurteile in der Zukunft zu vermeiden.Vergessen Sie nicht, dass sich künstliche Intelligenz zwar sehr schnell entwickelt, aber immer noch ist In der Anfangsphase gibt es viele Bereiche, die untersucht und verbessert werden müssen - diese Anpassung wird noch einige Zeit andauern, gleichzeitig wird die künstliche Intelligenz schlauer und es wird in Zukunft immer mehr Möglichkeiten geben, Vorurteile und andere Probleme zu überwinden. .

Für die Wissenschafts- und Technologieindustrie ist es sehr wichtig, die Operationsmethoden und -gründe der Maschinen ständig zu hinterfragen, da die meisten der künstlichen Intelligenz wie Black-Box-Operationen sind, der Entscheidungsprozess verborgen ist, aber Offenheit und Transparenz der künstlichen Intelligenz etabliert sind. Der Schlüssel zum Vertrauen und zur Vermeidung von Missverständnissen.

An dieser Stelle gibt es viele Studien, die dazu beigetragen haben, Vorurteile wie die des Fraunhofer Heinrich-Hertz-Instituts zu identifizieren und verschiedene Vorurteile, wie die oben genannten Vorurteile, und mehr Vorurteile auf der "unteren Ebene" zu identifizieren. Probleme, die während des Trainings und der Entwicklung künstlicher Intelligenz auftreten können.

Auf der anderen Seite muss unbeaufsichtigtes Training in Betracht gezogen werden: Heutzutage werden die meisten Modelle künstlicher Intelligenz durch überwachtes Training entwickelt, dh nur die Daten, die von Menschen beschriftet werden, werden gesammelt. Beim überwachten Training mit unmarkierten Daten muss sich der Algorithmus selbst sortieren, identifizieren und aggregieren, wobei diese Methode meist mehrere Größenordnungen langsamer ist als das überwachte Lernen, aber diese Methode schränkt den menschlichen Eingriff relativ ein. Kann jede bewusste oder unbewusste menschliche Voreingenommenheit beseitigen und Auswirkungen auf die Daten vermeiden.

Es gibt auch viele Dinge, die in Bezug auf die Infrastruktur verbessert werden können.Technische Unternehmen benötigen bei der Entwicklung neuer Produkte, Websites oder Funktionen talentierte Mitarbeiter in allen Bereichen.Ein Diversifizierung wird eine Vielzahl von Daten für den Algorithmus bereitstellen, dies wird jedoch auch unabsichtlich geschehen Diese Daten sind voreingenommen: Wenn jemand die Ausgabe analysiert, ist die Wahrscheinlichkeit, Vorurteile zu finden, ziemlich hoch.

Darüber hinaus hat das algorithmische Auditing noch andere Rollen: Im Jahr 2016 entdeckte ein Forscherteam der Carnegie Mellon University in den USA algorithmische Verzerrungen in Online-Stellenanzeigen, die im Internet unter Google Advertising aufgelistet wurden. Eine Liste von Personen, die Arbeit suchen, zeigt, dass der Anteil der Männer an einkommensstarken Jobs fast sechsmal so hoch ist wie der von Frauen selbst. Das Forscherteam kam zu dem Schluss, dass, wenn interne algorithmische Audits durchgeführt werden, solche Vorurteile reduziert werden.

Kurz gesagt, Maschinenvorurteile stellen ein menschliches Vorurteil dar. Es gibt viele Arten von Vorurteilen bei künstlicher Intelligenz, aber tatsächlich kommt es nur aus einer Quelle: dem Menschen.

Der Schlüssel liegt darin, dass Technologieunternehmen, Ingenieure und Entwickler wirksame Maßnahmen ergreifen sollten, um zu vermeiden, dass unvoreingenommene Algorithmen erzeugt werden.Von der Überprüfung von Algorithmen und deren Offenheit und Transparenz sind wir überzeugt, dass wir künstliche Intelligenz ermöglichen können. Algorithmus, um Vorurteile loszuwerden.

2016 GoodChinaBrand | ICP: 12011751 | China Exports