Gesichtserkennung Technologie, die Genauigkeit der ungleichmäßigen | anfällig für menschliche Farbe Fehleinschätzung

US-Forscher testen, nachdem IBM und Microsoft und andere Branchen die Genauigkeit der Gesichtserkennungs-Technologie ins Leben gerufen gefunden Abnahmeprüfung Service Genauigkeit auf einer hohen weißen Farbe, die ethnischen Herkunft, die Rasse Schwarz Farbgenauigkeit ist gering. Der Bericht stellt fest, dass der Grund dafür, dass auf dem ursprünglichen Trainingsalgorithmus weniger dunklen Teint Bevölkerungsexperten auch transparent gemacht werden für die Industrie in der aktuellen Erkennungsgenauigkeit der Informationen mehr. Laut Wired berichtet, testeten die Forscher auf Microsoft und IBM Identifizierung Fotografie des Gesichts der Geschlechter Analysen, Ergebnisse genannt sollten das Unternehmen fand heraus, dass der Erkennungsalgorithmus in Farbe als weißen Männer fast hundert Prozent Genauigkeit, aber die Analyse oft falsche Hautfarbe schwarz Frauen ist, ist der Grund, mit Techniken des maschinellen Lernens analysiert, um die Trainingsdaten Algorithmen in dem Gesicht dunkler Teint bauen weniger vorbei Foto-Service Klassifizierung von Google wird eine schwarze Markierung für die Schimpansen und die Außenwelt Wunder also hat, wie sichergestellt wird, dass der Einsatz in Consumer-Produkten, Business-Systemen und Regierungsprogrammen in Maschinenlernsystem ohne Angst, ist die künstliche Intelligenz (KI) wichtige Bereiche der Diskussionsthemen. 2016 Georgetown University (Georgetown University) Bericht darauf hingewiesen hat, die Polizei und das FBI haben schon Die Genauigkeit der Gesichtserkennungs-Technologie ist gering in den afro-amerikanischen Forschern Joy Buolamwini und Microsoft Forscher Timnit Gebru dann in dem Erkennungssystem in der neuen Studie legen, Massachusetts Institute of Technology (MIT) 1270 Blättern von Europa die Mitglieder des African National Congress und Fotos, aber auch die Verwendung von kostenpflichtigen Typ-Skala (Fitzpatrick Skala) Klassifikationssystem. die foto~~POS=TRUNC verwendet wurde, Microsoft, IBM zu testen und Festland Startups Megvii Gesicht ++ ein Gesicht von Cloud-Services zu erkennen, die Forscher Sperren in den drei Arten von Sex-Erkennungsfunktionalität des Dienstes. es, dass diese drei Service-Männer Genauigkeit Gesicht gefunden wurde höher als bei Frauen, weiße Haut mehr gut ist als die schwarze Farbe ist, alle Dienstleistungen für Frauen dunkler Teint auf der Richtigkeit aller hoch ist es nicht. Microsoft vollständige Antwort, wenn Farbe als weißen Männer zu identifizieren, IBM Fehlerrate von 0,3%, aber weiblicher bei der Identifizierung schwärzer, Microsoft-Fehlerrate von 21%, IBM und Gesicht ++ sind 35% kommentiert vorsehen on-Demand-Algorithmen des maschinelle Lernen Service ist zu einer wichtigen Wettbewerb heiße Zone, Microsoft, IBM, Google und Amazon (Amazon) ist worden Propaganda Cloud für die Analyse der Bilder und Texte aus den grammatischen Bedeutung Aufgaben geeignet ist, wie zum Beispiel Alternative wie medizinische und Fertigung Einführung von AI-Fähigkeiten, aber zugleich sind die Kunden auch wahrscheinlich gezwungen werden müssen seine Grenzen zu akzeptieren. Für sehbehinderte Menschen Smart Brille zu entwickeln Startups Pivothead die Verwendung von Microsoft AI Diensten eines Kunden ist, Microsofts technische Dokumente wiesen jedoch darauf hin, dass die Geschlechteridentifikation und andere Gesichtsmerkmale wie Alter, emotionale und zur Zeit eines experimentellen, nicht ganz korrekt ist. in dieser Hinsicht der Hauptdaten Wissenschaftler in dem ehemaligen US-Präsident Barack Obama (Obama) jeden DJ Patil wies darauf hin, dass der Bericht muss die Bedeutung von Technologie-Unternehmen unterstreicht sicherzustellen, dass ihre Maschinensysteme anwendbar auf alle Arten von Menschen zu lernen, aber die Industrie muss auch offen sein für seine Dienste noch Einschränkungen in Bezug auf Microsoft sind derzeit der Fokus auf maschinelles Lernen Bemühungen über die ethischen Fragen spielt eine führende Rolle in viele der Forscher des Unternehmens wird in das Feld gestellt und richtete eine internen AI and Engineering und Forschung Ethikkommission (Äther). im Jahr 2017 die Einheit in Prüfungsarbeiten beteiligt war, Mimik-Analyse festgestellt, dass Microsofts Cloud-Service auf Kinder schlechte Leistung.

2016 GoodChinaBrand | ICP: 12011751 | China Exports