Ricercatori americani che testano l'accuratezza della tecnologia di riconoscimento facciale introdotta da IBM e Microsoft hanno scoperto che i servizi testati erano più accurati nel colore bianco e meno accurati nelle persone di colore scuro. Il rapporto afferma che la ragione di ciò è che sull'algoritmo formazione originale esperti di popolazione carnagione meno scuro chiamato anche per l'industria nella precisione del riconoscimento corrente delle informazioni dovrebbe essere reso più trasparente. Secondo i rapporti Wired, i ricercatori hanno testato su Microsoft e IBM identificare fotografia del volto di servizi di analisi di genere, i risultati l'azienda ha trovato che l'algoritmo di riconoscimento di colore rispetto agli uomini bianchi quasi il cento per cento di precisione, ma l'analisi è spesso sbagliato colore della pelle le donne di colore, il motivo viene analizzato utilizzando tecniche di machine learning per costruire gli algoritmi dei dati di allenamento di carnagione faccia più scura meno passato la classificazione del servizio fotografico di Google avrà un segno nero per gli scimpanzé e la meraviglia mondo esterno, quindi, come garantire che la distribuzione di prodotti di consumo, sistemi di business e programmi di governo nel sistema di apprendimento automatico senza paura, è l'intelligenza artificiale (aI) Campo di argomenti importanti discussi nel rapporto della Georgetown University (Georgetown University) del 2016 ha sottolineato che è stato l'FBI e la polizia locale La tecnologia di riconoscimento facciale è bassa sugli afroamericani. In questo nuovo studio, la ricercatrice del MIT Joy Buolamwini e il ricercatore di Microsoft Timnit Gebru hanno investito nel sistema di riconoscimento 1.270 Europa Con le foto dei parlamentari africani e utilizzando il sistema di classificazione in scala Fitzpatrick per testare Face ++ servizi di riconoscimento facciale da Microsoft, IBM e l'azienda madre di Megvii, ei ricercatori hanno bloccato nei tre tipi di funzionalità di rilevamento del sesso del servizio. si è constatato che questi tre uomini dei servizi affrontano maggiore precisione rispetto alle donne, pelle più bianca è più bene che il colore nero, tutti i servizi per le donne hanno la carnagione scura sulla precisione di tutti Microsoft non ha risposto correttamente agli uomini dalla pelle bianca, con un tasso di errore IBM dello 0,3%, ma il tasso di errore di Microsoft è stato del 21% per i neri e del 35% per IBM e Face ++. on-demand servizio algoritmi di apprendimento automatico è diventato un importante zona calda competitivo, Microsoft, IBM, Google e Amazon (Amazon) sono propaganda cloud è adatto per analizzare le immagini e testo dai compiti significato grammaticale, come Alternative come l'introduzione medica e produzione di capacità di intelligenza artificiale, ma, allo stesso tempo, i clienti sono anche suscettibili di essere costretti ad accettare i suoi limiti. Per le persone non vedenti di sviluppare gli occhiali intelligenti startup Pivothead è l'uso di servizi di Microsoft AI uno dei clienti, Tuttavia, i documenti tecnici di Microsoft hanno notato che l'identificazione di genere, e altre caratteristiche del viso, come l'età, emotivo e attualmente uno sperimentale, non è del tutto esatto. a questo proposito, il capo scienziato di dati presso l'ex presidente degli Stati Uniti Barack Obama (Obama) qualsiasi DJ Patil ha sottolineato che la relazione mette in evidenza l'importanza delle aziende tecnologiche deve garantire che la loro macchina sistemi applicabili su tutti i tipi di esseri umani di apprendimento, ma l'industria deve essere più aperto per i suoi servizi sono ancora restrizioni per quanto riguarda Microsoft è attualmente al centro degli sforzi di machine learning sulle questioni etiche svolgere un ruolo di primo piano in molti dei ricercatori della società sono messi in campo e impostare una IA interna ed Ingegneria e comitato etico di ricerca (Etere). nel 2017 il gruppo è stato coinvolto in attività di audit, l'analisi dell'espressione facciale ha trovato che i servizi cloud di Microsoft sui bambini Scarse prestazioni.