Come ottenere l'intelligenza artificiale da pregiudizio?

L'autore discute i vari pregiudizi che possono essere aggiunti all'intelligenza artificiale e alle applicazioni di machine learning tra intenzionale e non intenzionale ...

Abbiamo visto tutti la macchina filmato controlla il mondo, e la distruzione della scena umana. Per fortuna, questi film solo di intrattenimento, la vita reale, queste scenario inverosimile non sta per accadere. Tuttavia, un problema pratico Va notato che : bias algoritmico (bias algoritmico).

Il cosiddetto "pregiudizio algoritmico" si riferisce al pregiudizio di un progettista o sviluppatore nella programmazione che sembra essere malevolo, oppure i dati utilizzati sono di parte, il risultato pone naturalmente una serie di problemi. Ad esempio, la ricerca di Google è stata male interpretata, i candidati qualificati non potevano entrare nella scuola di medicina, i robot di chat diffondevano il razzismo e le informazioni sulla discriminazione sessuale su Twitter.

La "gente del villaggio" della rete è troppo potente: il robot della chat di Microsoft alla Tay è stato insegnato a discriminare la razza per 1 giorno. Microsoft le ha permesso di "fare silenzio" ...

Uno dei problemi più spinosi causato dal bias algoritmico è che gli ingegneri impegnati nella programmazione possono creare pregiudizi anche se non sono discriminatori di razza, genere o età. L'intelligenza artificiale (AI) è essenzialmente progettata per apprendere da sola, a volte Ovviamente, possiamo apportare degli aggiustamenti in seguito, ma la soluzione migliore è impedire che ciò accada, quindi, come possiamo rendere l'IA imparziale?

Ironia della sorte, una delle possibilità più interessanti che l'intelligenza artificiale è: un mondo senza pregiudizi umani, per esempio, quando si tratta di assunzione del personale, attraverso l'algoritmo in grado di rendere gli uomini e le donne uguali a presentare domanda per lo stesso lavoro. trattamento, o evitare il verificarsi di discriminazione razziale in polizia.

Indipendentemente dal fatto che le persone sono consapevoli del fatto che la macchina creazione umana, riflettono come la gente vede il mondo, quindi, avrà una visione del mondo simile e gli stereotipi, perché di intelligenza artificiale sempre più profondamente nella vita, dobbiamo prestare attenzione a questo problema.

Un'altra sfida che l'intelligenza artificiale affronta è che il pregiudizio non è una singola forma, ma esiste piuttosto in vari tipi, compresi pregiudizi interattivi, pregiudizi subconsci, distorsioni di selezione, pregiudizi orientati ai dati e pregiudizi di conferma.

Vari tipi di polarizzazione AI

"Interaction Bias" si riferisce al bias dell'algoritmo causato dall'interazione dell'utente con l'algoritmo: quando la macchina è impostata per apprendere dall'ambiente circostante, non può decidere quali dati conservare o scartare. O sbagliato, invece possono usare solo i dati forniti a loro - se è buono, cattivo o brutto, possono solo esprimere giudizi basati su questa base. Tay è un esempio di questo tipo di pregiudizio e ha iniziato a diventare razzista a causa dell'influenza di una comunità di chat online.

'Pregiudizi Inconscio' significa algoritmo equivoco collegarsi con razza e di genere e di altri fattori. Ad esempio, durante la ricerca per la fotografia di un medico, l'intelligenza artificiale sarà la prima mostra di quadri di medici di sesso maschile, non donne medici, e viceversa Tuttavia, durante la ricerca di un infermiere, si verifica una situazione simile.

'Bias di selezione' significa algoritmo a causa dell'influenza dei dati, con conseguente anche zoomare su un gruppo o gruppi, in modo che gli algoritmi a loro favore, ma a scapito di altri gruppi. Per il personale di reclutamento, per esempio, se AI è addestrati a individuare solo gli uomini riprendono, poi i cercatori di lavoro femminile durante il processo di applicazione, è difficile avere successo.

Il "pregiudizio orientato ai dati" si riferisce al fatto che i dati originali utilizzati per addestrare l'algoritmo sono stati pregiudicati: le macchine sono come i bambini: non mettono in discussione i dati che ricevono, semplicemente cercano i modelli in essi contenuti. Essendo distorto, anche il risultato del suo output rifletterà questo.

L'ultimo tipo è "bias di conferma", che è simile al bias orientato ai dati, che pregiudica quelle informazioni preconcette, che influenzano il modo in cui le persone raccolgono informazioni e interpretano le informazioni, ad esempio, se si ritiene che le persone siano nate in agosto. Le persone nate più di altri mesi sono più creative e tendono a cercare dati che rafforzino questa idea.

Quando sappiamo che ci sono tanti pregiudizi che possono infiltrarsi in un'istanza di un sistema di intelligenza artificiale, sembra essere molto preoccupante, ma è importante riconoscere il fatto che il mondo stesso è di parte, quindi, in alcuni casi, abbiamo l'intelligenza artificiale. I risultati forniti non sono sorprendenti, tuttavia, questo non dovrebbe essere il caso: abbiamo bisogno di un processo per testare e validare algoritmi e sistemi di intelligenza artificiale per rilevare i pregiudizi nelle prime fasi di sviluppo e prima della distribuzione.

La differenza tra l'algoritmo e l'essere umano è che non mente, quindi, se il risultato è distorto, ci deve essere una ragione, cioè dati correlati all'algoritmo: gli esseri umani possono mentire e spiegare il motivo per cui non assumono qualcuno. ma l'intelligenza artificiale potrebbe non essere così. Utilizzando un algoritmo, potremmo sapere quando ci saranno dei pregiudizi e regolarlo in modo da poterli superare in futuro.

L'intelligenza artificiale può imparare e commettere errori, di solito è solo dopo che è stato usato l'algoritmo che tutti i pregiudizi interni possono essere scoperti perché questi pregiudizi sono ingranditi, piuttosto che considerare l'algoritmo come una minaccia, è meglio considerarlo una soluzione. Una buona opportunità per tutte le domande di pregiudizio e correggerle se necessario.

Siamo in grado di sviluppare sistemi per rilevare decisioni tendenziose e intraprendere azioni tempestive. Rispetto agli esseri umani, l'intelligenza artificiale è particolarmente adatta per i metodi bayesiani per determinare la probabilità di un'ipotesi ed eliminare tutti i possibili Il pregiudizio umano: è complicato, ma è fattibile, soprattutto considerando l'importanza dell'intelligenza artificiale, e diventerà sempre più importante nei prossimi anni: è una cosa irresponsabile.

Con lo sviluppo dei sistemi di intelligenza artificiale, è importante capire come funziona per renderlo consapevole attraverso la progettazione e per evitare potenziali pregiudizi in futuro.Non dimenticare che anche se l'intelligenza artificiale si sta sviluppando molto rapidamente, è ancora Nella fase iniziale, ci sono molte aree che devono essere studiate e migliorate, questa correzione continuerà per un po 'di tempo e, allo stesso tempo, l'intelligenza artificiale diventerà più intelligente, in futuro ci saranno sempre più modi per superare i pregiudizi e altre questioni. .

Per il settore tecnologico, continuiamo a mettere in discussione le modalità di funzionamento della macchina e il motivo è molto importante, la maggior parte l'intelligenza artificiale è come una scatola nera, il processo decisionale è nascosto, ma pubblica e la trasparenza di intelligenza artificiale, è stabilito fiducia e di evitare incomprensioni della chiave.

In questa fase ci sono molti studi aiuto pregiudizio di identificazione dei prodotti, come ad esempio lo studio Fraunhofer Heinrich Hertz Institute, si sono concentrati sulla distinguere diversi tipi di pregiudizi, pregiudizi come il suddetto, così come più pregiudizi 'basso livello', e un po ' problemi che possono sorgere nel processo di formazione e lo sviluppo dell'intelligenza artificiale.

D'altra parte, abbiamo bisogno di pensare è la formazione non supervisionato (formazione senza supervisione), e ora, la maggior parte dei modelli sono sviluppati dall'intelligenza artificiale attraverso la formazione sotto la supervisione, che è solo una raccolta di dati annotati umani senza formazione per l'uso del controllo non ha alcun dato di etichetta, gli algoritmi hanno la loro classificazione, l'identificazione e dati aggregati. questo metodo è di solito diversi ordini di grandezza più lento di velocità di apprendimento supervisionato, ma questo metodo è relativamente limitato l'intervento umano, in modo da Può eliminare qualsiasi pregiudizio umano conscio o inconscio ed evitare l'impatto sui dati.

Ci sono anche molte cose che possono essere migliorate in termini di infrastrutture: quando si sviluppano nuovi prodotti, siti Web o funzionalità, le aziende tecnologiche hanno bisogno di persone di talento in tutti i campi, la diversificazione fornirà una varietà di dati per l'algoritmo, ma anche involontariamente Questi dati sono di parte: se qualcuno analizza l'output, la probabilità di trovare pregiudizi sarà piuttosto alta.

In aggiunta, ci sono altri algoritmi ruolo della revisione contabile. 2016, Carnegie Mellon University (Carnegie Mellon University) di un gruppo di ricerca degli Stati Uniti ha trovato un lavoro nella pubblicità in un pregiudizio algoritmi di rete, sono elencati nella rete, la pubblicità di Google Un elenco di persone in cerca di lavoro dimostra che la proporzione maschile di lavoro ad alto reddito è quasi sei volte quella delle donne e il team di ricerca ha concluso che se gli audit algoritmici interni vengono condotti per primi, contribuirà a ridurre tali pregiudizi.

In breve, il pregiudizio della macchina è il pregiudizio umano: ci sono molti tipi di pregiudizi sull'intelligenza artificiale, ma in realtà proviene da un'unica fonte: gli umani.

La chiave è che le società tecnologiche, gli ingegneri e gli sviluppatori dovrebbero adottare misure efficaci per evitare di produrre inavvertitamente algoritmi distorti.Attraverso il controllo degli algoritmi e mantenendoli sempre aperti e trasparenti, abbiamo la certezza che possiamo fare l'intelligenza artificiale. Algoritmo per sbarazzarsi dei pregiudizi.

2016 GoodChinaBrand | ICP: 12011751 | China Exports