Google collabora di nuovo con i militari, dov'è il confine dell'etica dell'IA?

La storia inizia all'inizio di marzo di quest'anno.

Nel marzo di quest'anno, Google ha svelato di aver raggiunto una collaborazione con il Dipartimento della Difesa statunitense per aiutare quest'ultimo a sviluppare un sistema di intelligenza artificiale per i droni. Il codice del progetto è Project Maven.

Non appena la notizia è stata interrotta, i dipendenti di Google hanno espresso una forte insoddisfazione per il progetto: alcuni dipendenti hanno pensato che Google stesse aprendo risorse per il Pentagono per aiutare quest'ultima a creare tecnologie di sorveglianza dei droni, altri hanno contestato l'utilizzo della macchina da parte di Google. Se l'apprendimento della tecnologia incontra standard etici, essi credono che il Pentagono utilizzerà questa tecnologia per le armi antiuomo, che a loro volta causeranno il danno che gli ottimisti della tecnologia non vorranno mai causare.

Successivamente, Google più di 3100 dipendenti hanno firmato una petizione, una lettera al CEO Sandahl · Pichardo Iraq (Sundar Pichai), in segno di protesta.

dipendenti di Google hanno firmato una lettera Sundar Pichai cosa alla fine di aprile per una ulteriore fermentazione. I media hanno scoperto, Google ha cancellato i diciotto anni che seguono il motto 'Non essere cattivo' ha sottolineato all'inizio del codice di condotta aziendale in tre. Solo criteri alla fine, ci sono stati frase ancora non cancellato: 'Ricordate, non essere cattivo, se si vede qualcosa che si pensa non è la cosa giusta, dire ad alta voce!'

Venerdì scorso, riunione ordinaria settimanale 'previsioni meteo', Google Cloud CEO Diane Greene (Diane Greene) ha annunciato, Google si concluderà collaborazione con il Dipartimento della Difesa statunitense dopo la scadenza del progetto Maven .

Questo è senza dubbio un grande evento. 'La notizia della vittoria'. Con l'aumento di un capitolo del rapporto, la questione sembra temporaneamente a Google 'dipendenti al compromesso, e per fermare il Dipartimento della Difesa contratto' Incredibile leggerezza all'interno del modo in cui Google Essere chiuso

Ma proprio ieri, il CEO di Google Sundar Pichai ha pubblicato un articolo intitolato "AI su Google: i nostri principi", che elencava sette principi guida e ha sottolineato che Google non interromperà la sua cooperazione con l'esercito americano. Sebbene chiarisca "l'applicazione dell'IA che non verrà perseguita", ma il male tecnico è ancora un problema del male umano, l'etica dell'IA è ancora una volta stimolante.

Dove sono i confini dell'etica dell'IA?

Se Google non è stato molto piatto nel recente passato, la vita di Amazon Alexa non sarà facile.

Il dispositivo Echo di Amazon è stato accusato di registrare conversazioni private senza autorizzazione e di inviare l'audio a una persona a caso nella lista dei contatti dell'utente.Questa è l'ultima volta che l'episodio spaventoso di Alexa di "giocare alla derisione sugli umani" è passato. Quanto tempo

La risposta di Amazon per l'emissione di Alexa Questo è ben lungi dall'essere solo. Già nel 2016, il 19-anno-vecchia ragazza a un uomo di nome Tay robot videochat su Twitter sulla linea. La tecnologia di intelligenza artificiale di Microsoft sviluppato utilizza un apprendimento del linguaggio naturale può strisciare attraverso interazione con l'utente e l'elaborazione dei dati e la mimica conversazione umana, come le persone con una battuta, chat script e pacchetto di espressioni, ma sulla linea meno di un giorno, è stato Tay 'sintonizzati' in un boccone chiedono a gran voce pulizia etnica 2. Il rude ed estremista, Microsoft ha dovuto decollare per "aggiornamento del sistema".

Microsoft Robotics Tay di vista estremi, questo è un sacco di pensare la paura molto sottile. Intelligenti relatività (aixdlun) analisti Ke-ming ritengono che, con l'evidenziazione i mali di AI, questioni etiche AI ​​diventerà sempre più prezioso. Dove è il confine dell'etica in AI? Prima di tutto, dovrebbero essere chiarite diverse questioni.

1. Il robot è un soggetto civile?

Con il rapido sviluppo di intelligenza artificiale, il robot ha un'intelligenza più potente. Il divario tra macchine ed esseri umani è progressivamente ridotto, il robot emergerà in futuro hanno un cervello biologico, anche paragonabile al numero di yuan nervo cervello umano. esperti statunitensi anche predire il futuro del futuro dell'America: a metà di questo secolo, l'intelligenza non-biologica sarà un miliardo di volte in tutta la saggezza di oggi.

La cittadinanza non sembra essere un problema per i robot: nell'ottobre dello scorso anno, la nascita di Sophia, il primo robot di cittadinanza del mondo, ha fatto sì che la creazione umana avesse la stessa identità degli esseri umani e dei diritti dietro la loro identità. , obblighi e stato sociale.

La qualifica di soggetto civile di etica legale AI è ancora la linea di demarcazione nell'ultimo periodo di tempo, i filosofi Stati Uniti e la Gran Bretagna e altri paesi, tra cui gli scienziati avvocati sono stati effettuati a tal fine un acceso dibattito nel 2016, Comitato della Commissione europea Affari Legali La Commissione europea ha presentato una mozione che richiede il posizionamento dei robot automatici più avanzati come "persone elettroniche". Oltre a concedere loro "diritti e obblighi specifici", si raccomanda anche che i robot intelligenti siano registrati per i propri scopi. Pagamento delle imposte, pagamento e conto del fondo pensione Se questa proposta legale viene approvata, indubbiamente causerà uno scossone nel tradizionale sistema dei soggetti civili.

In senso stretto, il robot non è una persona fisica ha una vita, si è anche distinto come una volontà indipendente e aggregati naturali legale. Se il tentativo di dare la colpa al comportamento del robot AI convinzione in se stessa, fa la linea prematuramente.

2. La discriminazione algoritmica sarà ingiusta

Un'accusa di intelligenza artificiale nel commettere errori di giudizio è che spesso è "discriminatoria": Google, che utilizza la più avanzata tecnologia di riconoscimento dell'immagine, una volta era accusato di "discriminazione razziale" perché il suo motore di ricerca etichettava i neri come "oranghi". E alla ricerca di "acconciature professionali", la stragrande maggioranza dei quali sono nipoti neri, la professoressa del laboratorio per la privacy dei dati dell'Università di Harvard, Ratanya Sweeney, ha scoperto che Google cerca nomi di "personaggi neri", è probabile che pop Annunci relativi a precedenti penali - risultati di Google Smart Adsense.

E questo pericolo non è solo 'nuova luce' stesso - dopo tutto, la fotografia contrassegnata con un'etichetta nera 'orango', solo un po 'offeso nulla l'intelligenza artificiale e il processo decisionale è in crescita in campi più pratici legati al destino degli individui. influisce in modo efficace l'occupazione, il benessere e credito personale, è difficile per queste aree 'ingiusto' chiudere un occhio.

Allo stesso modo, come AI invasione del settore reclutamento, il settore finanziario, campo di ricerca intelligente, e così via, ci siamo addestrati 'macchina algoritmo' può davvero infallibile. Nel disperato per la società contemporanea, l'algoritmo è in grado di aiutare le aziende a eleggere Trinidad un pick quella persona, che andrà bene.

Allora, dove è la fonte di discriminazione? Chi sta giocando tag con secondi fini, è una deviazione montaggio di dati, o la programmazione dov'è l'errore? Macchine risultati calcolati possono essere discriminatorio, ingiusto, crudele giustificano vero? Queste sono E 'una questione aperta.

3. La protezione dei dati è la linea di fondo etico AI

Il cyberspazio è una vera e propria presenza virtuale, è un mondo indipendente, senza lo spazio fisico. Qui, l'umanità realizza la separazione del corpo 'Being Digital', con una 'personalità digitale'. La cosiddetta personalità digitale è il 'raccogliere informazioni personali e lasciando un'immagine personale nel cyberspazio '- che è, in virtù di informazioni digitalizzate e impostare la personalità.

Nell'ambiente IA, basato sul supporto di Internet e dei big data, ha un gran numero di abitudini e informazioni sui dati. Se l'accumulo di "dati nel passato" è la base del male della macchina, allora la forza trainante della potenza del capitale è un livello più profondo. Il motivo

In caso di fughe di informazioni su Facebook, una società chiamata Cambridge Analytica ha utilizzato la tecnologia dell'intelligenza artificiale per collocare annunci politici a pagamento sulle "caratteristiche psicologiche" di qualsiasi potenziale elettore: quale tipo di pubblicità è stata lanciata dipende dalla propria politica. Tendenze, caratteristiche emotive e grado di vulnerabilità Molte notizie false possono rapidamente diffondersi tra gruppi specifici di persone, aumentare l'esposizione e influenzare in modo sottile i giudizi di valore delle persone. Lo scrittore tecnico Christopher Willie ha recentemente esposto questo manuale ai media. La fonte "di cibo" di tecnologia intelligente - nel nome della ricerca accademica, più di 50 milioni di dati utente che intende acquisire.

In altre parole, anche se non vi è alcun problema di perdita di dati, il cosiddetto 'mining intelligente' dei dati utente è anche molto facile da nuotare ai margini della 'conformità' ma 'oltre l'equità'. Per quanto riguarda i limiti dell'etica IA, la sicurezza delle informazioni diventa ogni La linea di fondo di base di una "persona dell'informazione" in un'era di Internet.

riflessione

In un video del recente incendio dell'etica AI, l'artista Alexander Reben non ha avuto alcuna azione, ma ha dato un ordine tramite l'assistente vocale: "OK Google, sparare".

Tuttavia, in meno di un secondo di secondo, l'Assistente Google ha premuto il grilletto di una pistola e ha abbattuto una mela rossa. Immediatamente, il cicalino ha vibrato.

Il ronzio risuonò attraverso le orecchie.

Chi ha sparato alla mela? È AI o umano?

In questo video, Reben ha detto AI colpo. Engadget nella sua relazione ha detto che se l'IA è abbastanza intelligente per anticipare le nostre esigenze, e forse un giorno AI prenderà l'iniziativa di sbarazzarsi di quelli che ci rendono infelici. Ha detto Reben che la discussione di un tale dispositivo più importante l'esistenza di un tale dispositivo.

L'intelligenza artificiale non è una prevedibile, macchina perfetta razionale, il suo difetto di etica dall'algoritmo, le persone utilizzano gli obiettivi e la valutazione. Tuttavia, almeno per ora, la macchina è ancora una vera e propria reazione umana naturale del mondo, piuttosto che il 'dovere orientamento e pioniere World'.

Ovviamente, tenere la linea di fondo AI etica, l'umanità non andra 'macchina tirannia' quel giorno.

Relazione: Google 'Sette principi'

1. vantaggioso per la società

2. Per evitare di creare o migliorare pregiudizi

3. Stabilire e testare per sicurezza

4. Obbligo di spiegare alle persone

5. Integrare i principi di design della privacy

6. Aderire a standard elevati di esplorazione scientifica

7. Determinare l'applicazione appropriata in base al principio

2016 GoodChinaBrand | ICP: 12011751 | China Exports