A história começa no início de março deste ano.
Em março, o Google deu a notícia foi alcançado com o Departamento de Defesa dos Estados Unidos para ajudar o último desenvolver sistemas de inteligência artificial utilizados em veículos aéreos não tripulados, o projeto de codinome Projeto Maven.
A notícia saiu, e imediatamente afluência, funcionários do Google expressa forte insatisfação com este projeto acreditam que os funcionários do Google em código aberto para o Pentágono, que ajudam a construir um camelo fazer tecnologia de vigilância zangão mal ;. Outros ainda questionou o uso da máquina para Google tecnologia de aprendizagem atende aos padrões éticos, eles acham que o Pentágono vai usar essa tecnologia para armas de destruição, e, assim, trazer prejuízos para os otimistas tecnologia que nunca destinados a causar.
Posteriormente, mais de 3.100 funcionários do Google pediram em conjunto e escreveram uma carta ao CEO, Sundar Pichai, para protestar.
Os funcionários do Google assinaram em conjunto uma carta para Sundar Pichai.O assunto foi mais fermentado até o final de abril.Alguns meios de comunicação descobriram que o Google excluiu as três linhas de seu lema de 18 anos "Não seja mau" no início do código de conduta da empresa. No final, há uma frase que não foi excluída: 'Lembre-se, não seja malvado, se vir algo que você acha que não está correto, fale!'
Na sexta-feira, durante a reunião semanal semanal com "previsão do tempo", Diane Greene, CEO do Google Cloud, anunciou que o Google encerraria a cooperação do Project Marven com o Departamento de Defesa dos EUA após a expiração deste contrato. .
Sem dúvida, esse é um grande evento. "A notícia da vitória" foi louca dentro do Google. Com um artigo correndo, parece que esse assunto está temporariamente no caminho do Google para "comprometer os funcionários e parar de renovar com o Ministério da Defesa". Para ser fechado
Mas, ontem, o CEO do Google, Sundar Pichai, publicou um artigo intitulado "AI no Google: nossos princípios", que listou sete princípios básicos e apontou que o Google não encerrará sua cooperação com os militares dos EUA. Embora clarifique “a aplicação da IA que não será buscada”, mas o mal técnico ainda é um problema do mal humano, a ética da IA é mais uma vez instigante.
Onde estão os limites da ética da IA?
Se o Google não foi muito plana no passado recente, a vida da Amazon Alexa não será fácil.
O dispositivo Eco da Amazon foi acusado de gravar conversas particulares sem permissão e de enviar áudio para uma pessoa aleatória na lista de contatos do usuário. Esta é a última vez que o incidente assustador de Alexa "fazer escárnio em humanos" já passou. Quanto tempo
A resposta da Amazon para a questão da Alexa Isto está longe de estar sozinho. Já em 2016, menina de 19 anos de idade a um homem chamado Tay robô bate-papo no Twitter na linha. A tecnologia de inteligência artificial Microsoft desenvolvido utiliza um aprendizado de linguagem natural pode rastrear por meio da interação de usuário e processamento de dados e conversação humana imitar, como as pessoas com uma piada, scripts e pacote de expressões conversar, mas na linha de menos de um dia, Tay foi 'afinado' para um bocado clamando limpeza étnica 2. A rude e extremista, a Microsoft teve que tirá-lo do chão para "atualização do sistema".
As observações extremas feitas pelo robô da Microsoft, Tay, realmente fazem as pessoas pensarem com cuidado. De acordo com Keming, analista do Aixdlun, com o destaque dos males da IA, as questões éticas da AI também receberão cada vez mais atenção. Em primeiro lugar, várias questões devem ser esclarecidas.
1. O robô é um sujeito civil?
Com o rápido desenvolvimento da tecnologia de inteligência artificial, os robôs têm uma inteligência cada vez mais poderosa, e os robôs que surgirão no futuro terão cérebros biológicos, que podem até rivalizar com o número de neurônios no cérebro humano. Os futuros futuristas dos EUA prevêem que: No meio deste século, a inteligência não biológica será 1 bilhão de vezes maior que a sabedoria de todas as pessoas hoje.
A cidadania não parece ser um problema para os robôs.Em outubro do ano passado, o nascimento de Sophia, o primeiro robô de cidadania do mundo, significou que a criação humana tinha a mesma identidade que os seres humanos e os direitos por trás de suas identidades. , obrigações e status social.
A qualificação de sujeito Civil de ética jurídica AI ainda é a linha divisória no último período de tempo, os filósofos dos Estados Unidos e Grã-Bretanha e outros países, incluindo cientistas advogados foram realizadas para este debate acalorado final em 2016, o Comitê de Assuntos Jurídicos da Comissão Europeia a Comissão Europeia apresentou uma moção para a identidade do robô automatizado mais avançado posicionado como um 'cyborg' (pessoas electrónicos), além de dar-lhe 'direitos e obrigações específicos', mas também recomendado para registrar robôs autônomos como inteligentes para realizar o seu impostos, taxas, contas de fundos de pensões. o movimento legal, se aprovada, seria, sem dúvida tornar o assunto público tradicional abalada.
Em sentido estrito, o robô não é uma pessoa natural tem uma vida, tem também distinguiu-se como uma vontade independente e agregado natural legal. Se a tentativa de culpar o comportamento do robô AI convicção em si, faz a linha prematuramente.
2. algoritmo de discriminação seria injusto
Uma acusação de inteligência artificial ao cometer erros de julgamento é que muitas vezes é "discriminatória". O Google, que usa a mais avançada tecnologia de reconhecimento de imagem, já foi acusado de "discriminação racial" porque seu mecanismo de busca classifica os negros como "orangotangos". E procurando "penteados profissionais", a grande maioria dos quais são sobrinhos negros. O professor de laboratório de privacidade de dados da Universidade de Harvard, Ratanya Sweeney, descobriu que a busca do Google por nomes de "personagens negros" é provável que surja. Anúncios relacionados a registros criminais - resultados do Google Smart Adsense.
E este perigo não é apenas 'nova luz' em si - afinal, a fotografia marcada com uma etiqueta preta 'orangotango', apenas um pouco ofendido nada inteligência artificial e de tomada de decisão está crescendo em campos mais práticos relacionados com o destino dos indivíduos. afetar de forma eficaz o emprego, bem-estar e de crédito pessoal, é difícil para estas áreas 'injusta' fechar os olhos.
Da mesma forma, como AI invasão da indústria de recrutamento, o setor financeiro, campo de busca inteligente, e assim por diante, que são treinados "máquina algoritmo pode realmente infalível. Em desesperada para a sociedade contemporânea, o algoritmo é capaz de ajudar as empresas a eleger Trinidad Aquele que escolhe um, este tem que ser elegante.
Então, onde é a fonte de discriminação? Quem está jogando tag com segundas intenções, é um desvio de ajuste de dados, ou programação onde está o erro? Máquina de resultados calculados pode ser discriminatório, injusto, cruel justificá-la? Estes são É questionável discutir.
3. Proteção de dados é a linha de fundo da ética em IA
O ciberespaço é uma presença real virtual, é um mundo independente, sem o espaço físico. Aqui, a humanidade percebe a separação do corpo 'Being Digital', com uma 'personalidade digital'. O chamado personalidade digital é o 'coletar informações pessoais E o processamento para delinear uma imagem pessoal no ciberespaço - isto é, a personalidade estabelecida com a informação digital.
No ambiente de IA, baseado no suporte da Internet e Big Data, há um grande número de hábitos e informações sobre os usuários.Se o acúmulo de "dados no passado" é a base do mal da máquina, a força motriz do poder do capital é um nível mais profundo. O motivo
No caso de vazamento de informações no Facebook, uma empresa chamada Cambridge Analytica usou a tecnologia de inteligência artificial para colocar anúncios políticos pagos sobre as "características psicológicas" de qualquer eleitor em potencial, que tipo de anúncios foram lançados depende da sua política. Tendências, características emocionais e o grau de vulnerabilidade Muitas notícias falsas podem se espalhar rapidamente entre grupos específicos de pessoas, aumentar a exposição e afetar de forma sutil os julgamentos de valor das pessoas.O escritor técnico Christopher Willie recentemente expôs este manual à mídia. A fonte 'comida' da tecnologia inteligente - em nome da pesquisa acadêmica, mais de 50 milhões de dados de usuários que pretende capturar.
Em outras palavras, mesmo que não haja problema de vazamento de dados, a chamada 'mineração inteligente' de dados do usuário também é muito fácil de nadar na margem da 'conformidade', mas 'além da justiça'. A linha inferior básica de uma "pessoa da informação" em uma era da Internet.
Reflexão
Em um vídeo do recente incêndio sobre a ética da IA, o artista Alexander Reben não teve nenhuma ação, mas deu uma ordem por meio de um assistente de voz: 'OK Google, atire'.
No entanto, em menos de um segundo de segundo, o Assistente do Google acionou o gatilho de uma pistola e derrubou uma maçã vermelha. Imediatamente, a campainha vibrou.
O zumbido ressoou pelas orelhas.
Quem atirou na maçã? AI ou humano?
Neste vídeo, Reben diz à AI para filmar.Engadget disse no relatório que se a inteligência artificial for inteligente o suficiente para antecipar as nossas necessidades, talvez um dia a AI tome a iniciativa de se livrar daqueles que nos fazem infelizes. É mais importante do que se tal dispositivo existe.
Inteligência artificial não é uma máquina racional previsível, perfeita, suas falhas éticas são compostas de algoritmos, pessoas usam metas e avaliações.No entanto, pelo menos por enquanto, as máquinas ainda são a resposta do mundo real humano, não devem ser Orientação e pioneiros do mundo.
Obviamente, para manter o ponto de vista ético da IA, os humanos não irão ao dia da "tirania da máquina".
Anexo: "Sete diretrizes" do Google
Benéfico para a sociedade
2. Evite criar ou melhorar preconceitos
3. Estabelecer e testar a segurança
4. Obrigação de explicar às pessoas
5. Integrar princípios de design de privacidade
6. Aderir a altos padrões de exploração científica
7. Determinar a aplicação apropriada com base no princípio