No relatório intitulado "Projeto Ético: Prioridades para o Bem-estar Humano e Inteligência Artificial e Sistemas Autônomos", existem oito divisões detalhando novos desenvolvimentos de AI: princípios gerais, inteligência artificial Atribuições do sistema, metodologia para a realização de pesquisas e design etnográficos, segurança e bem-estar da Inteligência Artificial Geral e Super AI, Controle de Dados Pessoais e Acesso Pessoal, Reconstrução de Sistemas Automáticos de Armas, Questões Econômicas / Humanitárias,
Os princípios gerais abrangem questões éticas de alto nível que se aplicam a todos os tipos de AI e sistemas autônomos. Na determinação de princípios gerais, são considerados três fatores principais: a expressão dos direitos humanos, a prioridade é maximizar os benefícios para a humanidade eo meio ambiente natural e o enfraquecimento da inteligência artificial Riscos e efeitos negativos.
O princípio do interesse humano exige a consideração de como garantir que a AI não infrinja os direitos humanos. O princípio da responsabilidade relaciona-se com a forma de garantir que a IA seja responsável. Para resolver a falha e evitar a confusão pública, o sistema AI deve ser responsável pelo nível processual para justificar sua especificidade O princípio da transparência significa que o funcionamento dos sistemas autónomos deve ser transparente e o fato de a IA ser transparente significa que as pessoas podem descobrir como e por que tomam decisões específicas.
Em como incorporar normas humanas e valores éticos no sistema AI, o relatório afirmou que, à medida que os sistemas de AI estão se tornando mais autônomos na tomada de decisões e na manipulação do meio ambiente para que possam adotar, aprender e cumprir as sociedades que eles servem E as normas e os valores da comunidade são de suma importância. O objetivo de incorporar valor ao sistema AI pode ser alcançado em três etapas:
Primeiro, identifique as normas e os valores de uma determinada sociedade ou grupo;
Em segundo lugar, para compilar essas normas e valores no sistema AI;
Em terceiro lugar, avalie a validade das normas e valores que estão escritos no sistema AI, ou seja, sejam consistentes e realistas com normas e valores.
Embora a pesquisa relacionada acima esteja em andamento, como a moral da máquina, a ética da máquina, a máquina moral, o alinhamento do valor, a moral artificial, AI seguro, AI amigável, etc. No entanto, está envolvendo pessoas a desenvolver sistemas informáticos que reconheçam e compreendam normas e valores humanos e que considerem estas questões ao tomar decisões. Atualmente, existem principalmente dois caminhos: de cima para baixo Caminhos e caminhos de baixo para cima. A pesquisa nesta área precisa ser fortalecida.
O relatório também apontou a necessidade de orientar o desenvolvimento de metodologias de pesquisa etnográfica e de design, segurança e bem-estar de inteligência artificial geral e inteligência super-artificial, reconstrução de sistemas de armas autônomas e questões econômicas e humanitárias como as oito. Mais de 100 líderes de pensamento dos setores acadêmicos, científicos e governamentais no campo da inteligência artificial combinam conhecimentos em áreas como inteligência artificial, ética, filosofia e política e sua versão revisada da EAD A versão de Design Alinhado estará disponível até o final de 2017 e o relatório foi expandido para treze capítulos com mais de 250 líderes globais em mente.
Satoshi Tadokoro, presidente da IEEE Robotics and Automation Society, explica por que eles queriam definir o padrão: "Robôs e sistemas automatizados trarão grandes inovações para a sociedade e o público está cada vez mais atento a possíveis problemas sociais e o que provavelmente acontecerá Grandes benefícios potenciais Infelizmente, nessas discussões, pode haver algumas mensagens falsas por motivos imaginários e de ficção.
Tadokoro continua: "O IEEE irá introduzir conhecimento e sabedoria com base em fatos científicos e tecnológicos bem reconhecidos para ajudar a moldar a tomada de decisão pública e maximizar os benefícios humanos globais". Além dos padrões éticos de AI, existem outros dois padrões de AI Sendo introduzido no relatório, cada projeto é liderado por especialistas em domínio.
O primeiro critério é: "O Padrão de Impacto Ético para Sistemas Robóticos, Sistemas Inteligentes e Sistemas Automatizados". Este padrão explora o "impulso", que no mundo AI se refere à ação sutil que a IA pode ter no comportamento humano.
O segundo padrão é "Critérios de projeto de segurança para sistemas automáticos e semi-automáticos". Ele incorpora tecnologias automatizadas que, se falharem, poderiam ser perigosas para os seres humanos, o problema mais óbvio por enquanto ser o piloto automático.
O terceiro critério é "As Métricas de Bem-Estar para AI Moralizada e Sistemas Automatizados". Explica como os benefícios das técnicas avançadas de AI podem beneficiar a humanidade.
Esses padrões provavelmente serão implementados anteriormente do que pensamos, já que empresas como o OpenAI e o DeepMind estão empurrando a AI cada vez mais rápido e até criando sistemas de AI que se auto-aprendem e se expandem na arena "inteligente". Considera que tal inteligência artificial irá minar a estabilidade do mundo, levar ao desemprego e à guerra em grande escala e até mesmo a criação de "armas de matança". Recentemente, as importantes discussões das Nações Unidas levaram as pessoas a começar a pensar seriamente sobre a necessidade de usar a inteligência artificial como uma arma Regulação mais forte.