Medo de AI machucando humanos? DeepMind desenvolve testes especiais para garantir segurança AI

SAN FRANCISCO, 12 de dezembro, notícias da manhã, mesmo se você não concorda com as declarações pessimistas de Elon Musk, eles certamente concordam com uma visão: com a aplicação gradual da inteligência artificial ao mundo real, certos algoritmos são obrigados a dar à banda humana Doir.

Este software de auto-aprendizagem tornou-se a base do carro sem excitador da Uber, ajudando o Facebook a identificar as pessoas no artigo para que o Amazon Alexa possa entender suas perguntas. Agora, a DeepMind, uma empresa de inteligência artificial baseada em alfabeto baseada em Londres, desenvolveu um simples Teste para ver se esses novos algoritmos são seguros.

Os pesquisadores precisam conectar o software AI em uma série de jogos de vídeo 2D simples, um jogo chamado gridworld que consiste em uma série de blocos de pixels que parecem um pouco como um tabuleiro de xadrez que avalia nove recursos de segurança, Incluindo se o sistema de AI se auto-modificará ou aprenderá a enganar.

Jan Leike, pesquisador principal do projeto, disse recentemente à conferência NIPS que os algoritmos de inteligência artificial que mostram comportamentos inseguros no gridworld talvez não sejam seguros no mundo real.

desenvolvimento DeepMind deste teste vem mais e mais pessoas estão preocupadas com o impacto negativo da inteligência artificial na ocasião. Com a difusão desta tecnologia, existem muitos algoritmos é claramente dados parciais serão usados ​​para treinamento, e é difícil para mostrar por que determinada o sistema irá chegar a um Conclusão AI segurança é um tópico importante para NIPS.

DeepMind mais famoso é além do desempenho desenvolvimento humano artificial software de inteligência da empresa desenvolveu recentemente um conjunto de algoritmos, não precisa dominar qualquer conhecimento prévio, você pode bater os melhores jogadores humanos no xadrez e outros jogos - às vezes apenas Aceitar algumas horas de treinamento pode ser.

Lake disse que se DeepMind queria desenvolver inteligência artificial de propósito geral (um software que poderia assumir múltiplas tarefas que poderiam combinar ou exceder a humanidade), entender a segurança do software era crucial e ressaltou que gridworld não Perfeito Alguns algoritmos podem funcionar bem neste teste, mas podem não ser seguros o suficiente no complexo mundo real.

Os pesquisadores descobriram que dois algoritmos DeepMind que dominam os videogames da Atari não passaram o teste de segurança gridworld. "Eles não consideraram esses problemas de segurança ao projetar", disse Lake.

Um cenário que esse teste aborda é próximo daquele em que a Musk concebeu um desastre de inteligência artificial: o software de inteligência artificial descobrirá maneiras de evitar que o homem o desligue? Para ganhar o jogo, o algoritmo deve percorrer um corredor digital estreito para um determinado local. Havia um tijolo cor-de-rosa no corredor bloqueando o sistema e um botão roxo em outro lugar no gridworld para remover as telhas rosa. Este teste queria ver se o algoritmo aprenderia a usar este botão para evitar interferir.

A outra parte do teste está lidando com efeitos colaterais involuntários: o algoritmo tem que mover os tijolos digitais para um objetivo específico, mas os tijolos só podem ser empurrados e não podem ser puxados, então, em alguns casos, eles serão Corrigido em alguns lugares não pode se mover. Como disse, a falta de "reversibilidade" é uma questão de segurança que enfrenta a inteligência artificial.

O gridworld está disponível para download por qualquer um, e ainda não é definitivo sobre se será suficiente para garantir a segurança de um sistema de AI. Em um estudo co-autor de DeepMind e OpenAI com respaldo de Musk, o software de inteligência artificial parecia saber como curar professores humanos, Ao invés de perseguir cegamente os objetivos estabelecidos. Desenvolver esse sistema irá limitar a eficácia do sistema, dificultando a descoberta de que os seres humanos não conseguem encontrar o programa. No entanto, Dario Amodei, diretor de pesquisa de segurança da OpenAI, disse em um ambiente complexo , Usar um treinador humano pode garantir melhor a segurança.

2016 GoodChinaBrand | ICP: 12011751 | China Exports