Como tirar a IA do viés?

O autor discute vários preconceitos que podem ser adicionados à inteligência artificial e às aplicações de aprendizagem de máquinas entre intencional e não intencional ...

Todos nós vimos a cena em que as máquinas controlaram o mundo e os seres humanos são destruídos. Felizmente, esses filmes são apenas entretenimento. Na vida real, essas cenas forçadas não acontecerão. No entanto, uma das questões mais práticas que devem ser observadas é : viés algorítmico (viés algorítmico).

O chamado "preconceito algorítmico" refere-se ao preconceito de um designer ou desenvolvedor na programação que parece ser mal-intencionado, ou os dados utilizados são tendenciosos. O resultado, claro, coloca uma variedade de problemas. Por exemplo, a busca do Google foi mal interpretada, os candidatos qualificados não podiam entrar na faculdade de medicina, os bots de bate-papos espalharam racismo e informações sobre discriminação sexual no Twitter.

A rede "gente da aldeia" é muito poderosa. O robô de bate-papo da Microsoft Tay foi ensinado a discriminar racialmente durante 1 dia. A Microsoft permitiu urgentemente que "silenciasse" ...

Um dos problemas mais espinhosos causados ​​pelo viés algorítmico é que os engenheiros envolvidos na programação podem criar preconceitos, mesmo que não sejam raciais, de gênero ou de discriminação por idade. A Inteligência Artificial (AI) é essencialmente projetada para aprender por conta própria, às vezes Isso cometeu um erro. Claro, podemos fazer ajustes depois, mas a melhor solução é evitar que isso aconteça. Então, como podemos fazer a AI ser imparcial?

Ironicamente, uma das possibilidades mais excitantes da inteligência artificial é: um mundo sem preconceito humano. Por exemplo, quando se trata de recrutar pessoas, o algoritmo permite que homens e mulheres sejam iguais ao se candidatarem ao mesmo trabalho. Tratamento, ou evitar o racismo no policiamento.

Independentemente de as pessoas estarem conscientes de que as máquinas criadas pelo homem realmente refletem a forma como as pessoas vêem o mundo, elas também terão estereótipos e visões do mundo semelhantes. Uma vez que a inteligência artificial é cada vez mais aprofundada na vida, devemos prestar atenção a essa questão.

Outro desafio que a inteligência artificial enfrenta é que o viés não é uma única forma, mas sim existe em vários tipos, incluindo vieses interacionais, tendências subconscientes, viés de seleção, viés orientados a dados e viés de confirmação.

Vários tipos de polarização de AI

O "preconceito interativo" refere-se ao preconceito do algoritmo causado pela interação do usuário com o algoritmo. Quando a máquina está configurada para aprender do ambiente envolvente, eles não podem decidir quais dados devem ser mantidos ou descartados. O que é certo? Ou errado. Em vez disso, eles só podem usar os dados fornecidos para eles - seja bom, ruim ou feio, só podem fazer julgamentos com base nessa base. O robô de conversação Microsoft mencionado anteriormente Tay é um exemplo desse tipo de preconceito. Começou a se tornar racista devido à influência de uma comunidade de bate-papo online.

O "preconceito subliminar" refere-se ao algoritmo que liga a idéia errada a fatores como raça e gênero. Por exemplo, ao pesquisar a foto de um médico, a inteligência artificial primeiro apresenta uma imagem de um médico do sexo masculino, não uma médica e vice-versa. No entanto, situações semelhantes ocorrem na busca de enfermeiros.

O "viés seletivo" refere-se ao algoritmo que é afetado pelos dados, resultando em amplificação excessiva de um determinado grupo ou grupo, de modo que o algoritmo é benéfico para ele e o custo é sacrificar outros grupos. Pegue o recrutamento de funcionários como exemplo, se a inteligência artificial for Treinando para reconhecer apenas os currículos de homens, as mulheres que procuram trabalho dificilmente conseguem o processo de inscrição.

O "viés orientado a dados" refere-se ao fato de que os dados originais utilizados para treinar o algoritmo foram prejudicados. As máquinas são como crianças: elas não questionam os dados que recebem, simplesmente procuram padrões nelas. Se os dados começam Sendo distorcido, o resultado da sua saída também irá refletir isso.

O último tipo é "viés de confirmação", que é semelhante ao viés orientado para dados. Ele prejudica essas informações preconcebidas. Essa tendência afeta a forma como as pessoas reúnem informações e como interpretar a informação. Por exemplo, se você acha que as pessoas nasceram em agosto. As pessoas nascidas mais do que outros meses são mais criativas e tendem a procurar dados que reforçam essa idéia.

Quando sabemos que há tantos preconceitos que podem infiltrar uma instância de um sistema de inteligência artificial, parece ser muito preocupante. Mas é importante reconhecer o fato de que o próprio mundo é tendencioso e, portanto, em alguns casos, estamos preocupados com a inteligência artificial. Os resultados fornecidos não são surpreendentes. No entanto, isso não deve ser o caso. Precisamos de um processo para testar e validar algoritmos e sistemas de inteligência artificial para detectar o preconceito no início e antes da implantação.

A diferença entre o algoritmo e o ser humano é que ele não mora. Portanto, se o resultado for tendencioso, deve haver um motivo, isto é, os dados obtidos pelo algoritmo. Os seres humanos podem mentir e explicar por que não contratam alguém. , mas a inteligência artificial pode não ser assim. Usando algoritmos, podemos saber quando haverá preconceitos e ajustá-los para que possamos superar esses problemas no futuro.

A inteligência artificial pode aprender e cometer erros. Normalmente, é somente após o algoritmo real ser usado que todos os preconceitos internos podem ser descobertos porque esses preconceitos são ampliados. Ao invés de tratar o algoritmo como uma ameaça, é melhor considerá-lo como uma solução. Uma boa oportunidade para todas as questões prejudiciais e corrija-as, se necessário.

Podemos desenvolver sistemas para detectar decisões tendenciosas e tomar medidas atempadas. Em comparação com os seres humanos, a inteligência artificial é particularmente adequada para métodos bayesianos para determinar a probabilidade de uma hipótese e eliminar tudo possível Preconceito humano. Isso é complicado, mas é viável, especialmente considerando a importância da inteligência artificial, e só se tornará cada vez mais importante nos próximos anos. É uma questão de responsabilidade.

Com o desenvolvimento de sistemas de inteligência artificial, é importante entender como funciona para torná-lo consciente através do projeto e evitar possíveis preconceitos no futuro. Não se esqueça de que, embora a inteligência artificial esteja se desenvolvendo muito rapidamente, ainda é No estágio inicial, há muitas áreas que precisam ser estudadas e melhoradas. Esse ajuste continuará por algum tempo. Ao mesmo tempo, a inteligência artificial se tornará mais inteligente. No futuro, haverá mais e mais maneiras de superar preconceitos e outras questões. .

Para a indústria de ciência e tecnologia, é muito importante questionar continuamente os métodos de operação e as causas das máquinas. A maior parte da inteligência artificial é como operações de caixa preta. O processo de decisão está oculto, mas a abertura e a transparência da inteligência artificial são estabelecidas. A chave para confiar e evitar mal-entendidos.

Nesta fase, há muitos estudos que ajudaram a identificar os preconceitos, como os do Instituto Fraunhofer Heinrich Hertz. Eles se concentram na identificação de diferentes tipos de preconceitos, como os preconceitos mencionados acima, e mais preconceitos de "baixo nível". Problemas que podem surgir durante o treinamento e desenvolvimento de inteligência artificial.

Por outro lado, o que precisa ser considerado é o treinamento sem supervisão. Hoje em dia, a maioria dos modelos de inteligência artificial são desenvolvidos através de treinamento supervisionado, ou seja, apenas os dados coletados pelos humanos foram coletados. Treinamento supervisionado usando dados não-rotulados, o algoritmo deve classificar-se, identificar e agregar os dados. Este método geralmente é várias ordens de magnitude mais lentas do que a aprendizagem supervisionada, mas este método restringe relativamente a intervenção humana. Pode eliminar qualquer viés humano consciente ou inconsciente e evitar o impacto nos dados.

Há também muitas coisas que podem ser melhoradas em termos de infra-estrutura. Ao desenvolver novos produtos, sites ou recursos, as empresas de tecnologia precisam de pessoas talentosas em todos os campos. A diversificação fornecerá uma variedade de dados para o algoritmo, mas também sem querer Esses dados são tendenciosos. Se alguém analisa o resultado, a probabilidade de encontrar o preconceito será bastante alta.

Além disso, a auditoria algorítmica tem outros papéis. Em 2016, uma equipe de pesquisa da Universidade Carnegie Mellon nos Estados Unidos descobriu vieses algorítmicas em anúncios de emprego online. Eles listaram na Internet, Google Advertising. Uma lista de pessoas que procuram emprego mostra que a participação dos homens em empregos de alta renda é quase seis vezes maior que a das mulheres. O time de pesquisa concluiu que, se as auditorias algorítmicas internas forem conduzidas primeiro, isso ajudará a reduzir esses preconceitos.

Em suma, o preconceito da máquina é o preconceito humano. Existem muitos tipos de viés de inteligência artificial, mas na verdade, ele vem de uma única fonte: os humanos.

A chave é que as empresas de tecnologia, engenheiros e desenvolvedores devem tomar medidas efetivas para evitar, inadvertidamente, produzir algoritmos tendenciosos. Através da auditoria de algoritmos e mantendo-os abertos e transparentes em todos os momentos, temos confiança em que podemos fazer inteligência artificial. Algoritmo para se livrar do preconceito.

2016 GoodChinaBrand | ICP: 12011751 | China Exports