¿Cómo sacar a AI de parcialidad?

El autor discute varios sesgos que pueden agregarse a la inteligencia artificial y aplicaciones de aprendizaje automático entre intencional y no intencional ...

Todos hemos visto la escena en la que la máquina controlaba el mundo y la destrucción de seres humanos. Afortunadamente, estas películas son solo entretenimientos. En la vida real, estas escenas forzadas no sucederán. Sin embargo, uno de los problemas más prácticos que deben tenerse en cuenta es : sesgo algorítmico (sesgo algorítmico).

El llamado "prejuicio algorítmico" se refiere al prejuicio de los diseñadores o desarrolladores en la programación que parece ser maliciosa, o los datos utilizados son parciales. El resultado, por supuesto, ha traído varios problemas. Por ejemplo, la búsqueda en Google fue malinterpretada, los candidatos calificados no pudieron ingresar a la escuela de medicina, los bots de chat propagaron el racismo y la información sobre discriminación sexual en Twitter.

Los "aldeanos" de la red son demasiado poderosos. Le enseñaron a Tay, el robot de chat de Microsoft, a discriminar racialmente por 1 día. Microsoft le permitió "silenciar" ...

Uno de los problemas más espinosos causado por el sesgo algorítmico es que los ingenieros dedicados a la programación pueden crear prejuicios incluso si no son raciales, de género, discriminatorios por edad, etc. La inteligencia artificial (IA) está diseñada esencialmente para aprender por sí misma, a veces Sí comete un error. Por supuesto, podemos hacer ajustes después, pero la mejor solución es evitar que suceda. Entonces, ¿cómo podemos hacer que la IA sea imparcial?

Irónicamente, una de las posibilidades más emocionantes de la inteligencia artificial es: Un mundo sin prejuicios humanos. Por ejemplo, cuando se trata de reclutar empleados, los algoritmos se pueden usar para hacer que hombres y mujeres sean iguales al solicitar el mismo trabajo. Tratamiento, o evitar el racismo en la vigilancia.

Independientemente de si las personas son conscientes de que las máquinas creadas por humanos realmente reflejan cómo la gente ve el mundo, también tendrán estereotipos y puntos de vista similares. Como la inteligencia artificial es cada vez más profunda en la vida, debemos prestar atención a este tema.

Otro desafío al que se enfrenta la inteligencia artificial es que el sesgo no es una forma única, sino que existe en varios tipos, incluidos los sesgos interactivos, los sesgos subconscientes, los sesgos de selección, los sesgos orientados a los datos y los sesgos de confirmación.

Varios tipos de sesgo AI

El "sesgo de interacción" se refiere al sesgo del algoritmo causado por la interacción del usuario con el algoritmo. Cuando la máquina está configurada para aprender del ambiente circundante, no pueden decidir qué datos conservar o descartar. ¿Qué es correcto? O incorrecto. En cambio, solo pueden usar los datos que se les proporcionan, ya sea bueno, malo o feo, solo pueden emitir juicios basados ​​en esta base. Tay es un ejemplo de este tipo de prejuicios. Comenzó a volverse racista debido a la influencia de una comunidad de chat en línea.

'Sesgo inconsciente' significa algoritmo idea errónea de enlazar con la raza y el sexo y otros factores. Por ejemplo, en la búsqueda de la fotografía de un médico, la inteligencia artificial será la primera exposición de fotografías de los médicos hombres, no mujeres médicos, y viceversa Sin embargo, situaciones similares ocurren cuando se buscan enfermeras.

'El sesgo de selección' significa algoritmo debido a la influencia de los datos, lo que resulta en demasiado zoom sobre un grupo o grupos, de manera que los algoritmos en su favor, pero a expensas de otros grupos. Para la contratación de personal, por ejemplo, si la IA es entrenados para identificar sólo los hombres se reanuden, a continuación, los solicitantes de empleo femenino durante el proceso de solicitud, es difícil tener éxito.

'Perjuicio basada en datos' significa los datos primarios utilizados para entrenar el algoritmo ha sido parciales máquina como niños: no cuestionan los datos recibidos, sino simplemente en busca de uno de los modelos si el inicio de datos Al estar distorsionado, el resultado de su salida también reflejará esto.

El último es el 'sesgo de confirmación', esto y similares perjuicio basada en datos, que favorecerán a las informaciones preconcebida, tales prejuicios afectan a cómo las personas se reúnen información, y cómo interpretar la información. Por ejemplo, si se siente que las personas nacidas en agosto Las personas nacidas más que otros meses son más creativas y tienden a buscar datos que refuercen esta idea.

Cuando sabemos que hay tantos prejuicios que pueden infiltrarse en una instancia de un sistema de inteligencia artificial, parece ser muy preocupante. Pero es importante reconocer el hecho de que el mundo en sí mismo es parcial, por lo que en algunos casos estamos Los resultados proporcionados no son sorprendentes. Sin embargo, este no debería ser el caso. Necesitamos un proceso para probar y verificar algoritmos y sistemas de inteligencia artificial para detectar prejuicios al principio del desarrollo y antes del despliegue.

Diferentes algoritmos y los seres humanos, que no miente, por lo tanto, si el resultado es parcial, tiene que haber una razón, es decir, los algoritmos y los datos obtenidos sobre un hombre puede mentir para explicar las razones para no contratar a alguien pero AI no puede. el uso de algoritmos, podemos saber en que no habrá perjuicio, y ajustar a superar estos problemas en el futuro.

AI va a aprender, cometer errores, por lo general sólo después de algoritmos de uso reales para encontrar toda la tendencia inherente debido a que estos prejuicios se magnifica. Algoritmo más bien como una amenaza, es mejor para resolverlos como toda buena oportunidad para prejuzga el problema, y ​​corregir si es necesario.

Podemos desarrollar sistemas para detectar decisiones sesgadas y tomar medidas oportunas. En comparación con los humanos, la inteligencia artificial es particularmente adecuada para los métodos Bayesianos para determinar la probabilidad de una hipótesis y eliminar todos los posibles Prejuicios humanos. Esto es complicado, pero es factible, especialmente teniendo en cuenta la importancia de la inteligencia artificial, y solo será más y más importante en los próximos años. Esto es algo irresponsable.

Con el desarrollo de los sistemas de inteligencia artificial, es importante comprender cómo funciona para hacerlo consciente a través del diseño y para evitar posibles problemas de sesgo en el futuro. Recuerde que aunque la inteligencia artificial se desarrolla muy rápidamente, sigue siendo En la etapa inicial, hay muchas áreas que necesitan ser estudiadas y mejoradas. Este ajuste continuará durante algún tiempo. Al mismo tiempo, la inteligencia artificial se volverá más inteligente. En el futuro, habrá cada vez más formas de superar los prejuicios y otros problemas. .

Para la industria de la tecnología, seguimos a cuestionar los métodos de funcionamiento de la máquina y la razón es muy importante, la mayor parte de la inteligencia artificial es como una caja de negro, el proceso de toma de decisiones está oculto, pero pública y la transparencia de la inteligencia artificial, se establece La clave para confiar y evitar malentendidos.

En esta etapa hay muchos estudios ayuda perjuicio de identificación de productos, tales como el estudio del Instituto Fraunhofer Heinrich Hertz Institute, se centraron en distinguir los diferentes tipos de sesgos, prejuicios, como el ya mencionado, así como más prejuicios 'de bajo nivel', y algunos Problemas que pueden surgir durante el entrenamiento y desarrollo de la inteligencia artificial.

Por otro lado, lo que se debe considerar es el entrenamiento no supervisado. Hoy en día, la mayoría de los modelos de inteligencia artificial se desarrollan a través de entrenamiento supervisado, es decir, solo se han recopilado datos que han sido marcados por humanos. Entrenamiento supervisado que utiliza datos no etiquetados, el algoritmo debe clasificarse a sí mismo, identificar y agregar los datos. Este método suele ser varios órdenes de magnitud más lento que el aprendizaje supervisado, pero este método restringe relativamente la intervención humana. Puede eliminar cualquier sesgo humano consciente o inconsciente y evitar el impacto en los datos.

También hay muchas cosas que se pueden mejorar en términos de infraestructura. Al desarrollar nuevos productos, sitios web o características, las empresas de tecnología necesitan gente talentosa en todos los campos. La diversificación proporcionará una variedad de datos para el algoritmo, pero también será involuntaria. Estos datos son parciales. Si alguien analiza el resultado, entonces la probabilidad de encontrar prejuicios será bastante alta.

Además, la auditoría algorítmica tiene otros roles. En 2016, un equipo de investigación de la Universidad Carnegie Mellon en los Estados Unidos descubrió sesgos algorítmicos en los anuncios de trabajo en línea. Enlistado en Internet, Google Advertising. Una lista de personas que buscan trabajo muestra que la proporción de hombres de trabajos de altos ingresos es casi seis veces superior a la de mujeres. El equipo de investigación concluyó que si se realizan auditorías algorítmicas internas primero, ayudará a reducir dichos prejuicios.

En resumen, el prejuicio de la máquina es el prejuicio humano. Hay muchos tipos de sesgos de inteligencia artificial, pero de hecho, proviene de una sola fuente: los humanos.

La clave es que las compañías de tecnología, los ingenieros y los desarrolladores deben tomar medidas efectivas para evitar la producción inadvertida de algoritmos sesgados. Mediante la auditoría de algoritmos y manteniéndolos abiertos y transparentes en todo momento, confiamos en que podemos hacer inteligencia artificial. Algoritmo para deshacerse de los prejuicios.

2016 GoodChinaBrand | ICP: 12011751 | China Exports