IEEE AI emitió tres nuevas normas | cuestiones éticas implicadas en alto nivel

IEEE ha anunciado recientemente tres nuevas normas de desarrollo de la inteligencia artificial. IEEE es conocido como 'tecnología avanzada más grande del mundo y las organizaciones profesionales'. De acuerdo con un informe reciente publicado, su inteligencia artificial, se dará prioridad a los criterios humanos, ya que prometen mantener En el campo de AI de ritmo de desarrollo continuo.

En el lanzamiento de "diseño ético: la visión de bienestar humano y la inteligencia artificial y sistemas autónomos una prioridad", el informe se divide en ocho partes describe las nuevas cuestiones relativas al desarrollo de la inteligencia artificial son: Principios generales, la inteligencia artificial asignación de sistema, sistema de armas automáticas reconstruir;; metodológico de orientación ética de investigación y escuela de diseño, la seguridad y el bienestar de los súper universal de AI y la inteligencia artificial, los datos personales y el control de acceso personal cuestiones económicas / humanitaria; la ley.

Los principios generales que intervienen en cuestiones éticas de alto nivel aplicables a todos los tipos de sistemas de inteligencia y autónomos artificiales en la determinación de los principios generales, la principal consideración tres factores: que garantizan los derechos humanos; prioridad a maximizar el beneficio para el entorno humano y natural; debilitamiento de la inteligencia artificial Riesgo y efectos negativos.

principio del interés humano requiere la consideración de cómo garantizar que la IA no infringe los derechos humanos. principio de la responsabilidad en cuestión es cómo garantizar que la IA puede ser responsable. Con el fin de resolver el problema de fallos, evitar la confusión del público, sistema de inteligencia artificial debe ser responsabilidad del nivel de los programas, con el fin de demostrar por qué su especial cómo funciona. principio de autonomía operativa de la transparencia significa que el sistema debe ser transparente. AI es transparente significa que la gente puede encontrar su cómo y por qué tomó una decisión en particular.

En cuanto a cómo incorporar las normas humanas y los valores éticos en el sistema de inteligencia artificial, el informe afirma que los sistemas de inteligencia artificial se vuelven más autónomos al tomar decisiones y manipular su entorno para que puedan adoptar, aprender y cumplir con las sociedades a las que sirven Y las normas y valores de la comunidad son de suma importancia. El objetivo de incrustar valor en el sistema de IA se puede lograr en tres pasos:

Primero, identifique las normas y valores de una sociedad o grupo en particular;

En segundo lugar, compilar estas normas y valores en el sistema de IA;

En tercer lugar, evaluar la validez de las normas y valores que se escriben en el sistema de inteligencia artificial, es decir, si son coherentes y realistas con las normas y los valores.

Aunque la investigación relacionada anterior ha estado en curso, como la moral de la máquina, la ética de la máquina, la máquina moral, la alineación de valores, la moralidad artificial, IA segura, IA amigable, etc. Sin embargo, ha estado afectando a las personas para que desarrollen sistemas informáticos que reconozcan y entiendan las normas y valores humanos y los consideren a la hora de tomar decisiones. Actualmente, existen principalmente dos caminos: de arriba hacia abajo Caminos y caminos de abajo hacia arriba. La investigación en esta área necesita ser fortalecida.

El informe también señaló que la cuestión de ocho seguridad y el bienestar de la metodología de desarrollo de la inteligencia artificial tiene que guiar la investigación ética y el diseño, la inteligencia artificial y la inteligencia artificial muy común, la reconstrucción sistema de arma autónoma, y ​​los problemas económicos / humanitarios que enfrenta el informe se recogieron Más de 100 líderes de pensamiento de los sectores académico, científico y relacionado con el gobierno en el campo de la inteligencia artificial combinan experiencia en áreas como inteligencia artificial, ética, filosofía y política, y su versión revisada de EAD La versión de Diseño Alineado estará disponible para fines de 2017 y el informe se ha ampliado a trece capítulos con más de 250 líderes mundiales en mente.

IEEE de Robótica y Automatización presidente de la Sociedad de Satoshi Tadokoro explicar por qué quieren desarrollar un estándar tales: 'Los robots y sistemas automatizados traerán innovación social significativa recientemente, cada vez más la atención del público de los problemas sociales que pueden ocurrir, y que pueden surgir enormes beneficios potenciales. Desafortunadamente, en estas discusiones, puede haber algunos mensajes de error de la ficción y la imaginación '.

Tadokoro continuó: 'IEEE será aceptado basa en el hecho de que la introducción del conocimiento y la sabiduría científica y técnica para ayudar a alcanzar un común de toma de decisiones para maximizar los intereses de la humanidad en su conjunto.' Además de las normas éticas de IA, hay dos otras normas de la inteligencia artificial fue introducido en el informe, para cada proyecto por los principales expertos en el campo.

El primer criterio es: 'El estándar del Impulso ético para sistemas robóticos, sistemas inteligentes y sistemas automatizados'. Este estándar explora el 'empuje', que en el mundo de la IA se refiere a la acción sutil que AI puede tener sobre el comportamiento humano.

El segundo estándar es 'Criterios de diseño a prueba de fallas para sistemas automáticos y semiautomáticos'. Incorpora tecnologías automatizadas que, si fallan, podrían ser peligrosas para los humanos, el problema más obvio por el momento es el piloto automático.

El tercer criterio es "Las métricas de bienestar para IA automatizada y sistemas automatizados". Explica cómo los beneficios de las técnicas avanzadas de IA pueden beneficiar a la humanidad.

La aplicación de estas normas puede ser más pronto de lo que pensamos, porque, como OpenAI y DeepMind dichas empresas para promover el desarrollo de la inteligencia artificial cada vez más rápido, e incluso crear un sistema de inteligencia artificial de auto-aprendizaje y la expansión de las áreas 'inteligentes' de Expertos considera que dicha inteligencia artificial podría socavar la estabilidad en el mundo, lo que resulta en un desempleo masivo y la guerra, e incluso recurrido a la creación de 'arma del crimen'. recientemente, es importante discutir las Naciones Unidas animó a la gente a considerar seriamente la necesidad de tecnología de inteligencia artificial será utilizada como un arma una regulación más estricta.

2016 GoodChinaBrand | ICP: 12011751 | China Exports