Medios extranjeros: la UE quiere invertir 440 millones de libras para desarrollar un robot asesino de IA

Según el "Daily Mail" británico publicado el 24 de mayo, la UE puede invertir 440 millones de libras (unos 3,76 mil millones de yuanes) para desarrollar asesinos robóticos, que pueden luchar sin asistencia humana.

Los asesinos de robots son oficialmente llamados armas autónomas mortales (LEY). En ausencia de participación humana, los robots pueden usar inteligencia artificial para atacar y matar enemigos. Aunque los miembros del Parlamento Europeo intentaron detener el financiamiento de armas letales autónomas, Bruselas aún Decidió financiar el controvertido robot a través del Fondo Europeo de Defensa. Fuentes informadas dijeron que el parlamento había intentado detener el financiamiento de la UE para estas armas, pero llegaron a un compromiso en la reunión 22. El objetivo del Fondo Europeo de Defensa es mejorar el de la UE. Fortaleza militar, finalmente desarrollándose independientemente de la autonomía militar de los EE. UU.

En una enmienda aprobada en febrero, los miembros del Parlamento Europeo declararon que el fondo de protección no debería utilizarse para financiar armas de destrucción masiva, minas terrestres antipersonal, municiones en racimo o armas completamente autónomas como armas letales autónomas. Después de la reunión de esta semana, el Consejo solicitó la enmienda para su abolición. Por el contrario, las normas propuestas para el establecimiento de fondos de protección ahora indican que los proyectos que respalda no están calificados solo si sus armas están "prohibidas por el derecho internacional".

En un comunicado, tres parlamentarios europeos advirtieron que las armas letales autónomas representan un riesgo para el "futuro humano". Dijeron: "El sistema letal de armas autónomas tomará una decisión mortal por sí mismo, que eliminará a los seres humanos en el campo de batalla. Responsabilidad. "Si se disemina ampliamente, este será el mayor salto en tecnología militar desde la invención de armas nucleares, causando un riesgo de vida o muerte para la paz internacional y el futuro de la humanidad. Expertos importantes creen que la comunidad internacional debería usar armas letales autónomas. Estaba prohibido antes.

El año pasado, 116 expertos de la industria, incluido el multimillonario fundador de Tesla, Elon Musk, emitieron una carta abierta en la que pedían la prohibición mundial de los robots automáticos y advertían: "No tenemos mucho tiempo para actuar". La caja de Pandora está abierta y será difícil cerrarla.

2016 GoodChinaBrand | ICP: 12011751 | China Exports