Pese a que las armas autónomas aún no existen, ya se han desplegado cerca de 381 sistemas de robótica militar (horizontal-x3)
Pese a que las armas autónomas aún no existen, ya se han desplegado cerca de 381 sistemas de robótica militar. (YouTube / Chris Eger)

Armas, aviones, barcos y tanques que funcionan gracias a la inteligencia artificial podrían batallar en guerras sin necesitar de control humano alguno, esto debido a la alta inversión que algunas naciones están realizando en este sentido.

Es por esto que se ha hecho un llamado para prohibir a "robots asesinos", máquinas que podrían funcionar con una autonomía total y a las que expertos y científicos se han opuesto por muchos años.

De acuerdo a un informe publicado por la organización Human Rights Watch, en conjunto con la Clínica Internacional de Derechos Humanos de la escuela de derecho de Harvard, las armas totalmente autónomas violarían la Cláusula Martens, una disposición del derecho internacional humanitario.

En ella se estipula que las nuevas tecnologías deben ser juzgadas por los "principios de la humanidad" y los "dictados de conciencia pública".

Hasta el momento 26 países ya han respaldado de manera explícita la prohibición de armas completamente autónomas, entre ellos Austria, Bélgica y China. Además, miles de científicos, expertos en inteligencia artificial y más de 20 premios Nobel de la paz han manifestado su apoyo.

Bonnie Docherty, investigadora principal de armas de Human Rights Watch indicó al medio inglés The Guardian que "permitir el desarrollo y uso de robots asesinos socavaría las normas morales y legales establecidas".

"Los países deberían trabajar juntos para prohibir de forma preventiva estos sistemas de armas antes de que proliferen en todo el mundo", agregó la profesional.

Pese a que las armas autónomas aún no existen, ya se han desplegado cerca de 381 sistemas de robótica militar y armas parcialmente autónomas en 12 países, incluidos Francia, Israel, Rusia, Gran Bretaña y Estados Unidos.


💬Ver 0 comentarios