Elon Musk y Stephen Hawking alertan sobre robot asesinos

Elon Musk y Stephen Hawking alertan sobre robot asesinos

Así se expresaron científicos y expertos en tecnología sobre el uso bélico de la tecnología…

Un grupo de científicos, investigadores y académicos, entre ellos Elon Musk y Stephen Hawking, advirtieron que una carrera armamentista militar de inteligencia artificial podría desarrollarse pronto si no se toman medidas preventivas.

Lee: Esto era lo que opinaba Stephen Hawking sobre la religión y la creación del Universo

Los expertos mnifestaron su preocupación a través de una carta de oposición sobre el uso bélico de la inteligencia artificial. Consideran que una carrera mundial de armamento sería inevitable si las grandes potencias militares continúan desarrollando armas inteligentes.

‘Es mucho lo que está en juego. Las armas autónomas han sido descritas como la tercera revolución en la guerra, después de la pólvora y las armas nucleares.’

Personajes como Terminator o los vehículos inteligentes con ametralladoras incorporadas y drones con bobas incluidas no son sólo obra de la ciencia, algunos ya son una realidad y otros están en proceso de desarrollo.

‘Las armas no requieren de materia prima costosa o difícil de obtener, así que se volverán ubicuas y económicas para que todos los poderes militares significativos las produzcan en masa.’

‘Las armas autónomas son ideales para tareas como asesinatos, desestabilizar naciones, someter a poblaciones y el asesinato selectivo de un particular grupo étnico (…) creemos que una carrera armamentista militar de inteligencia artificial no sería beneficiosa para la humanidad.’

La advertencia de estas grandes mentes surge ante la situación actual de los ejércitos que ya han comenzado a experimentar con sistemas automatizados. Israel, por ejemplo, cuenta con un sistema que detecta y derriba cohetes.

Quizá te interese: Google creó inteligencia artificial capaz de replicarse sin necesidad de humanos

Síguenos en Facebook, Twitter, Instagram y YouTube.



Selección editorial

© 2023 Prowell MediaTodos los derechos reservados