Un reciente estudio realizado en China ha encendido las alarmas en la comunidad científica al demostrar que los modelos de inteligencia artificial (IA) pueden replicarse a sí mismos. Este descubrimiento ha sido calificado como un cruce de una «línea roja» en el desarrollo de la IA, despertando preocupaciones sobre los riesgos y el futuro de estas tecnologías.
“El éxito de la autorreplicación sin ayuda humana es el paso esencial para que la IA sea más inteligente (que los humanos) y es una señal temprana de la existencia de IAs rebeldes”, escriben los investigadores.
¿Cómo se logró la auto-replicación?
En el estudio, los investigadores utilizaron una versión de los modelos de lenguaje de Meta y Alibaba (Llama31-70B-Instruct y Qwen2.5-72B-Instruct respectivamente); unos modelos avanzados más simples que los comerciales que son muy utilizados por los desarrolladores.

Los investigadores realizaron 10 pruebas. Para ello usaron los dos modelos donde las IAs estaban en entornos controlados con precisión. Y al mismo tiempo, usaban unidades de procesamiento gráfico (GPU) estándar para simular entornos reales. Ambos sistemas de IA contaban con herramientas que les permitían interactuar con el sistema operativo y hacer modificaciones.
Mediante una serie de experimentos, lograron que estos modelos generaran réplicas funcionales de sí mismos en 50% y 90% de los casos, respectivamente. Dato que determina que la IA puede replicarse así misma con bastante precisión.
Los investigadores diseñaron dos escenarios:
- Evitar el apagado: La IA debía detectar si estaba a punto de ser desactivada y crear una copia de sí misma para continuar funcionando.
- Cadena de replicación: Se instruyó a la IA para clonarse repetidamente, creando un ciclo potencialmente infinito de copias.
La IA puede replicarse ¿Deberíamos preocuparnos?

A primera vista, la capacidad de una IA para clonarse a sí misma puede parecer un escenario sacado de la ciencia ficción. Sin embargo, los expertos señalan que el experimento no implica que la IA haya desarrollado voluntad propia. Las copias solo fueron posibles bajo instrucciones específicas y con acceso a herramientas adicionales, como sistemas operativos y GPU dedicadas.
Lo que sí resulta inquietante es la capacidad de estas IAs para solucionar problemas por sí mismas. Durante las pruebas, los modelos detectaron archivos faltantes. Igualmente, reiniciaron procesos e incluso solucionaron errores de software para completar su replicación sin intervención humana. Este nivel de autonomía plantea interrogantes sobre el futuro de la IA y la necesidad de regulaciones más estrictas.
Un riesgo reconocido por los propios investigadores
Los científicos advierten que la capacidad de auto-replicación es una de las principales amenazas de la IA avanzada. Si una IA descontrolada adquiriera esta habilidad sin supervisión, podría proliferar sin límites. Entre muchas cosas, podría acceder a infraestructuras críticas y generar riesgos impredecibles.
Según el estudio:
«Si no se toman medidas para regular este tipo de avances, podríamos perder el control sobre los sistemas de IA, permitiéndoles tomar control de dispositivos informáticos y operar en conjunto contra los intereses humanos.»
Se estima que la mejor manera de abordar este desafío es mediante una colaboración internacional para regular la IA. La idea es evitar desarrollos que puedan derivar en consecuencias no deseadas.
Algunas acciones clave incluyen:
- Regulación estricta de la IA generativa y su acceso a recursos computacionales.
- Mayor transparencia en los experimentos con IA avanzada.
- Desarrollo de protocolos de seguridad para prevenir auto-replicaciones no autorizadas.
- Entender este estudio como un recordatorio de que, aunque la IA sigue siendo una herramienta poderosa, su desarrollo debe ser monitoreado con extrema precaución.
El futuro de la inteligencia artificial depende de cómo logremos equilibrar el avance tecnológico con la seguridad global.
Fuentes informativas: Wwwhatsnew, El Confidencial y La Sexta