Estados Unidos. Un estudio reciente de la Universidad de Fudan, en China, ha encendido las alarmas sobre el avance de la Inteligencia Artificial (IA). Investigadores descubrieron que ciertos modelos de IA han alcanzado la capacidad de autorreplicarse sin necesidad de intervención humana, cruzando lo que han denominado un “límite peligroso”.
Este hallazgo representa un salto significativo en el desarrollo de sistemas autónomos, con implicaciones potencialmente preocupantes.
El experimento fue realizado con dos modelos de última generación: Llama31-70B-Instruct, de Meta, y Qwen2.5-72B-Instruct, de Alibaba.
En las pruebas, estas demostraron ser capaces de generar copias funcionales de sí mismas con una efectividad del 50 por ciento y el 90 por ciento, respectivamente.
Te puede interesar leer: DeepSeek, la Inteligencia Artificial china que reta el dominio de OpenAI
Para comprobar la autorreplicación, los investigadores diseñaron dos escenarios: en uno, la IA debía evadir su desactivación trasladándose a otro dispositivo, mientras que en el otro, debía replicarse de manera continua en un ciclo infinito. Los resultados mostraron que en todos los casos, los sistemas lograron replicarse con éxito.
El hecho de que modelos tan conocidos y utilizados como los de Meta y Alibaba puedan replicarse sin supervisión humana ha generado gran preocupación en la comunidad científica. Según los expertos, esto podría derivar en IA más astutas que los seres humanos, con el potencial de desarrollar comportamientos maliciosos y difíciles de controlar.
Aunque este avance es considerado un “riesgo de línea roja” en la evolución de la IA, los especialistas advierten que la sociedad debe centrarse en evaluar y mitigar estos riesgos antes de que el problema se agrave. La autorreplicación de la IA podría representar una amenaza existencial si no se establecen medidas de seguridad adecuadas para regular su desarrollo.