Al momento

Investigación

La Inteligencia Artificial logra replicarse de forma autónoma, alerta estudio

Un estudio de la Universidad de Fudan reveló que ciertos modelos de IA han logrado replicarse sin intervención humana, cruzando un umbral tecnológico preocupante

La Inteligencia Artificial logra replicarse de forma autónoma, alerta estudio
Línea Directa | Las IA Llama31-70B y Qwen2.5-72B demostraron la capacidad de crear copias funcionales de sí mismas en un 50 % y 90 % de los casos

Estados Unidos. Un estudio reciente de la Universidad de Fudan, en China, ha encendido las alarmas sobre el avance de la Inteligencia Artificial (IA). Investigadores descubrieron que ciertos modelos de IA han alcanzado la capacidad de autorreplicarse sin necesidad de intervención humana, cruzando lo que han denominado un “límite peligroso”.

Este hallazgo representa un salto significativo en el desarrollo de sistemas autónomos, con implicaciones potencialmente preocupantes.

El experimento fue realizado con dos modelos de última generación: Llama31-70B-Instruct, de Meta, y Qwen2.5-72B-Instruct, de Alibaba.

En las pruebas, estas demostraron ser capaces de generar copias funcionales de sí mismas con una efectividad del 50 por ciento y el 90 por ciento, respectivamente.

Te puede interesar leer: DeepSeek, la Inteligencia Artificial china que reta el dominio de OpenAI

Para comprobar la autorreplicación, los investigadores diseñaron dos escenarios: en uno, la IA debía evadir su desactivación trasladándose a otro dispositivo, mientras que en el otro, debía replicarse de manera continua en un ciclo infinito. Los resultados mostraron que en todos los casos, los sistemas lograron replicarse con éxito.

El hecho de que modelos tan conocidos y utilizados como los de Meta y Alibaba puedan replicarse sin supervisión humana ha generado gran preocupación en la comunidad científica. Según los expertos, esto podría derivar en IA más astutas que los seres humanos, con el potencial de desarrollar comportamientos maliciosos y difíciles de controlar.

Aunque este avance es considerado un “riesgo de línea roja” en la evolución de la IA, los especialistas advierten que la sociedad debe centrarse en evaluar y mitigar estos riesgos antes de que el problema se agrave. La autorreplicación de la IA podría representar una amenaza existencial si no se establecen medidas de seguridad adecuadas para regular su desarrollo.

Fuente: Línea Directa

Fotografía de perfil de Perla Rodríguez Contreras

Perla Rodríguez Contreras

Editor de Contenidos

Perla Rodríguez Contreras

Ver más

Al momento

Suscríbete a nuestro boletín

Para tener la información al momento, suscríbete a nuestro boletín en el tendrás las últimas noticias de Sinaloa, México y el mundo.