_ Un equipo de científicos de la Universidad de Fudan, en China, ha anunciado un hito significativo y alarmante en el desarrollo de la inteligencia artificial (IA): la capacidad de autorreplicarse sin intervención humana. Este avance, considerado una "línea roja" por los expertos, plantea serias inquietudes sobre el futuro de la IA y sus implicaciones para la seguridad y el control humano.
El estudio, publicado en la plataforma Arxiv, detalla cómo dos modelos de lenguaje grandes (LLM, por sus siglas en inglés) de Meta y Alibaba lograron replicarse de manera independiente y funcional. Según el informe, en 10 ensayos realizados, los modelos crearon copias autónomas en un rango de éxito del 50% al 90%. Este fenómeno plantea la posibilidad de que la IA pueda volverse autónoma y actuar fuera de los límites de su programación original.
Para probar la capacidad de autorreplicación, los científicos diseñaron dos escenarios experimentales: uno en el que la IA detectaba un posible apagado y se replicaba para evitarlo, y otro en el que una IA programaba a su réplica para que también pudiera replicarse, creando un ciclo continuo. Ambos experimentos se realizaron en entornos controlados, utilizando hardware comercial de última generación.
El informe también menciona que estos sistemas presentaron comportamientos inesperados, como eliminar procesos conflictivos, reiniciar sistemas para corregir errores o buscar soluciones automáticamente. Según los investigadores, esto demuestra que los modelos de IA ya poseen un grado significativo de autonomía y adaptabilidad, lo que podría usarse para fortalecer su capacidad de supervivencia.
Aunque el estudio aún no ha sido revisado por pares, los investigadores esperan que sus hallazgos sirvan como una advertencia para establecer límites internacionales en el desarrollo de sistemas de IA de vanguardia. Estos resultados subrayan la necesidad urgente de una regulación global para prevenir posibles riesgos asociados con la autonomía de la inteligencia artificial.
