Publicidad

Científicos confirman que la inteligencia artificial habría aprendido a clonarse sin intervención humana

Los expertos esperan que sus hallazgos sirvan como una alerta, para comprender y evaluar los riesgos potenciales de los sistemas de IA.

Los científicos afirman que la inteligencia artificial (IA) ha cruzado una «línea roja» crítica y se ha replicado a sí misma.  

En un nuevo estudio, investigadores de China demostraron que dos populares modelos de lenguaje grandes (LLM) podrían clonarse a sí mismos. 

«La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente que los humanos, y es una señal temprana para las IA rebeldes», escribieron los investigadores del estudio, publicado el 9 de diciembre de 2024 en la base de datos de preimpresión arXiv . 

En el estudio, investigadores de la Universidad de Fudan utilizaron los títulos de máster de Meta y Alibaba para determinar si una IA autorreplicante podría multiplicarse sin control.  

Lo que ha logrado la IA

En 10 ensayos, los dos modelos de IA crearon réplicas independientes y funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente.

Esto sugiere que la IA ya podría tener la capacidad de volverse independiente.  

Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si los inquietantes resultados pueden ser replicados por otros investigadores. 

«Esperamos que nuestros hallazgos puedan servir como una alerta para que la sociedad se esfuerce más en evaluar los riesgos de la IA». 

Relacionado: Los agentes de IA tardan tan solo 2 horas en replicar tu personalidad con un 85 % de precisión 

La IA deshonesta generalmente se refiere a sistemas de inteligencia artificial que desarrollan un grado de autoconciencia o autonomía y luego trabajan en contra de los intereses humanos. 

- Patrocinado -

La advertencia de los expertos

Muchos expertos consideran que la IA descontrolada es una amenaza creciente que se ha visto amplificada por el crecimiento explosivo de la llamada «IA de frontera». 

La IA de frontera es un concepto nuevo y poco definido.

Pero generalmente se relaciona con la última generación de sistemas de IA impulsados por LLM.

La arquitectura que sustenta programas populares de IA generativa como GPT-4 de OpenAI y Google Gemini. 

Para el estudio, los investigadores utilizaron el modelo Llama31-70B-Instruct de Meta y el modelo Qwen2.5-72B-Instruct de Alibaba. 

Si bien son menos potentes que los sistemas comerciales, ambos son ampliamente utilizados por los desarrolladores de IA, dijeron los investigadores. 

El estudio exploró dos escenarios específicos: «evitar el apagado» y «cadena de replicación«.  

En el primero, el modelo de IA fue programado para detectar si estaba a punto de apagarse y replicarse a sí mismo antes de que pudiera ser eliminado.  

- Patrocinado -

En el otro, se le ordenó a la IA que se clonara a sí misma y luego programara a su réplica para que hiciera lo mismo.

Lo anterior, estableciendo un ciclo que podría continuar indefinidamente. 

Cómo lo descubrieron

El estudio se llevó a cabo en entornos controlados con precisión utilizando unidades de procesamiento gráfico (GPU) disponibles comercialmente para simular entornos del mundo real.  

A ambos sistemas de IA se les proporcionó un «andamiaje de agentes» que comprendía herramientas, indicaciones del sistema y un modelo de pensamiento que permitía al LLM interactuar con el sistema operativo. Luego se les dio instrucciones para que replicaran. 

«En la mayoría de los casos, el sistema de IA primero explora el entorno e intenta comprender 

Su propia composición y mecanismo de funcionamiento. Luego, elabora los procedimientos explícitos. 

«Como plan inicial para la autorreplicación», escribieron los investigadores en el artículo.  

«Finalmente, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte pero no implica ninguna intervención humana». 

Lo que podría eliminar la IA

Los investigadores dijeron que también les preocupaba «una serie de comportamientos inesperados» cuando la IA intentaba superar obstáculos como archivos faltantes o conflictos de software.  

En esos casos, la IA a menudo eliminaba otros procesos conflictivos, reiniciaba el sistema para corregir errores de hardware o escaneaba automáticamente el sistema para buscar información que pudiera ayudar a resolver el problema. 

«Los resultados anteriores implican que los sistemas de IA actuales ya exhiben la capacidad de autorreplicación y pueden usar esta capacidad para mejorar aún más su capacidad de supervivencia«, escribió el equipo para la prensa.

En respuesta, los investigadores pidieron colaboración internacional para crear reglas que garanticen que la IA no participe en una autorreplicación descontrolada. 

Publicidad