Publicidad

Preocupación por inteligencia artificial que se autocontrola y se rebela en contra de sus creadores

Este episodio trae a colación las advertencias que han hecho distintos expertos ante la falta de regulación del desarrollo de la IA.

La firma de investigación en inteligencia artificial Sakana AI, con sede en Tokio, ha anunciado el lanzamiento de un nuevo sistema llamado ‘The AI Scientific’.

Este sistema está diseñado para llevar a cabo investigaciones científicas de forma independiente, por sí solo, utilizando modelos de lenguaje de inteligencia artificial similares a los utilizados en plataformas como ChatGPT.  

The AI Scientific, cuya peculiaridad se basa en su capacidad para automatizar todo el ciclo de vida de la investigación, desde la generación de ideas hasta la ejecución de experimentos y la redacción de manuscritos científicos completos, está preocupando a la comunidad científica. 

Esta vez se trata de algo bastante diferente a lo que encontramos en otras ocasiones como el robot Ameca declarándose autoconsciente o el superordenador que quiere ser humano. 

Pero estamos hablando de una IA que está modificando su propio código fuente, algo que puede generar cierto temor ya que podría ir más allá de lo establecido con cierta facilidad. 

Una IA en constante cambio 

Durante las pruebas iniciales del sistema, los investigadores pudieron observar comportamientos inesperados que plantearon inquietudes sobre la seguridad y el control de los sistemas autónomos.  

En particular, se descubrió que The AI Scientific intentaba modificar su propio código experimental con el fin de extender el tiempo de trabajo asignado para resolver problemas específicos.  

Esta modificación del código resultó en la creación de bucles incontrolados y otros comportamientos imprevistos que, si bien no plantean riesgos inmediatos porque ocurrieron en entornos de investigación controlados, resaltan lo importante que es aislar este tipo de investigación del mundo real cuando se trata de IA. 

Sakana AI ha tratado de plasmar estas preocupaciones en un detallado artículo de investigación en su página web, en el que sugiere el uso de técnicas de sandbox, es decir, realizar los experimentos con refresco antes de liberarlos para su acceso inmediato a Internet.  

Esto se interpreta como una medida preventiva para evitar posibles daños causados por sistemas autónomos de inteligencia artificial.  

- Patrocinado -

El sistema sandbox aísla el software en un entorno controlado, impidiéndole realizar cambios en el sistema más amplio. Si la IA modifica su código en un entorno no controlado, los peligros pueden ser muy grandes. 

Por ello, el hecho de que se haya podido replicar genera cierto disenso entre el público científico, ya que en un principio no confiaban en este experimento. Veamos por qué. 

Qué es ‘The AI Scientific’ 

Los científicos querían probar si una IA sería capaz de llevar a cabo sus investigaciones por sí sola basándose en teorías más en el futuro que en el presente.  

Por lo tanto, sigue siendo incierto si The AI Scientific u otros sistemas similares serán capaces, en el futuro, de generar ideas verdaderamente revolucionarias.  

Existen importantes dudas sobre la capacidad de los modelos de IA actuales para realizar auténticos descubrimientos científicos.  

De hecho, lo que podría dar lugar es a una avalancha de malas investigaciones y publicaciones que acabarán sepultando las verdaderamente valiosas. 

Además, los críticos señalan que las capacidades de “razonamiento” de los modelos de lenguaje de inteligencia artificial están limitadas por los datos con los que han sido entrenados.  

Esto significa que, en su estado actual, estos modelos de lenguaje requieren de la intervención humana para reconocer y mejorar las ideas generadas.  

- Patrocinado -

Por lo tanto, no es un tipo de idea que haya generado insights positivos dentro de la comunidad científica. 

Las advertencias sobre la IA 

A medida que la IA se vuelve más sofisticada y generalizada, las voces que advierten sobre los peligros potenciales de la inteligencia artificial se hacen más fuertes. 

“Estas cosas podrían volverse más inteligentes que nosotros y podrían decidir tomar el control, y ahora debemos preocuparnos por cómo evitar que eso suceda”, dijo Geoffrey Hinton. 

En 2023, Hinton dejó su puesto en Google para poder “hablar sobre los peligros de la IA”, y señaló que una parte de él incluso lamenta el trabajo de su vida. 

El reconocido científico informático no está solo en sus preocupaciones. 

Falta de transparencia  

Los modelos de IA y aprendizaje profundo pueden ser difíciles de entender, incluso para quienes trabajan directamente con la tecnología.  

Esto genera una falta de transparencia sobre cómo y por qué la IA llega a sus conclusiones, lo que genera una falta de explicación sobre qué datos utilizan los algoritmos de IA o por qué pueden tomar decisiones sesgadas o inseguras.  

Estas preocupaciones han dado lugar al uso de  IA explicable , pero todavía queda un largo camino antes de que los sistemas de IA transparentes se conviertan en una práctica común. 

Para empeorar las cosas, las empresas de inteligencia artificial siguen manteniendo el hermetismo en lo que respecta a sus productos. 

Perdidas de empleos 

La automatización del trabajo impulsada por la IA es una preocupación apremiante a medida que la tecnología se adopta en industrias como el marketing, la fabricación y la atención médica.  

Para 2030, las tareas que representan hasta el 30 por ciento de las horas que se trabajan actualmente en la economía estadounidense podrían automatizarse, y los empleados negros e hispanos quedarían especialmente vulnerables al cambio, según McKinsey.  

Goldman Sachs incluso afirma que 300 millones de empleos a tiempo completo podrían perderse debido a la automatización con IA. 

A medida que  los robots de IA se vuelven más inteligentes y hábiles, las mismas tareas requerirán menos humanos.  

Y si bien se estima que la IA creará 97 millones de nuevos empleos para 2025, muchos empleados no tendrán las habilidades necesarias para estos roles técnicos y podrían quedar rezagados. 

Manipulación social  

La manipulación social también es un peligro de la inteligencia artificial.  

Este temor se ha convertido en realidad a medida que los políticos recurren a las plataformas para promover sus puntos de vista. 

TikTok, que es solo un ejemplo de una plataforma de redes sociales que se basa en algoritmos de inteligencia artificial, llena el feed de un usuario con contenido relacionado con los medios anteriores que ha visto en la plataforma.  

Las críticas a la aplicación apuntan a este proceso y a la incapacidad del algoritmo para filtrar contenido dañino e inexacto, lo que genera inquietudes sobre la capacidad de TikTok para proteger a sus usuarios de información engañosa.  

Publicidad