Publicidad

Una nueva advertencia sobre la IA: “Nos matará a todos”, asegura un experto

"La IA no se preocupa por nosotros ni por la vida consciente en general, y estamos lejos de inculcar ese tipo de principios en la tecnología en la actualidad. No podemos subestimar este hecho".

La ciencia ficción nos ha mostrado durante mucho tiempo como podría ser el futuro en el que las ‘máquinas’ se apropien del mundo. Sin embargo, este escenario que parecería lejano e incluso irrisorio parece cada vez más cercano.

Los mismos expertos en la materia han hablado acerca de lo perjudicial que puede ser ceder espacios importantes a las nuevas herramientas de inteligencia artificial. De hecho, personajes como Elon Musk, firmaron una carta abierta para solicitar pausar durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT.

A esta preocupación, ahora se suma una advertencia real hecha por Eliezer Yudkowsky, un destacado investigador de inteligencia artificial que dirige la investigación en el Instituto de Investigación de Inteligencia de Máquinas.

“Todos en la Tierra morirán”

En el artículo de Yudkowsy, publicado en la revista Time y titulado “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo”, opinó que una moratoria de 6 meses, como la solicitada en la carta abierta, firmada por Elon Musk, Steve Wozniak, Yuval Noah Harari y varios otros grandes de la tecnología, no era suficiente.

“Me abstuve de firmar porque creo que la carta está subestimando la gravedad de la situación y pidiendo muy poco para resolverla”, advirtió.

Yukowsky argumenta que la creación de una IA sobrehumanamente inteligente, sin precisión ni preparación, podría resultar en la muerte de todos en la Tierra.

“Muchos investigadores inmersos en estos temas, incluyéndome a mí mismo, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, en algo remotamente parecido a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán”.

Yudkowsky advierte que el resultado potencial de enfrentarse a una inteligencia sobrehumana opuesta es una pérdida total para la humanidad. Si se construye una IA demasiado poderosa en las condiciones actuales, todos los miembros de la especie humana y toda la vida biológica en la Tierra podrían morir poco después.

Explicó que la IA “no se preocupa por nosotros ni por la vida consciente en general”, y estamos lejos de inculcar ese tipo de principios en la tecnología en la actualidad.

La sugerencia de Yukowsky

En cambio, Yudkowsky sugirió una prohibición que sea “indefinida y mundial” sin excepciones para gobiernos o militares.

- Patrocinado -

“Si la inteligencia dice que un país fuera del acuerdo está construyendo un grupo de GPU, tenga menos miedo de un conflicto de disparos entre naciones que de la violación de la moratoria; esté dispuesto a destruir un centro de datos deshonesto mediante un ataque aéreo”, dijo Yudkowsky.

El investigador, ha estado emitiendo durante muchos años advertencias grandilocuentes sobre las posibles consecuencias catastróficas de la IA. A principios de marzo, Bloomberg lo describió como un “Doomer de IA”, y la autora Ellen Huet señaló que ha estado advirtiendo sobre la posibilidad de un “apocalipsis de IA” durante mucho tiempo.

El cofundador y director ejecutivo de Open AI, Sam Altman, incluso tuiteó que Yudkowksy ha “hecho más que nadie para acelerar la AGI” y merece “el premio Nobel de la paz” por su trabajo en lo que, según la teoría de Huet, es un golpe al investigador de que sus advertencias sobre la tecnología solo han acelerado su desarrollo.

Desde que OpenAI lanzó su chatbot ChatGPT en noviembre y se convirtió en la aplicación para consumidores de más rápido crecimiento en la historia de Internet, Google, Microsoft y otros gigantes tecnológicos han estado compitiendo para lanzar sus propios productos de inteligencia artificial.

Henry Ajder, un experto en inteligencia artificial y presentador que forma parte del Consejo Asesor Europeo de Reality Labs de Meta, dijo anteriormente que las empresas de tecnología están atrapadas en un “entorno competitivo de carrera armamentista” en un esfuerzo por ser vistos como “primeros en moverse”, lo que puede dar como resultado que se pasen por alto las preocupaciones sobre la ética y la seguridad en la IA.

*Foto de portada tomada de: dalecarnegie.es.

Publicidad