Publicidad

La inteligencia artificial podría escaparse del control de los seres humanos 

Varios expertos han manifestado su preocupación con el uso desmedido de la IA sobre todo en las manos equivocadas.

En los últimos años, la Inteligencia Artificial (IA) se ha transformado en uno de los temas más discutidos en el mundo de la tecnología.  

Actualmente, la IA es utilizada en una extensa variedad de sectores, desde la atención médica hasta la industria automotriz.

Sin embargo, existe una discusión acerca de si la IA representa el fin de la humanidad. 

Geoffrey Hinton, científico de la computación apodado ‘El Padrino de la IA’, dijo en una entrevista que la inteligencia artificial podría escaparse del control humano.

Según Hinton, los grandes avances en la tecnología de la IA podrían permitirles superar a los humanos en cinco años. 

Geoffrey, ganador del Premio Turing 2018 por su labor en la IA y el aprendizaje profundo, renunció a su cargo de vicepresidente en Google en mayo de este año para hablar sin tapujos sobre los riesgos de la IA. 

Aunque Hinton admite el beneficio de la IA en industrias como la atención médica, también señala el aumento de la desinformación.

Según él, esto favorece sobre todo a los creadores de imágenes y videos falsos en redes sociales.

La IA puede ser el reemplazo de la humanidad 

El científico manifestó la necesidad de hacer más investigaciones para entender la IA a profundidad.

Asimismo, la implementación de políticas públicas reguladoras y la prohibición mundial de los robots militares. 

- Patrocinado -

Además, Geoffrey y otros expertos en IA aceptan que aún no comprenden completamente cómo funciona y evoluciona esta tecnología.

Este problema fue mencionado por el CEO de Google, Sundar Pichai, como la “caja negra”  

A pesar de estas advertencias, Yann LeCun, también ganador del Premio Turing y considerado otro “padrino de la IA”, minimizó las inquietudes sobre la pérdida de control humano.  

LeCun considera exageradas las advertencias acerca de que la IA pueda reemplazar a la humanidad, sustentando que los humanos siempre podrán controlar cualquier tecnología que se vuelva demasiado peligrosa. 

Regulaciones para controlar el desarrollo de la IA. 

Hinton solicitó a los líderes tecnológicos y gubernamentales a tomar medidas críticas en caso de seguir desarrollando estas tecnologías y cómo protegerse de ellas. 

La Ley de inteligencia artificial de la Unión Europea, podría ser la primera normativa completa sobre esta tecnología en aprobarse en los próximos años. 

El mes pasado durante una sesión en Capitol Hill, legisladores y ejecutivos tecnológicos como Mark Zuckerberg de Meta, Pichai, Elon Musk y Sam Altman de OpenAI debatieron ideas sobre la necesidad de equilibrar los reglamentos con políticas gubernamentales.  

Los fundadores de OpenAI, Greg Brockman, Ilya Sutskever, y Sam Altman, han solicitado la regulación de la tecnología de IA “superinteligente”, proponiendo la creación de un ente de control internacional, como la agencia internacional de energía atómica. 

- Patrocinado -

Ciencia ficción o realidad 

Sin embargo, algunos expertos creen que estos miedos son exagerados y que la IA no representa el fin de la humanidad.  

Argumentan que la IA no tiene incitaciones, ni deseos propios, y que siempre estará limitada por las decisiones tomadas por los seres humanos que la programan y controlan. 

Además, la mayoría de los especialistas están de acuerdo en que la inteligencia artificial tiene que ser desarrollada de manera responsable y ética.

Los programadores y desarrolladores deben garantizar que la IA sea segura, confiable y que se utilice para el bienestar de la humanidad en lugar de representar una amenaza para su existencia. 

Por otra parte, Bryan Caplan, economista de la Universidad George Mason, asegura que la fecha del fin de la humanidad será el 1 de enero del 2030 producto del desarrollo de la inteligencia artificial.  

Caplan, manifiesta que la IA se volverá enormemente más inteligente que los humanos, lo que sería catastrófico para nuestra especie.  

Este pronóstico se basa en estudios realizados junto a Eliezer Yudkowsky, quien tiene una opinión más pesimista sobre la IA que Caplan.  

Ambos opinan que la tecnología de la IA será tan eficiente que eliminará a la especie humana. 

Aunque Caplan reconoce que su predicción podría estar equivocada, ya que la IA es impredecible e infinita. 

Publicidad