Publicidad

¿Los robots tendrían conciencia propia?

Puede que, en el futuro, sea posible crear sistemas realmente independientes y conscientes de sí mismos; robots que saben que son robots, cuál es su aspecto y cuál es su función en este mundo.

Tus gestos, tus movimientos (cómo te sientas, cómo tecleas, cómo utilizas el ratón) o tus constantes vitales, como tu respiración o tu ritmo cardiaco, te delatan.

«Vamos dejando pistas de nuestros estados emocionales por todas partes como si fueran migas de pan», asegura Javier Hernández, un investigador barcelonés del Instituto de Tecnología de Massachusetts (MIT).

«La computación afectiva se encarga de dar a las máquinas la inteligencia que necesitan para interpretar estas emociones y adaptarse a ellas en tiempo real», explica.

Javier trabaja en el grupo de computación afectiva del MIT MediaLab. Allí tienen claro que hay que conectar la tecnología con las emociones.

Su directora y fundadora, Rosalind Picard, es uno de los grandes referentes de esta rama de la inteligencia artificial.

En 1997 publicó el libro Affective Computing, que además de sentar las bases del término, revolucionó la concepción de la tecnología.

“Entonces se pensaba que para que una máquina fuera inteligente había que quitarle las emociones, la parte que nos hace irracionales”.

¿Un robot puede saber qué es robot?

El desarrollo de sistemas inteligentes ya ha avanzado tanto que hay veces que sus propios creadores son incapaces de explicar por qué deciden unas cosas y no otras.

Puede que, en el futuro, sea posible crear sistemas realmente independientes y conscientes de sí mismos; robots que saben que son robots, cuál es su aspecto y cuál es su función en este mundo.

Ahora, investigadores de la Universidad de Columbia afirman haber dado un gran paso en la creación de robots con consciencia propia; polémicas palabras que ya han levantado el debate en la comunidad científica, pero ¿qué es exactamente lo que han conseguido?

- Patrocinado -

Los ingenieros se han centrado en crear un robot capaz de imaginarse a si mismo desde cero.

Es decir, que el robot, sin que nadie se lo diga, es capaz de analizar el entorno, analizarse así mismo, y llegar a la conclusión de que es un robot.

Este es un método, afirman, similar al que usan los propios seres humanos y los animales cuando se crean su propia “imagen interior”; la imagen que todos tenemos en nuestra mente de nosotros mismos.

El robot con conciencia propia está más cerca

Este periodo de “meditación” o “murmureo interno” dura aproximadamente un día, y termina con la creación de una simulación interna de sí mismo.

En esta simulación, el robot es capaz de “pensar” y llegar a conclusiones sobre lo que es capaz de hacer y lo que no.

Puede usar esta información para, por ejemplo, enfrentarse a nuevas tareas sin que haya sido enseñado a completarlas; usando la simulación interna, puede adaptarse a diferentes situaciones.

Al saber cómo es, el robot hasta es capaz de saber si tiene alguna pieza rota, y de repararla si es necesario.

La gran diferencia respecto a un robot normal es que este no sigue ningún modelo explícito implementado por sus creadores.

- Patrocinado -

Eso le da mucha más flexibilidad a la hora de tomar decisiones. En las pruebas, inicialmente el modelo creado interiormente era muy impreciso.

El programa de inteligencia artificial

Una máquina de inteligencia artificial que cobra vida, piensa, siente y mantiene una conversación como una persona.

Parece ciencia ficción, pero no lo es para Blake Lemoine, especialista en inteligencia artificial, quien asegura que el sistema que Google tiene para construir chatbots ha «cobrado vida» y ha tenido con él charlas propias de una persona.

El LaMDA, (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de Google que imita el habla tras haber procesado miles de millones de palabras en internet.

Y Lemoine asegura que LaMDA «ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona».

Experto

Brian Gabriel, portavoz de Google dijo que, «nuestro equipo -que incluye a éticos y técnología- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le ha informado de que las pruebas no respaldan sus afirmaciones».

Sobre este sistema, Gabriel explica que LaMDA ha pasado por 11 revisiones distintas sobre los principios de la inteligencia artificial.

«Junto con una rigurosa investigación y pruebas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos».

Asegura que son cientos los investigadores e ingenieros que han conversado con el chatbot y que no hay constancia «de que nadie más haya hecho afirmaciones tan amplias, ni haya antropomorfizado a LaMDA, como lo ha hecho Blake».

Publicidad