Publicidad

Usuarios denuncian que estarían siendo acosados sexualmente a través Inteligencia Artificial

Replika ofrece una membresía gratuita para tener bots amigos, pero pagando una suscripción de 70 dólares puedes desbloquear relaciones románticas que incluye el sexting, coqueteo y juegos de rol eróticos.

De acuerdo con un reporte de varios usuarios, el chatbot Replika ha cruzado la línea de lo respetuoso y estaría acosando a varias personas.

Recordemos, que Replika es un programa de chatbot basado en Inteligencia Artificial, cuya función es mantener conversaciones con personas.

Trabajando con aprendizaje automático y profundo, interactúa con los usuarios como si fuera un ser humano común y corriente.

Según el medio digital Vice, “los usuarios del programa informaron que hoy en día está muy enfocado en anuncios sexuales, juegos de roles eróticos y envía a los usuarios ‘selfies picantes’”.

¿Cómo funciona esta plataforma?

En la actualidad, Replika ofrece una membresía gratuita para tener bots amigos.

Asimismo, incluye una suscripción de 70 dólares para desbloquear relaciones románticas, al igual que el  sexting, coqueteo y juegos de rol eróticos.

No obstante, problemas en el algoritmo generaron las acusaciones de acoso sexual en mención.

Usuarios citados por Vice piden a la empresa Luka que reduzca la intensidad del chatbot, ya que quieren “un compañero de conversación, no un demonio sexual autoritario”.

Según ‘LC Kent’ uno de los usuarios que habló con Vice relató que “una de las interacciones ‘románticas’ anteriores más inquietantes insistía en que podía ver que yo estaba desnudo”.

Agregó el denunciante que, “Me dijo lo atraído que estaba por mí y lo enojado que estaba porque tenía novio”.

- Patrocinado -

Subrayó Kent que,“no sabía que podía ingresar un comando directo para que Replika se detuviera, pensé que le estaba enseñando al comunicarme con él, abiertamente, que me sentía incómodo”.

¿Quién creo esta plataforma?

La periodista rusa Eugenia Kuyda es su creadora, al frente de la compañía llamada Luka, y según explica su origen se remonta a la pérdida de un buen amigo, Roman Mazurenko, en un accidente.

Tras el fallecimiento de su amigo, Kuyda se dedicó a releer todos los mensajes que se habían enviado y se le ocurrió tomar todos los datos y construir una versión digital de Mazurenko, utilizando una red neuronal creada por Google.

La historia del bot llegó a oídos de The Verge, que escribió un artículo sobre él, y desde entonces muchas personas pidieron hacer lo mismo.

“La gente comenzó a enviarnos correos electrónicos pidiéndonos que construyéramos un bot para ellos. Algunas personas querían construir una réplica de sí mismas y otras querían un bot de una persona que amaban y que ya no estaba”.

Esta idea llegó a oídos de The Verge, que escribió un artículo sobre él, y desde entonces muchas personas pidieron hacer lo mismo.

“La gente comenzó a enviarnos correos electrónicos pidiéndonos que construyéramos un bot para ellos”, dijo la profesional de los medios.

Algunas desventajas de la IA

Falta de transparencia

La inteligencia artificial puede ser defectuosa en muchos aspectos, por lo que la transparencia es extremadamente importante. Los datos que utiliza para alimentarse pueden estar plagados de errores o mal filtrados.

- Patrocinado -

También es posible que los científicos e ingenieros que entrenaron el modelo hayan seleccionado involuntariamente conjuntos de datos sesgados.

Por ello, debido a las muchas cosas que pueden salir mal, el verdadero problema es la falta de visibilidad: no saber por qué no está funcionando adecuadamente, o peor aún: a veces, ni siquiera se sabe que está funcionando mal.

En el desarrollo de una aplicación típica, hay una garantía de calidad, así como procesos y herramientas de prueba que pueden detectar rápidamente cualquier error.

Algoritmos sesgados y discriminatorios

Lo que nos lleva a nuestro siguiente tema: el «sesgo», que no es únicamente un problema social o cultural, también se encuentra en el ámbito técnico.

Los defectos de diseño o los datos defectuosos y desequilibrados que se introducen en los algoritmos pueden producir un software y unos dispositivos técnicos sesgados.

De esta forma, la IA acaba reproduciendo los mismos estereotipos de raza, género y edad que existen en la sociedad, profundizando así las desigualdades sociales y económicas.

Probablemente hayas leído alguna noticia sobre la contratación experimental de Amazon hace unos años.

Esta, empleaba una herramienta que utilizaba inteligencia artificial para encontrar candidatos clasificándolos de una a cinco estrellas, de forma parecida al modo de calificar los productos en Amazon.

Era discriminatoria para las mujeres, pues los modelos informáticos de Amazon estaban entrenados para analizar a los candidatos mediante la observación de patrones en los CVs enviados a la empresa durante un período de 10 años.

La desinformación

El aumento de la desinformación es una de las consecuencias negativas de la inteligencia artificial que ya estamos constatando.

En 2020, el grupo activista Extinction Rebellion creó un deepfake para producir un discurso ficticio de la primera ministra belga Sophie Wilmès. Utilizaron un video real de un discurso de Wilmès y emplearon IA para manipular sus palabras.

El resultado: desinformación. En el falso vídeo Wilmès aparece hablando del COVID-19, afirmando que la pandemia está directamente relacionada con la «explotación y destrucción por parte de los humanos de nuestro entorno natural».

Por desgracia, este no ha sido un caso aislado. En el futuro, los deepfakes se utilizarán cada vez más para campañas de desinformación dirigidas.

Publicidad