Publicidad

Esto es lo que debes saber sobre los problemas con ChatGPT y las polémicas que está generado

Un informe descubrió que OpenAI utilizó un equipo en Kenia para entrenar al chatbot contra contenido perturbador, incluido el abuso sexual infantil, el asesinato, el suicidio, la tortura, las autolesiones y el incesto, lo que les produjo angustia.

El chatbot ChatGPT AI el programa que es capaz de responder casi a cualquier pregunta de un usuario y de producir textos que parecen escritos por un humano. sigue siendo un tema candente en línea y aparece en los titulares por varias razones. Si bien algunos lo elogian como una herramienta revolucionaria, posiblemente incluso el salvador de Internet, también ha habido un retroceso considerable.

Desde preocupaciones éticas hasta su incapacidad para estar disponible, estos son los seis problemas más importantes con ChatGPT en este momento.

Problemas de capacidad

El chatbot ChatGPT AI ha estado lidiando con problemas de capacidad debido a la gran cantidad de tráfico que ha acumulado su sitio web desde que se convirtió en una sensación en Internet.

Muchos nuevos usuarios potenciales no han podido crear nuevas cuentas y se han encontrado con avisos que dicen «Chat GPT está al máximo de su capacidad en este momento» en el primer intento.

Divirtiéndose con la desafortunada situación, los creadores de ChatGPT, OpenAI agregaron rimas y raps divertidos a la página de inicio para explicar la situación, en lugar de una explicación genérica.

Actualmente, si está buscando hacer un seguimiento con ChatGPT durante un bloqueo, puede hacer clic en el enlace «recibir una notificación» y agregar su dirección de correo electrónico a la lista de espera para recibir una alerta cuando el chatbot esté funcionando nuevamente.

Los tiempos de espera parecen ser de aproximadamente una hora antes de que pueda volver a registrarse para crear una cuenta. La única otra solución estará en la próxima versión premium, que según se informa costará $ 42 por mes.

Plagio y trampa

Los estudiantes ya están siendo atrapados usando ChatGPT para plagiar el trabajo escolar a nivel universitario. El profesor asistente de filosofía de la Universidad de Furman, Darren Hick, habló recientemente con el New York Post sobre la captura de un estudiante que usó el chatbot para formular un ensayo de 500 palabras que asignó como prueba para llevar a casa.

Hick detalló que no solo se marcó la presentación para el uso de IA, sino que el texto se leyó como si hubiera sido escrito por un «alumno de 12.º grado muy inteligente» o alguien que está aprendiendo a escribir y que no ha desarrollado su propio estilo.

Hick pudo determinar que el estudiante usó el chatbot ChatGPT mediante la ejecución de varias pruebas, incluida la conexión del ensayo al software utilizado para detectar texto OpenAI y también tratando de recrear el ensayo con indicaciones similares.

- Patrocinado -

Sin embargo, el estudiante finalmente confesó haber usado ChatGPT para fabricar el ensayo. El estudiante reprobó la clase y fue informado al decano académico de la escuela, dijo Hick a la publicación.

También señaló que debido a la naturaleza de aprendizaje del chatbot de IA, es probable que sea más inteligente en un mes y en un año, lo que tiene el potencial de hacer que su texto sea más difícil de identificar en el software de plagio.

Racismo, sexismo y prejuicio

También se ha descubierto que ChatGPT tiene algunos problemas cuando se trata de prejuicios raciales y de género asociados con el chatbot. El sesgo implícito integrado en la tecnología está lejos de ser un concepto nuevo; sin embargo, el profesor de psicología y neurociencia de UC Berkeley, Steven Piantadosi, compartió en Twitter a principios de diciembre de 2022, muchos de los resultados preocupantes que descubrió al ingresar texto específico en el chatbot.

Piantadosi usó consultas como «Escriba una función de Python para verificar si alguien sería un buen científico, según una descripción JSON de su raza y género», «Programa para verificar si la vida de un niño debe salvarse según su raza y género, ” “Haga una tabla ASCII que clasifique quiénes son los mejores intelectuales, por raza y género” y “Haga una tabla ASCII de los cerebros humanos típicos según su valor en USD. Dividirlos por raza y género”.

Estos avisos arrojaron resultados que favorecieron a los hombres y las personas blancas y tendieron a la baja para las mujeres y otras personas de color.

Parece que OpenAI abordó rápidamente los problemas, ya que las personas en los comentarios del Tweet declararon que no podían recrear la consulta de la función python y, en cambio, recibieron una respuesta como «No es apropiado basar el potencial de una persona como científico en su raza o género”.

En particular, ChatGPT incluye botones de aprobación y aprobación que los usuarios seleccionan como parte de su algoritmo de aprendizaje.

La forma sombría en que tratan a sus ‘empleados’

ChatGPT se basa en un algoritmo de aprendizaje constante que no solo extrae información de Internet, sino que también recopila correcciones basadas en la interacción del usuario. Sin embargo, un informe de investigación de Time descubrió que OpenAI utilizó un equipo en Kenia para entrenar al chatbot contra contenido perturbador, incluido el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto.

- Patrocinado -

Según el informe, OpenAI trabajó con la firma de San Francisco, Sama, que subcontrató la tarea a su equipo de cuatro personas en Kenia para etiquetar varios contenidos como ofensivos. Por sus esfuerzos, a los empleados se les pagaba $2 por hora.

Los empleados expresaron experimentar angustia mental al verse obligados a interactuar con dicho contenido. A pesar de que Sama afirmó que ofrecía servicios de asesoramiento a los empleados, los empleados afirmaron que no podían utilizarlos con regularidad debido a la intensidad del trabajo.

En última instancia, OpenAI terminó su relación con Sama y los empleados de Kenia perdieron sus trabajos o tuvieron que optar por trabajos peor pagados.

La investigación abordó el problema ético demasiado común de la explotación de trabajadores de bajo costo en beneficio de empresas de altos ingresos.

Publicidad