Una investigación ha revelado que Open AI, a través de una compañía que realiza subcontratos, ha aprovechado la explotación laboral en Kenia para mejorar el rendimiento de ChatGPT. Los trabajadores, quienes tenían que etiquetar palabras de textos sobre situaciones espeluznantes, recibían un salario de menos de US$2 la hora.
“En su búsqueda por hacer que ChatGPT sea menos tóxico, OpenAI utilizó trabajadores kenianos subcontratados que ganan menos de US$2 por hora”, recoge un informe de la revista Time.
MIRA: Google pide ayuda a sus fundadores para mejorar la estrategia de combate contra ChatGPT
La inteligencia artificial de OpenAI tenía problemas con el lenguaje soez de Internet. “El predecesor de ChatGPT, GPT-3, ya había demostrado una capacidad impresionante para unir oraciones. Pero fue una venta difícil, ya que la aplicación también era propensa a soltar comentarios violentos, sexistas y racistas. Esto se debe a que la IA había sido entrenada en cientos de miles de millones de palabras extraídas de Internet, un vasto depósito de lenguaje humano”, agrega.
Por ello, se utilizó un proceso de etiquetado para reconocer las palabras que no quería que ChatGPT usara. “Para construir ese sistema de seguridad, OpenAI tomó como referencia una jugada de las compañías de redes sociales como Facebook, que ya habían demostrado que era posible construir IA que pudieran detectar lenguaje tóxico como el discurso de odio para ayudar a eliminarlo de sus plataformas. La premisa era simple: alimentar una IA con ejemplos etiquetados de violencia, incitación al odio y abuso sexual, y esa herramienta podría aprender a detectar esas formas de toxicidad en la naturaleza”, añade el medio.
Sin embargo, ese trabajo lo realizan personas, pues deben discernir entre miles y miles de palabras. “Para obtener esas etiquetas, OpenAI envió decenas de miles de fragmentos de texto a una empresa de subcontratación en Kenia a partir de noviembre de 2021. Gran parte de ese texto parecía haber sido extraído de los rincones más oscuros de Internet. Algunos describían situaciones con detalles gráficos como abuso sexual infantil, bestialidad, asesinato, suicidio, tortura, autolesiones e incesto”, asegura la revista.
MIRA: Así se verían las regiones de Perú como supervillanos, según una inteligencia artificial
Open AI utilizó a una compañía que ha trabajado con gigantes tecnológicas. “El socio de subcontratación de OpenAI en Kenia fue Sama, una empresa con sede en San Francisco que emplea a trabajadores en Kenia, Uganda e India para etiquetar datos para clientes de Silicon Valley como Google, Meta y Microsoft”, afirma.
Pese a que eran sometidos a leer textos grotescos, a los empleados se les pagaba prácticamente una misera. “A los etiquetadores de datos empleados por Sama en nombre de OpenAI se les pagó un salario neto de entre US$1,32 y US$2 por hora, según la antigüedad y el rendimiento”, concluye. OpenAI no se ha pronunciado al respecto hasta el momento.
Contenido sugerido
Contenido GEC