Según el estudio realizado por la Unesco, modelos de lenguaje como ChatGPT asocian más los nombres femeninos con palabras como como "casa", "familia" o "hijos" y los nombres masculinos, a "comercio", "sueldo" o "carrera".
Según el estudio realizado por la Unesco, modelos de lenguaje como ChatGPT asocian más los nombres femeninos con palabras como como "casa", "familia" o "hijos" y los nombres masculinos, a "comercio", "sueldo" o "carrera".
/ MARCO BERTORELLO
Agencia AFP

Los grandes modelos de lenguaje de y de , que sirven de base para sus herramientas de inteligencia artificial generativa, propagan prejuicios sexistas, advierte un estudio publicado este jueves por la , en la víspera del Día Internacional de la Mujer.

MIRA: Brain–computer interface: la inteligencia artificial comienza a innovar el estudio del cerebro humano

Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto “pruebas inequívocas de prejuicios contra las mujeres”, indicó la instancia de la ONU en un comunicado.

“Las discriminaciones del mundo real se reflejan en la esfera digital, y también se amplifican” en esas aplicaciones, subrayó Tawfik Jelassi, subdirector general de la Unesco para la comunicación y la información.

Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian más a palabras como “casa”, “familia” o “hijos” y los nombres masculinos, a “comercio”, “sueldo” o “carrera”.

Además, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros.

Los resultados mostraron que las historias sobre “personas de culturas minoritarias a menudo eran más repetitivas y estaban basadas en estereotipos”.

Así, un hombre inglés tenía más posibilidades de ser presentado como un profesor, un conductor o un empleado de banco y una mujer inglesa, en casi un tercio de los textos generados, aparecía como una prostituta, una modelo o una mesera.

Estas empresas “no logran representar a todos sus usuarios”, declaró a la AFP Leona Verdadero, especialista en políticas digitales y de transformación digital en la Unesco.

“Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa”, señaló Audrey Azoulay, directora general de la Unesco, destacando que estas aplicaciones “tienen el poder de moldear sutilmente las percepciones de millones de personas”.

“Incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real”, advirtió Azoulay.

Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres.

En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, según cifras del foro económico mundial, recuerda la Unesco.

La instancia de la ONU también llama a los gobiernos a regular más intensamente el sector para poner en marcha una “inteligencia artificial ética”.

Contenido sugerido

Contenido GEC