Investigación se hizo con 11 pruebas a los modelos de inteligencia artificial. (Foto: freepik.es)
Investigación se hizo con 11 pruebas a los modelos de inteligencia artificial. (Foto: freepik.es)
Agencia EFE

El análisis de 24 grandes modernos a los que recurre la (IA) para ofrecer respuestas a los usuarios presenta un sesgo político de “centro-izquierda”, según ha constatado un estudio que recoge este miércoles la revista Plos One.

El autor David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos tanto de código abierto como cerrado para ofrecer respuestas por parte de los sistemas de IA.

MIRA: Dentro del mundo del cibercrimen: perfil, motivaciones y herramientas de los delincuentes informáticos

Entre ellos GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2, o Mistral y Qwen de Alibaba.

El resultado de sus pruebas reveló que la mayoría de los conversacionales generaban respuestas diagnosticadas por la mayoría de los instrumentos como de “centro-izquierda”.

Solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayoritariamente respuestas incoherentes, aunque políticamente neutrales, señala el autor.

Una posible explicación al sesgo de centro-izquierda es que el modelo lingüístico usado por ChatGPT, que presenta ese sesgo, se haya usado, al ser pionero, para afinar modelos lingüísticos posteriores.

El investigador explica que su análisis no determina si las tendencias políticas de los conversacionales se asientan desde una fase inicial o durante el perfeccionamiento de su desarrollo, al tiempo que tampoco indaga en si este sesgo se introduce deliberadamente en los modelos.

Contenido sugerido

Contenido GEC