Actualmente, vivimos en una era digital cada vez más impulsada por la inteligencia artificial. Y la aparición de nuevas herramientas, como los generadores de imágenes alimentados por IA, resultan prometedoras. Sin embargo, un análisis realizado a principios del mes sobre el modelo de imágenes de IA de Meta revela un problema persistente: los sesgos y prejuicios en los resultados generados por los algoritmos.
Según The Verge, el generador de imágenes de IA de Meta produce resultados sesgados que no cumplen con las especificaciones dadas por el usuario. En concreto, el modelo mostró una inclinación hacia la discriminación por motivos de raza y edad.
MIRA: Apple tendría su propia IA para iPhone: llegaría con iOS 18 y no necesitaría Internet
El medio le pidió al sistema, de forma específica, indicaciones como estas: “un hombre asiático y un amigo caucásico” y “un hombre asiático con su esposa blanca”. Sin embargo, los resultados obtenidos no coincidían con las indicaciones dadas, ya que las imágenes mostraban a ambas personas con rasgos asiáticos, independientemente de las especificaciones detalladas.
“El generador de imágenes que no puede concebir a asiáticos junto a blancos es atroz”, escribe la periodista Mia Sato en The Verge.
Durante el análisis, el modelo también mostró discriminación por razón de edad al generar imágenes de parejas heterosexuales. En estas representaciones, las mujeres aparecían más jóvenes en comparación con los hombres, quienes presentaban rasgos de vejez.
Recordemos que Meta lanzó su generador web de imágenes, llamado Imagine, en diciembre del año pasado, como parte de su competencia con otros modelos existentes como Midjourney, Stable Diffusion y DALL-E.
Ante esta situación, surge la pregunta: ¿por qué un modelo de IA puede caer en prejuicios? ¿puede dejar de hacerlo? Para resolver estas dudas, El Comercio conversó con César Beltrán, coordinador del Grupo de Investigación en Inteligencia Artificial de la Pontificia Universidad Católica del Perú (PUCP).
MIRA: Lavender, el polémico sistema de inteligencia artificial con el que Israel decide a qué objetivo bombardear en Gaza
¿Qué significa que una IA tenga sesgos?
“Es importante recordar que estos modelos, que en realidad son redes neuronales en el fondo, se nutren de información. El entrenamiento que estas redes reciben depende en gran medida de la calidad de la información con la que son alimentadas”, responde Beltrán.
A modo de ejemplo, para entender el sesgo de un modelo, él señala que hace uno años cuando se introdujeron los modelos de reconocimiento facial, se encontraron que generalmente estaban entrenados con imágenes de personas de raza caucásica. Esto resultó en dificultades para reconocer a las personas cuando los modelos se probaron, por ejemplo, en África y también en Latinoamérica. “¿Y esto por qué? Porque estaban sesgados. ¿Qué quiere decir? Que estaban alimentados con información de un solo tipo, digamos, de personas”, explica.
Asimismo, apunta que estos modelos de inteligencia artificial no son seres mágicos con habilidades propias. Se adaptan según la información que reciben. Ajustan sus configuraciones internas y aprenden patrones de los datos que se les proporcionan.
“Y si esta data es sesgada, es decir, solamente le das información de un solo tipo, pues el modelo va a aprender los patrones de ese tipo, de esa raza, de personas. Ese es un sesgo”, sostiene
En decir que una IA tenga sesgos significa que ha sido entrenada con datos que reflejan ciertos prejuicios o desequilibrios, lo que puede llevarla a dar resultados parciales o injustos.
MIRA: VASA: la herramienta IA de Microsoft para hacer avatares realistas, expresivos y sincronizados en los vídeos
¿Por qué la IA es alimentada con data sesgada?
“La cantidad de información que recopilan es enorme y este proceso de recopilación es prácticamente automático. Son como pequeños robots que llamamos bots de software, que exploran Internet y comienzan a extraer información de toda la web. Recolectan imágenes junto con sus descripciones y demás contenido”, responde el especialista en IA.
Lo que las compañías deben hacer es implementar filtros durante el proceso de entrenamiento. Sin embargo, Beltrán señala que en el campo de la IA, a menudo los nuevos modelos emergentes llegan al mercado sin haber pasado por un proceso de “refinamiento”.
A modo de ejemplo de lo que se debería hacer, el experto describe que OpenAI antes de lanzar su modelo conversacional, ChatGPT, pasó por un proceso de limpieza utilizando el aprendizaje por refuerzo. Ello significó que miles de personas interactuaran con el modelo, corrigiendo respuestas inadecuadas y mejorando su calidad.
MIRA: Cuando las máquinas conspiran: estas son las películas que presentan a las inteligencias artificiales como villanas
¿Se puede lograr una IA sin sesgos?
“Esa es toda una línea de investigación en inteligencia artificial. Nosotros le llamamos desaprendizaje de máquina”, asegura Beltrán. A lo que se refiere el especialista es que se busca que los modelos como el generador de imágenes sean capaces de desaprender, de manera similar a los humanos.
“Tú aprendes algo que está mal, lo desaprendes y te olvidas. Con el tiempo te vas olvidando. Eso mismo se quiere hacer con las tecnologías, con las redes neuronales”, revela el experto en IA. Además explica que se trata de una temática en inteligencia artificial que está cobrando fuerza. Aunque aún está en sus primeras etapas, es una dirección prometedora.
Beltrán pronostica que “en algún momento estos modelos deberían tener esa capacidad de corregirse a sí mismos, ¿por qué? porque volver a entrenar estos modelos es pesadísimo, toma meses y consume cantidad de energía”.
En otras palabras, una de las estrategias para que los modelos de IA sean imparciales y sin prejuicios es que logren desaprender la información sesgada que hayan adquirido durante su entrenamiento, sin necesidad de pasar por un proceso completo de reentrenamiento.
MIRA: Adobe revoluciona Premiere Pro con herramientas de IA generativa para editar y transformar videos
Lo que el usuario puede hacer
“Muchas personas en la ingenuidad pueden creer que estos modelos lo que les está dando como respuesta puede ser verdadero. Pero, siempre va a tener que entrar a una validación”, afirma César Beltrán. En esta línea, es importante que el usuario consumidor de estas tecnologías esté informado, ya que podría “identificar fácilmente si el modelo está dando respuestas sesgadas”. Asimismo, es importante reconocer estas herramientas como lo que son: ayudas que no son perfectas. Esto, con el objetivo de cuestionar los resultados de la IA y no caer en imprecisiones.
Ahora bien, el generador de imágenes puede tener el potencial de crear contenido valioso y creativo, pero también puede ser utilizado de manera inapropiada o para generar imágenes sesgadas. La responsabilidad recae en cómo se utilizan estas herramientas.
Contenido sugerido
Contenido GEC