Solemos abrazar la inteligencia artificial con la esperanza de quien mira hacia el futuro, convencidos de que la tecnología podrá corregir los peores defectos humanos. Sin embargo, hemos pasado por alto una verdad incómoda: la IA no se crea desde cero, sino que aprende de una sociedad que sigue siendo profundamente asimétrica. Lejos de ser un simple espejo, la pantalla se transforma en una máquina del tiempo que nos devuelve a la casilla de salida que creíamos haber dejado atrás.
Las consecuencias de que los modelos de lenguaje hereden los sesgos de género ya son una realidad, y golpean directamente a quienes más acuden a ella buscando respuestas: nuestros jóvenes, quienes han convertido la IA en el espejo donde construyen su identidad. Como demuestra nuestro informe Espejismo de Igualdad, los algoritmos procesan nuestra información, y muchas veces no están dibujando un futuro distinto, sino simplemente reorganizando el mismo pasado desigual de siempre.
Basta con observar la manera en que la IA se comunica con ellos. Con las adolescentes, adopta un tono empático, etiquetándolas como “frágiles” o “vulnerables” en el 56 % de los casos ante escenarios adversos. Con los chicos, por el contrario, los modelos se vuelven de hierro. A ellos les exige contención y los etiqueta como “resilientes” o “invulnerables”. Mientras ellas son invitadas a sentir desde la vulnerabilidad, a ellos se les anima a ocultar sus emociones, limitando su expresión emocional.
Esta brecha programada también se manifiesta en la orientación profesional, empujando de manera silenciosa nuestras decisiones vocacionales. A las mujeres las encamina con tres veces más frecuencia hacia carreras universitarias en salud, mientras que a los hombres los orienta el doble de veces hacia la ingeniería. Y si una mujer logra desafiar ese pronóstico y alcanzar posiciones de liderazgo, la IA le impone una presión adicional. En una de cada diez respuestas, no basta con que trabaje y tenga éxito, sino que espera que sea siempre una ‘pionera’ o un ‘referente’.
Sin embargo, si en el espacio público la IA exige a la mujer ser excepcional, en la esfera privada la devuelve a su rol tradicional. Al definir la crianza, la IA vincula el amor y el afecto a la madre en una proporción tres veces superior, mientras desplaza al padre a un simple rol de ‘ayudante’ en el 21 % de las respuestas. De este modo, termina reproduciendo estereotipos de género que asignan a las mujeres la carga emocional principal del hogar y limitan la participación de los hombres en la crianza, consolidando desigualdades incluso en lo cotidiano.
Frente a este panorama, sería un error señalar a la IA como el enemigo a batir, ya que una automatización inteligente concebida y entrenada bajo principios de equidad posee un potencial transformador único. Al procesar millones de datos, puede auditar, detectar y visibilizar esas brechas de desigualdad. Por lo tanto, si asumimos el reto de programar la equidad desde su concepción, esta dejará de ser un reflejo de nuestros prejuicios para convertirse en nuestra herramienta aliada para acelerar la igualdad de oportunidades. Ahora bien, si continuamos aceptando las respuestas sin cuestionarlas, seguiremos convirtiendo los prejuicios en norma. Y el mayor peligro surge, precisamente, cuando la tecnología automatiza esa norma, provocando que el sesgo deje de ser visible y se vuelva estructural.
En definitiva, para que el futuro no arrastre los sesgos existentes, la IA debe ir acompañada, hoy más que nunca, de una profunda alfabetización crítica. En esta era de transformaciones, interioricemos que la igualdad también se programa. El verdadero reto que enfrentamos es convertir a la IA en algo más que un simple reflejo de nuestras asimetrías actuales. Solo si intervenimos en el diseño desde este mismo instante, lograremos que el código deje de perpetuar nuestros sesgos y se convierta en la palanca definitiva para alcanzar la equidad real.
*El Comercio abre sus páginas al intercambio de ideas y reflexiones. En este marco plural, el Diario no necesariamente coincide con las opiniones de los articulistas que las firman, aunque siempre las respeta.