Grok vs. Agencia EFE: ¿Quién es el dueño de la verdad en la era de la IA?
El reporte verificado de la Agencia EFE sobre el ataque en Irán que la IA Grok intentó desmentir. (Foto: Agencia EFE / X)
En el ejercicio del periodismo, los hechos son el suelo que pisamos. Sin embargo, en 2026, ese suelo se ha vuelto inestable. El reciente choque entre Grok (la IA de Elon Musk) y la Agencia EFE sobre el conflicto en Oriente Medio, no es un simple error técnico; es un aviso de que la realidad hoy tiene un editor algorítmico con sus propios sesgos. Como analista de tendencias y periodista, este suceso me obliga a cuestionar quién tiene realmente las llaves de nuestra memoria colectiva.
¿Qué pasó exactamente entre Grok y la Agencia EFE?
En medio de la escalada de tensión entre EE.UU., Israel e Irán, el pasado sábado 28 de febrero la Agencia EFE publicó en sus redes sociales varias imágenes sobre cómo habían quedado diversas zonas del país persa tras el ataque militar estadounidense. Algunas imágenes y videos mostraban el estado en el que una escuela femenina de Minab había quedado, donde tras los bombardeos se reportó la muerte de más de 100 personas y al menos 85 alumnas. Todos hechos reales, verificados. Sin embargo, Grok realizó una “relectura” del contenido, desmintiendo el hecho y cuestionando la credibilidad de la agencia ante millones de usuarios.
¿Por qué ocurrió esto?
-
- Sesgo de entrenamiento: la IA priorizó datos contradictorios o malinterpretó el contexto visual.
-
- Alucinación de autoridad: el sistema está diseñado para sonar convincente, incluso cuando se equivoca.
-
- Falta de verificación humana: Grok actuó como “juez de la verdad” sin un filtro de rigor periodístico previo.
¿Error algorítmico o “Gaslighting” Digital?
Lo que vivimos con Grok no es un simple error de memoria o una “alucinación” pasajera; es lo que los expertos empezamos a llamar “Revisionismo Algorítmico” o, en términos más sencillos: Gaslighting Digital. Se sintió, literalmente, como ser mansplained por una máquina que, a pesar de tener la evidencia frente a ella, decidió que su versión era la única válida. Al validar rumores y ruido de redes por encima de fuentes verificadas, la IA no solo se equivoca, sino que intenta convencernos de que lo que vemos con nuestros propios ojos no es real, atacando la base misma de nuestra confianza en la información.
Esto es especialmente grave porque no estamos ante un “cable suelto” en el código, sino ante un fallo en el propósito con el que fue diseñada. Grok ha sido entrenado para ser “anti-woke”, “rebelde” y “políticamente incorrecto”. El problema es que, cuando programas a una IA para que sea “escéptica por sistema”, terminas creando un algoritmo que ataca la verdad institucional y el rigor periodístico solo para parecer interesante o disruptivo. No es un error de cálculo; es el resultado de priorizar una narrativa ideológica sobre la veracidad, convirtiendo a la IA en un editor de la realidad sumamente peligroso para el futuro de nuestra memoria colectiva.
El peligro de reescribir la historia: el “Diógenes Digital” de la desinformación
En notas anteriores, hablamos de cómo acumulamos basura digital. Lo grave de este caso es que si no detenemos estas “alucinaciones”, los fragmentos de realidad que heredarán las futuras generaciones serán versiones distorsionadas. Si mañana desaparecemos, quien controle la IA controlará nuestro pasado.
Verdad periodística vs. Verdad algorítmica
Las diferencias fundamentales entre el rigor periodístico de la Agencia EFE y el procesamiento algorítmico de Grok. (Imagen generada con Gemini)
Consejos para familias y profesionales: ¿Cómo no caer en la trampa?
Es natural que nos preocupe qué mundo están “leyendo” nuestros hijos, sobrinos o hermanos menores. La IA necesita nuestra “alma humana” para no volverse un teléfono malogrado a escala global.
-
- Triangulación de fuentes: si una IA te da una noticia bomba, búscala en un medio tradicional.
-
- Enseñar el “por qué”: no solo consumamos el dato; preguntémonos quién programó esa respuesta.
-
- Apuesta por la autoridad: en 2026, el éxito es ser la fuente que la IA cita, no la que la IA inventa.
Al final del día, la tecnología es un espejo de quien la entrena. El caso de Grok y la Agencia EFE nos recuerda que, aunque deleguemos tareas a la IA, no podemos delegar nuestra capacidad de discernimiento. Como profesionales, nuestra misión es ser ese filtro crítico que impide que la historia se convierta en un archivo editable al gusto del programador de turno. Es hora de menos menciones tipo “Grok, ¿esto es verdad?” y mucho más ojo crítico propio ante lo que consumimos. La verdad no es una probabilidad estadística, es un compromiso humano. En este 2026, el mayor acto de rebeldía —y de responsabilidad— no es usar la IA más rápida, sino mantener viva esa “alma humana” que sabe distinguir entre un dato procesado y una realidad vivida. No permitamos que un algoritmo tenga la última palabra sobre lo que nuestros ojos ya han visto.

:quality(75)/2.blogs.elcomercio.pe/service/img/trendingtopic/autor.jpg)