Las alucinaciones son afirmaciones plausibles pero falsas generadas por el modelo, incluso ante preguntas simples. (Imagen generada con IA)
Las alucinaciones son afirmaciones plausibles pero falsas generadas por el modelo, incluso ante preguntas simples. (Imagen generada con IA)

Desde la popularización de ChatGPT y otros chatbots de , esta tecnología se ha masificado y evolucionado rápidamente. Sin embargo, pese a sus avances, aún no logra superar un problema clave: las alucinaciones, esos momentos en que la IA genera respuestas falsas con tal seguridad que podrían pasar por verdaderas.

Un reciente de OpenAI —desarrolladora de ChatGPT— sostiene que estas alucinaciones no pueden eliminarse por completo bajo los sistemas actuales. La razón está en los modelos de evaluación, que priorizan la precisión por encima del reconocimiento de la incertidumbre.

MIRA: OpenAI y el preocupante suicidio de un menor: cómo usar y qué protocolos debe seguir un asistente de IA

“Parte del problema está en que las metodologías de evaluación actuales crean el incentivo equivocado: los modelos, al ser evaluados únicamente por precisión, tienden a adivinar antes que admitir ‘no sé’”, señala la compañía. “Es como un examen de opción múltiple: si no sabes la respuesta, adivinar puede darte una oportunidad de acierto, mientras que dejarlo en blanco garantiza cero puntos”.

El informe añade que, aunque los modelos reproducen con coherencia reglas de ortografía o sintaxis, no pueden inferir con certeza hechos poco frecuentes a partir de patrones estadísticos. Por ello, incluso con un 100% de precisión en pruebas, siempre habrá preguntas sin respuesta clara y, en consecuencia, margen para alucinaciones.

No obstante, OpenAI asegura que estas no son inevitables. Una vía de solución sería modificar la forma de evaluar: “Una solución clara es penalizar los errores cometidos con confianza más que la incertidumbre. Además, se debería otorgar crédito parcial cuando el modelo expresa dudas”, concluye la investigación.

Contenido sugerido

Contenido GEC