OpenAI ya trabaja en la forma de evitar que ChatGPT caiga en alucinaciones.
OpenAI ya trabaja en la forma de evitar que ChatGPT caiga en alucinaciones.
/ LIONEL BONAVENTURE
Redacción EC

es aclamado por su gran capacidad de respuesta a cualquier interrogante; sin embargo, no siempre acierta. Han habido casos en los que cae en alucinaciones. Por ejemplo, un abogado usó la para un escrito, pero la herramienta se inventó precedentes legales.

Ante esta situación, la empresa detrás de ChatGPT está trabajando en cómo hacer para que la IA no alucine. En concreto, la nueva estrategia se basa en entrenar a los modelos de inteligencia artificial “para recompensarse a sí mismos siempre que hagan el buen recurrido. De esta manera no se premiará únicamente la conclusión final a la que llega el modelo de inteligencia artificial”, señala.

MIRA: ChatGPT: Japón advierte a OpenAI que no recopile los datos confidenciales de sus usuarios

Este enfoque recibiría el nombre de “supervisión de procesos” que permitiría que la IA se explique mejor y se apegue a un pensamiento humano. “Al final aprenderá de sus propios errores, pero de manera interna a cómo ha llegado a una conclusión que a priori es errónea”, informa el medio de comunicación.

Si bien, OpenAI no es la creadora de este nuevo sistema de revisión de toda la línea de proceso pero si que va a darle un gran apoyo para terminar implementándolo en sus IA”, apunta Genbeta.

Por el momento, no se sabe cuándo OpenAI empezará a incorporar esta nueva estrategia en sus servicios como ChatGPT. Pero, lo probable es que este método aún esté en investigaciones.

Contenido sugerido

Contenido GEC