
:quality(75)/cloudfront-us-east-1.images.arcpublishing.com/elcomercio/NZOJCDGP2JCCBK3WRBI4XVNAJ4.jpg)
ChatGPT es aclamado por su gran capacidad de respuesta a cualquier interrogante; sin embargo, no siempre acierta. Han habido casos en los que cae en alucinaciones. Por ejemplo, un abogado usó la IA para un escrito, pero la herramienta se inventó precedentes legales.
Ante esta situación, la empresa detrás de ChatGPT está trabajando en cómo hacer para que la IA no alucine. En concreto, la nueva estrategia se basa en entrenar a los modelos de inteligencia artificial “para recompensarse a sí mismos siempre que hagan el buen recurrido. De esta manera no se premiará únicamente la conclusión final a la que llega el modelo de inteligencia artificial”, señala Genbeta.
Newsletter El Comercio MedIA

MIRA: ChatGPT: Japón advierte a OpenAI que no recopile los datos confidenciales de sus usuarios
Este enfoque recibiría el nombre de “supervisión de procesos” que permitiría que la IA se explique mejor y se apegue a un pensamiento humano. “Al final aprenderá de sus propios errores, pero de manera interna a cómo ha llegado a una conclusión que a priori es errónea”, informa el medio de comunicación.
“Si bien, OpenAI no es la creadora de este nuevo sistema de revisión de toda la línea de proceso pero si que va a darle un gran apoyo para terminar implementándolo en sus IA”, apunta Genbeta.
Por el momento, no se sabe cuándo OpenAI empezará a incorporar esta nueva estrategia en sus servicios como ChatGPT. Pero, lo probable es que este método aún esté en investigaciones.
TE PUEDE INTERESAR
Contenido sugerido
Contenido GEC


La temporada 3 de “Record of Ragnarok” ya está en Netflix: cuándo, a qué hora y cómo ver los nuevos episodios del anime
MAG.
32 películas navideñas clásicas para ver en estas fiestas con toda la familia
MAG.
Cuánto dinero gana Donald Trump como presidente de EE. UU. y qué hace con su salario
MAG.
Se prevé más de 10 pulgadas de nieve por tormenta invernal en EE.UU.: cuáles serían los estados afectados
MAG.





