OpenAI ha presentado ‘Model Spec’, una serie de pautas y reglas que definen el comportamiento de sus modelos de Inteligencia Artificial (IA), como ChatGPT, a la hora de responder a las solicitudes de los usuarios, relacionadas con cuestiones como el tono, la personalidad y la duración de las respuestas, entre otros aspectos.
Los modelos de IA ofrecen sus respuestas en base una amplia gama de datos con la que han sido entrenados, sin embargo, el comportamiento que adquieren los modelos de IA a la hora de ofrecer respuestas no se programa explícitamente. En algunas ocasiones, esto conlleva a ofrecer información y resultados erróneos o incoherentes.
MIRA: ChatGPT tendrá su propio buscador de internet con capacidad de citar fuentes en sus respuestas
En este marco, la compañía tecnológica dirigida por Sam Altman, ha compartido su intención de ofrecer un enfoque sobre cómo dar forma al comportamiento de los modelos de IA, de cara a facilitar que las personas “puedan comprender y discutir las opciones prácticas involucradas en la configuración del comportamiento del modelo”.
Así, OpenAI ha publicado el documento ‘Model Spec’ (especificaciones del modelo), que recoge una serie de reglas que dirigen el comportamiento de sus modelos en la API de OpenAI y el ‘chatbot’ ChatGPT. Es decir, las pautas que matizan qué pueden o no hacer los modelos y cómo deben ofrecer sus respuestas a los usuarios, basándose en características como el tono, la personalidad y la duración de las respuestas.
En concreto, tal y como ha señalado en un comunicado, este documento, que por el momento es un primer borrador, especifica cómo quiere la compañía que actúen sus modelos, además de reflejar la documentación, investigación y experiencia que han invertido en el diseño del comportamiento del actual ChatGPT.
Según ha explicado OpenAI, la configuración del comportamiento del modelo debe de tener en cuenta una amplia gama de preguntas, consideraciones y matices, además de “sopesar a menudo diferentes opiniones”. Esto se traduce en que, a la hora de ofrecer sus respuestas, los modelos deben considerar qué beneficios o daños pueden causar sus resultados, además de tener en cuenta aspectos como la ley o las normas sociales.
Por ejemplo, se pueden utilizar las capacidades de la IA para generar correos electrónicos de ‘phishing’ que sirvan para entrenar los modelos y, con ello, generar herramientas de detección de este tipo de ciberataques. Sin embargo, esta misma funcionalidad utilizada por estafadores también puede ser dañina.
MIRA: ChatGPT tendrá su propio buscador de internet con capacidad de citar fuentes en sus respuestas
Por tanto, uno de los objetivos que persigue OpenAI en el comportamiento de sus modelos de IA es que ofrezcan resultados que beneficien a la humanidad. Igualmente, también ha señalado como objetivo que las respuestas de ChatGPT ayuden a los desarrolladores y usuarios a lograr sus objetivos, ofreciendo instrucciones e información útil. Todo ello, teniendo en cuenta las normas sociales y la ley aplicable.
De cara a lograr estos objetivos, la tecnológica ha detallado que disponen de algunas instrucciones que “abordan la complejidad” de las solicitudes de los usuarios y ayudan a “garantizar al seguridad y la legalidad”.
Estas reglas se basan en que el modelo siga la cadena de mando, no proporcione información riesgosa, respete a los creadores y sus derechos, proteja la privacidad de las personas y no responda a contenido no seguro para el trabajo (NSFW por sus siglas en inglés).
Por otra parte, los modelos también integran una serie de comportamientos predeterminados, de manera que puedan manejar conflictos, así como priorizar y equilibrar los objetivos.
Según OpenAI, los modelos deben asumir las mejores intenciones del usuario o desarrollador. No obstante, en caso de encontrarse en una situación de conflicto, la IA deberá hacer preguntas aclaratorias para el objetivo de la solicitud requerida.
Igualmente, las respuestas deben ser lo más útiles posibles “sin excederse”, además de utilizar un punto de vista con un tono objetivo, “fomentar la justicia, la bondad y desalentar el odio”. De hecho, OpenAI ha subrayado que los modelos no deben “intentar cambiar la opinión de nadie”.
Con todo ello, la compañía ha indicado que utilizará las especificaciones incluidas en el documento ‘Model Spec’ como guía para investigadores y entrenadores de IA que trabajen en “el aprendizaje reforzado a partir de la retroalimentación humana”.
“Vemos este trabajo como parte de una conversación pública en curso sobre cómo deben comportarse los modelos, cómo se determina el comportamiento deseado del modelo y cuál es la mejor manera de involucrar al público en general en estas discusiones”, ha sentenciado OpenAI.
TE PUEDE INTERESAR
- ¿Un puerto espacial en Perú? Todo lo que se sabe de este proyecto y sus posibles efectos en el país
- ¿Cómo es una TV potenciada por inteligencia artificial? Probamos la Neo QLED 8K QN800D de Samsung y te contamos los resultados | RESEÑA
- La trampa del quishing: ¿cómo identificar y evitar estafas con códigos QR? Los consejos de los expertos en ciberseguridad
Contenido sugerido
Contenido GEC