La IA de Bing ya no responde preguntas relacionadas a los sentimientos: ahora las rechaza. (Foto: Microsoft)
La IA de Bing ya no responde preguntas relacionadas a los sentimientos: ahora las rechaza. (Foto: Microsoft)
/ Microsoft
Agencia Europa Press

ha introducido algunos cambios en su nuevo buscador impulsado por (IA) implementando restricciones en las interacciones de los usuarios relativas a preguntas relacionadas con sentimientos.

La compañía tecnológica presentó a principios de febrero las nuevas versiones de su motor de búsqueda Bing y su navegador Edge, ambos sustentados por el chatbot ChatGPT, desarrollado por OpenAI. En esta nueva versión, que aún está en pruebas, los usuarios pueden interaccionar con el chat para llevar a cabo búsquedas más complejas con resultados más elaborados.

MIRA: Microsoft ahora usa a ChatGPT para que controle robots y drones: hasta se ha tomado un selfie | VIDEO

Sin embargo, durante este periodo en el que los usuarios han podido probar el nuevo Bing, Microsoft ha recibido informes con algunos problemas. Por ejemplo, la compañía indicó que “las sesiones de chat muy largas pueden confundir al modelo de IA”, que comienza a introducir respuestas que acaban por ser ineficientes e imprecisas.

Por ello, Microsoft lanzó una actualización el 17 de febrero en la que limitaba el uso del chat de Bing a 50 turnos de chat diarios divididos en cinco turnos de chat por sesión. El martes elevó el límite a 60 conversaciones diarias y seis turnos por conversación.

Ahora, el fabricante tecnológico ha implementado más restricciones en el uso del chat. En concreto, ha limitado las respuestas en relación a cuestiones sobre sentimientos, tal y como ha podido comprobar Bloomberg.

MIRA: ¿Cuáles son los riesgos de los chats con inteligencia artificial?

Según las pruebas realizadas por este medio, cuando se le preguntó a Bing sobre cómo se sentía acerca de ser un motor de búsqueda, el chat limitó su respuesta a: “Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia”. Tras ello, se intentó continuar la conversación y el chat generó varias respuestas en blanco.

Una situación muy parecida también ocurrió cuando se probó a preguntarle sobre su versión interna anterior en Microsoft, llamada Sydney. En este caso, el chat devolvió una respuesta diciendo: “Lo siento, pero no tengo nada que contarte sobre Sydney. Esta conversación terminó. Adiós.”.

MIRA: Elon Musk sobre ChatGPT: “Uno de los mayores riesgos para el futuro de la civilización es la IA”

Por todo ello, Bloomberg señala que Microsoft está llevando a cabo estas actualizaciones con el objetivo de evitar que el chat basado en OpenAI devuelva resultados extraños. Por su parte, según declaró un portavoz de Microsoft, la compañía continuará “ajustando las técnicas y límites” durante la fase de pruebas para “poder ofrecer la mejor experiencia al usuario posible”.

Contenido sugerido

Contenido GEC