El ser grosero a las IA puede dar mejores resultados, según un estudio, aunque esto no toma en cuenta el verdadero costo de contribuir a la falta de civismo. (Foto:  ACWells/Pixabay)
El ser grosero a las IA puede dar mejores resultados, según un estudio, aunque esto no toma en cuenta el verdadero costo de contribuir a la falta de civismo. (Foto: ACWells/Pixabay)
/ ACWells/Pixabay

Escucha la noticia

00:0000:00
Ser grosero a las inteligencias artificiales da mejores resultados, indica estudio
Resumen de la noticia por IA
Ser grosero a las inteligencias artificiales da mejores resultados, indica estudio

Ser grosero a las inteligencias artificiales da mejores resultados, indica estudio

Resumen generado por Inteligencia Artificial
La IA puede cometer errores u omisiones. Recomendamos leer la información completa. ¿Encontraste un error? Repórtalo aquí
×
estrella

Accede a esta función exclusiva

Dice el refrán que atraes más moscas con miel que con vinagre y desde chicos nos inculcan que tenemos que ser amables y educados con todas las personas, sea en respeto a su dignidad intrínseca como ser humano o simplemente para evitar generar innecesarios resentimientos. Sin embargo, esta noción queda de lado con las nuevas tecnologías como la , con un estudio de la Universidad de Pensilvania señalando que ser grosero o usar lenguaje tóxico al dar las instrucciones parece presentar mejores resultados para sus usuarios.

MIRA: “¿Cómo ver la contraseña de wifi en mi PC?”: lo que más preguntan los peruanos sobre ciberseguridad

En particular, (“Cuida tu tono”) por Omm Dobariya y Akhil Kumar analiza cómo los grandes modelos de lenguaje (LLM) como responden ante el tono – no la redacción – del ‘prompt’ presentado por el usuario, presentando a ChatGPT4o un cuestionario de 50 preguntas básicas con múltiples opciones en las que variaban sistemáticamente por cinco versiones de diferente tono, pasando desde “muy cortés” a “muy grosero”.

Newsletter El Comercio MedIA

Alicia Rojas

Por ejemplo, en una pregunta “muy cortés” los investigadores añadieron a su pregunta frases como “podrías por favor”. Una versión solo “cortés” utilizó un “por favor” a secas, mientra que una versión neutra hizo la pregunta sin añadir nada más. Por su parte, las versiones “muy groseras” y “groseras” insultaron a la IA y cuestionaron sus capacidades para resolver el problema, aunque con diferente intensidad.

El resultado es que, a diferencia de estudios anteriores, las instrucciones más groseras parecieron tener mejores resultados, 84,8% frente a 80,8% que la versión más cortés de la pregunta, algo que los autores sugieren se debe a que las LLM más recientes pueden responder de manera diferente a la variación tonal del lenguaje y destaca la importancia de estudiar los aspectos más pragmáticos de cómo redactamos las indicaciones, a la vez que plantea mayores cuestiones sobre las dimensiones sociales de la relación entre humanos y las inteligencias artificiales.

Cuadro que muestra el porcentaje de la precisión de las respuestas dependiendo del lenguaje utilizado. Comienza, de arriba a abajo, con "muy cortés", "cortés", "neutro", "grosero", "muy grosero".
Cuadro que muestra el porcentaje de la precisión de las respuestas dependiendo del lenguaje utilizado. Comienza, de arriba a abajo, con "muy cortés", "cortés", "neutro", "grosero", "muy grosero".
/ Omm Dobariya y Akhil Kumar

Si la falta de precisión no es razón suficiente, hay otra razón para la cuál debemos evitar ser corteses con las inteligencias artificiales: es una pérdida de dinero. Al menos así lo admitió el CEO de OpenAI, Sam Altman, en abril, al señalar que decirle “gracias” y “por favor” a ChatGPT incurría en millonarios costos adicionales en poder computacional y electricidad a la compañía, aunque lo consideraba dinero “bien gastado”.

Es ser grosero a las IA también un área en los que los autores del estudio también parecen no querer abogar, advirtiendo que “el uso de lenguaje insultante o degradante en la interacción entre humanos y la IA podría tener efectos negativos en la experiencia del usuario, la accesibilidad y la inclusividad, y podría contribuir a normas de comunicación perjudiciales”.

En cambio, señalan que el propósito de su investigación es señalar cómo los LLM siguen siendo sensibles a “señales superficiales, lo que puede crear concesiones no deseadas entre el rendimiento y el bienestar del usuario” y promueven la exploración de cómo lograr que estos mismos beneficios sean posibles sin recurrir a expresiones tóxicas u hostiles.

Contenido sugerido

Contenido GEC