Un estudio ha dado como resultado que los tuits generados por una inteligencia artificial podrían ser mucho más convincentes que los de una persona. Publicado en la Asociación Estadounidense para el Avance de la Ciencia (AAAS), el informe se basa en encuestas donde se le pedía a los usuarios discernir entre un tuit creado por una IA o un ser humano.
“Aparentemente, las personas encuentran los tuits más convincentes cuando están escritos por modelos de lenguaje de IA. Al menos, ese fue el caso en un nuevo estudio que comparó el contenido creado por humanos con el lenguaje generado por el modelo GPT-3 de OpenAI”, reporta The Verge.
MIRA: Apple trabajaría en una IA al estilo ChatGPT capaz de escribir código automáticamente
Como resultado del informe, las personas no podían discernir entre lo escrito por una IA y un humano. “Los autores de la nueva investigación encuestaron a personas para ver si podían discernir si un tuit fue escrito por otra persona o por ChatGPT. ¿El resultado? La gente realmente no podía hacerlo”, agrega.
Además, también se le pidió a los encuestados decir si lo publicado en el tuit era verdad o no. “La encuesta también les pidió que decidieran si la información de cada tuit era cierta o no. Aquí es donde las cosas se ponen aún más difíciles, especialmente porque el contenido se centró en temas científicos como las vacunas y el cambio climático que están sujetos a muchas campañas de desinformación en línea”, afirma el medio.
MIRA: La inteligencia artificial también llega al tenis: creará comentarios y estadísticas en Wimbledon
Sin embargo, para las personas les era más complicado saber si la IA estaba mintiendo. “Resulta que a los participantes del estudio les resultó más difícil reconocer la desinformación si estaba escrita por el modelo de lenguaje que si estaba escrita por otra persona. Del mismo modo, también pudieron identificar mejor información precisa si estaba escrita por GPT-3 en lugar de por un humano”, añade.
“Este tipo de tecnologías, que son asombrosas, podrían convertirse fácilmente en armas para generar tormentas de desinformación sobre cualquier tema de su elección”, dice Giovanni Spitale, autor principal del estudio e investigador postdoctoral y administrador de datos de investigación en el Instituto de Ética Biomédica y Historia de la Medicina en la Universidad de Zúrich.
Sin embargo, el investigador resalta que existen formas de evitar que esta tecnología pueda utilizarse para desinformar a las personas. Esto incluye no solo lo que puede hacer los desarrolladores, sino también las personas, pues podrían haber constatado la información. “[La inteligencia artificial] no es inherentemente mala o buena. Es solo un amplificador de la intencionalidad humana”, concluye Spitale.
Contenido Sugerido
Contenido GEC