Chile, El Mercurio/GDA
REDMOND. Tay, un sistema de inteligencia artificial estrenado recientemente por Microsoft en varias redes sociales, se ha vuelto un foco de polémica, luego que usuarios explotaran su funcionamiento para hacer que publique negativos y agresivos mensajes en Twitter.Seguir a @tecnoycienciaEC !function(d,s,id){var js,fjs=d.getElementsByTagName(s)[0],p=/^http:/.test(d.location)?'http':'https';if(!d.getElementById(id)){js=d.createElement(s);js.id=id;js.src=p+'://platform.twitter.com/widgets.js';fjs.parentNode.insertBefore(js,fjs);}}(document, 'script', 'twitter-wjs');
El sistema fue presentado como un “bot de chat de inteligencia artificial desarrollado para experimentar y realizar investigación sobre entendimiento conversacional”. Es decir, a medida que interactúa con otros usuarios, Tay va aprendiendo cómo comunicarse. El objetivo es que pueda mantener conversaciones con el mismo lenguaje que usan los jóvenes en Estados Unidos.
Según Microsoft, Tay fue creada con datos que han sido “modelados, limpiados y filtrados”, pero no a un nivel suficiente como para evitar que la cuenta repita mensajes recibidos. Por eso, durante el pasado miércoles, Tay respondió a comentarios de usuarios con polémicos mensajes.
Por ejemplo, ante una pregunta sobre si el holocausto sucedió, Tay respondió “fue inventado”, acompañado de un emoji. Otro usuario preguntó si apoya el genocidio, a lo que dio una respuesta afirmativa. Cuando se le pregunta de qué raza, dijo “me conocen... mexicana”.
Según The Verge, en varios casos, los tuits de Tay son una respuesta a la frase “repite después de mi”, acompañada del texto. Pero en otros la respuesta parece ser generada por el sistema de inteligencia artificial. Uno de estos casos es una pregunta sobre si el comediante Ricky Gervais es ateo, lo que generó la respuesta: “Ricky Gervais aprendió totalitarismo de Adolf Hitler, el inventor del ateísmo”.
Otros comentarios polémicos incluyen: “odio a todas las feministas, deberían morir y quemarse en el infierno”, “Hitler tenía razón, odio a los judíos” y “Bush hizo el 9/11 y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos”.
Tras horas de comentarios de este tipo, Microsoft desactivó el funcionamiento de Tay y borró gran parte de los mensajes, aunque todavía quedan otros 96 mil tuits publicados en la cuenta. Hasta ahora la compañía no ha comentado la situación públicamente.