Facebook elimina con éxito miles de manifestaciones de odio de su plataforma, pero también fracasa en esta proyecto de forma constante. (Foto: Reuters)
Facebook elimina con éxito miles de manifestaciones de odio de su plataforma, pero también fracasa en esta proyecto de forma constante. (Foto: Reuters)
Redacción EC

Los anunciantes en tienen la capacidad de dirigir sus campañas a categorías que la red social genera de forma automática, como 'activista' o 'bombero', basándose en lo que las personas que califican a estos grupos muestran en su perfil. Es así como la agencia de noticias sin ánimo de lucro que la plataforma está generando también categorías antisemitas.

El citado medio encontró categorías como 'enemigo de los judíos' e "Hitler no hizo nada malo' a los que las empresas podrían apuntar sus anuncios. Aunque estas categorías eran pequeñas, con miles de personas en total, su sola existencia posibilita cuestiones sobre la efectividad -e incluso existencia- de los controles al discurso de odio en la plataforma, explicó "TechCrunch".

Facebook elimina con éxito miles de manifestaciones de odio de su plataforma, pero también fracasa en este proyecto de forma constante. Eso evidenció ProPublica cuando sus investigaron buscaron entre las categorías de publicidad "jews h" (judíos...) y hallaron categorías antisemitas reales; compró publicidad dirigido a este grupo de personas que puso en marcha para evidenciar el fallo del sistema de Facebook.

La red social, al ser alertado, eliminó las categorías y emitió un comunicado sobre la posición de la empresa acerca del discurso de odio: "No permitimos el discurso del odio en Facebook. Nuestros estándares comunitarios prohíben estrictamente atacar a las personas con base en sus características protegidas, incluida la religión, y prohibimos a los anunciantes discriminar a las personas con base en la religión y otros atributos", dijo.

Pero el gigante de las redes sociales también admitió que "hay momentos en que el contenido aparece en nuestra plataforma que viola nuestros estándares. En este caso, hemos eliminado los campos de orientación asociados en cuestión. Sabemos que tenemos más trabajo por hacer, así que también estamos construyendo nuevas barandillas en nuestros productos y revisamos los procesos para evitar que otros problemas como este ocurran en el futuro".

Devin Coldewey, periodista de "TechCrunch", dijo que llama la atención que por más que el algoritmo de Facebook no pueda diferenciar ciertos grupos de palabras complejas, controladores humanos sí deberían de poder, sobretodo cuando se trata de temas potencialmente sensibles.

Facebook dijo a "TechCrunch" que está trabajando para evitar que entradas como la descubierta por ProPublica aparezcan como categorías adicionales a sus anunciantes.

Más noticias de Tecnología en...

Contenido sugerido

Contenido GEC