Dos cosas llaman la atención del “Informe de cumplimiento de las normas comunitarias” publicado el jueves por Facebook: por un lado, la detección de contenido con “discursos de odio” se ha duplicado en el último año, y por el otro la red social de Mark Zuckerberg confirma que ha puesto énfasis a una tarea por la que debió preocuparse desde el principio, o al menos cuando se convirtió en una de las páginas más visitadas del ciberespacio.
A continuación, algunos datos provistos por Facebook sobre los logros de la compañía para erradicar contenido prohibido en la plataforma, es decir los que atentan contra las “Normas de la Comunidad”.
A juzgar por el informe, Facebook está logrando avances para detectar contenidos que vulneran sus reglas de uso, incluso -como destaca la red social- antes de que los usuarios las vean y reporten.
Sin embargo, estas revelaciones surgen como una respuesta a los desafíos actuales que enfrenta la empresa, como las noticias falsas y el papel de la empresa en la interferencia electoral, como en los comicios presidenciales en EE.UU. el 2016. Sin mencionar el perjuicio a su reputación causada este año por el caso Cambridge Analítica y el hackeo de 30 millones de cuentas de sus usuarios.
“Los últimos dos años han demostrado que sin las garantías suficientes, las personas utilizarán indebidamente estas herramientas para interferir en las elecciones, difundir la información errónea e incitar a la violencia”, reconoció Mark Zuckerberg al comentar el informe.
“Una de las lecciones más dolorosas que he aprendido es que cuando conectes a dos mil millones de personas, verás toda la belleza y la fealdad de la humanidad”, agregó el dueño y fundador de la compañía en una contundente declaración sobre las dificultades recientes que ha afrontado la compañía.
El creador de Facebook indicó que el mal uso de la red social no podrá ser erradicado en su totalidad pero que la empresa trabajará para reducirlo y anticiparse a las nuevas amenazas. Para ello -aseguró- cuenta con un equipo responsable de hacer cumplir sus políticas de uso, el cual está compuesto por alrededor de 30.000 personas, incluidos revisores de contenido.
--Una actividad compleja--
La detección y eliminación de contenido prohibido de Facebook en un trabajo complejo que se apoya también en el uso de inteligencia artificial (´machine learning´). Sebastián Burgos, líder técnico de Fandango precisa sin embargo que la red social enfrenta un gran desafío al momento de erradicar cierto tipo de contenidos, por ejemplo, el bullying.
“Facebook comenta que en esta última parte es dónde más les está costando detectar proactivamente (antes que alguien denuncie el abuso), por eso es importante denunciar en la plataforma todo tipo de abuso que podamos detectar. Realmente estamos capacitando al equipo y entrenando a su máquina para hacer mejores detecciones en el futuro”, dijo Burgos a El Comercio.
Respecto a los escándalos que salpicaron a Facebook este año, Burgos opinó que estas no afectarán a la compañía. “El común de la gente no está al tanto de estos casos o no tiene una cultura de protección a su privacidad (…) y no entienden cómo puede afectarlos exponiendo tanto su vida, la respuesta es sencilla, mientras más saben de ti, es más fácil manipularte para que compres algo, para que votes por alguien, para que actúes de cierta manera”, añadió.
Sin embargo, el especialista recordó que la campaña Delete Facebook crece constantemente y aunque no representa una amenaza para la plataforma es evidente que muchos usuarios ya están migrando a otras redes sociales. “La gran ventaja que tiene Facebook, es haber adquirido Whatsapp e Instagram, los cuales han mostrado mucho crecimiento, pero la renuncia de los creadores de ambas empresas deja muy malas señales sobre lo que está sucediendo dentro de esta empresa”, concluyó.