Facebook ya explicó que en algunos casos se mantienen publicaciones de contenido aborrecible porque estos no violan los estándares establecidos por la red social. (Foto: Facebook)
Facebook ya explicó que en algunos casos se mantienen publicaciones de contenido aborrecible porque estos no violan los estándares establecidos por la red social. (Foto: Facebook)
Redacción EC

El informe del Canal 4 del Reino Unido reveló que el proceso de moderación de es "decepcionante". Filas de espera de contenido marcado para revisión, videos de niños pelándose en línea, pedidos de la oficina central para no tomar acción en usuarios menores de edad, entre otras cosas, fue lo que halló. Algo que suena preocupante, pero que tiene una explicación para estimar que el reporte en realidad es ingenuo, estima el sitio "TechCrunch".

Un reportero encubierto visitó Cpl, una empresa de externalización de contenido moderado en Dublín que trabaja con Facebook. Elaboró su informe de acuerdo a lo que percibió, pero al parecer esta recepción de información no fue del todo entendida, pues lo que manifiesta en su trabajo es más una mala comprensión del proceso de moderación en lugar de problemas con el proceso como tal.

Facebook ya explicó que en algunos casos se mantienen publicaciones de contenido aborrecible porque estos no violan los estándares establecidos por la red social. (Foto: AFP)
Facebook ya explicó que en algunos casos se mantienen publicaciones de contenido aborrecible porque estos no violan los estándares establecidos por la red social. (Foto: AFP)

en algunos casos se mantienen publicaciones de contenido aborrecible porque estos no violan los estándares establecidos por la red social y porque pueden resultar informativos. Los usuarios que son menores de edad y ciertos contenidos tienen requisitos especiales, pero no se puede suponer que son reales. Las páginas populares necesitan existir en términos diferentes a los pequeños, ya sean partidarios radicales o celebridades. El discurso de odio es un tema tan delicado que necesita ser revisado varias veces. Y más.

El periodista Devin Coldewey, crítico de los procesos de Facebook, explica que el mayor problema de la red social en el informe en realidad es que pese a tener justificación para cada una de las supuestas trabas en el proceso de moderación, tiene razones que a menudo son compromisos insatisfactorios pero efectivos. Pero como tardó en hacerse responsable de lo que publican sus usuarios, sus recursos de moderación sencillamente se sobrecargan.

, que Facebook incluso necesita subcontratar empleados. En su blog aseguró que duplicará su personal de "seguridad y protección" a 20 mil, de los cuales 7.500 se dedicarán solo a moderar contenido. Actualmente tiene a 15 mil personas trabajando entre empleados a tiempo completo, contratistas y colaboradores de proveedores como Cpl.

Finalmente, aunque el trabajo es de miles de personas, se trata de un proceso en el que se deben hacer juicios que muchas veces son muy subjetivos de toneladas de publicaciones, por lo que siempre se esperan retrasos y errores. Pero no un error no significa necesariamente que el sistema sea ineficiente o que no se esté trabajando para solucionarlo.

Contenido sugerido

Contenido GEC