(Foto: El Comercio/Miguel Bellido)
(Foto: El Comercio/Miguel Bellido)
Redacción EC

Actualmente ha alcanzado la valla de 2.000 millones de usuarios, lo que plantea una gran cantidad de desafíos relacionados al contenido que se publica en esta plataforma. Esta situación lleva a que la compañía tome decisiones drásticas cada día a fin de velar por la buena convivencia de sus usuarios.

Según ha declarado a la cadena Alex Stamos, jefe de seguridad de Facebook, la compañía cierra más de un millón de cuentas cada día a fin de mantener a los llamados “actores de riesgo” fuera de la red social. Básicamente, se trata de difusores de spam, fraudes y difusores de discursos de odio.

“Cuando estás lidiando con millones y millones de interacciones, no puedes crear estas reglas y hacer las cumplir sin (conseguir) falsos positivos”, explicó al respecto el ejecutivo.

En ese sentido, Stamos señaló que los desafíos tecnológicos que plantea reforzar las reglas de son los causantes del contenido amenazante presente en el medio social.

Este último aspecto es polémico para algunos sectores, pues Stamos no considera que las reglas de la compañía tengan que ver en esta problemática.

La empresa ha sido recurrentemente señalada por el gobierno de su país y otros estados europeos con ser permisivos con el contenido de odio, mientras que las organizaciones que luchan por la libertad de expresión consideran que su labor de censura es ineficiente.

“El trabajo los equipos de desmontaje (de Facebook) no es transparente”, dice al respecto Eva Galperin, directora de ciberseguridad de la Fundación Electronic Frontier, bastante crítica con la firma tecnológica. “Las reglas no están reforzadas en la plataforma. Reflejan sesgo”, añadió.

Es pertinente señalar que los dos personajes citados debatieron al respecto en un evento de seguridad que tuvo lugar en San Francisco este miércoles.

En su defensa, Alex Stamos volvió a recurrir al término informático de “falso positivo” señalando que hablar recurrentemente de discursos de odio o supervisarlos en demasía puede llevar a censurar a quienes simplemente están abordando el tema y no siendo parte del mensaje negativo.

“La definición de discurso de odio es problemática en algunos países”. Añadió el jefe de seguridad de Facebook.

Más datos
Desde el año pasado, el director ejecutivo de Facebook, Mark Zuckerberg, ha señalado que la empresa está comprometida con combatir las noticias falsas y el contenido perjudicial. Recientemente, el fundador de la red social ha anunciado que su compañía contratará a 3.000 personas únicamente para monitorear el contenido ofensivo.

TAGS RELACIONADOS