El 16 de marzo, Facebook compartió estadísticas que comenzaron a ilustrar la magnitud del impacto en línea de la masacre en Nueva Zelanda.
Según la red social, el video del ataque fue cargado 1,5 millones de veces en las primeras 24 horas. De esta cifra, los sistemas de detección de Facebook bloquearon automáticamente 1,2 millones. Esto dejó aproximadamente 300.000 copias en la plataforma para ser vistas por los más de 2 mil millones de usuarios de la red social.
You Tube afrontó un caso similar. Como informó “The Washington Post” el pasado lunes, el sitio web tomó “acciones sin precedentes” para detener el flujo de copias del video que se volvieron a cargar y editar para eludir los filtros de moderación.
En las horas posteriores al tiroteo, un ejecutivo de You Tube reveló que las nuevas descargas de la transmisión en vivo del atacante aparecían en la plataforma “tan rápido como una por segundo”.
El volumen de las reproducciones es asombroso por lo que dice sobre el poder de las plataformas y el deseo colectivo de compartir actos de violencia. A raíz de la forma en la que el criminal transmitió a nivel mundial el asesinato de 50 personas inocentes, se extraen algunas preguntas incómodas para las redes sociales: ¿la capacidad de conectarse a tal velocidad y escala es una ventaja o un perjuicio para el bienestar común?
Las plataformas no son culpables, directamente, de un acto de terror en masa. Sin embargo, la presencia en línea del hombre portando un arma es un recordatorio escalofriante del poder de su influencia. Como me dijo Joan Donovan, directora del Proyecto de Investigación de Tecnología y Cambio Social de la Universidad de Harvard, “si las compañías van a proporcionar las herramientas de transmisión para compartir ideologías de odio, estas compartirán la culpa por normalizarlas”.
Lo más preocupante, además, es que existe una apuesta por replantear la conversación hacia la moderación del contenido, en lugar de abordar el papel que desempeñan las plataformas para fomentar y alentar el extremismo en línea.
La moderación del contenido es importante y logísticamente problemática. A través de la implementación de nuevos sistemas de monitoreo y políticas integrales de seguridad elaboradas por expertos, las compañías pueden continuar mejorando la protección contra el contenido ofensivo. No obstante, para los que están en la prensa y en Silicon Valley, obsesionarse con los problemas acerca de la rapidez con la que las redes sociales retiraron el video es enfocarse en los síntomas, mas no en la enfermedad.
El horror de la masacre en Nueva Zelanda debería ser una llamada de atención para las grandes compañías tecnológicas y una ocasión para cuestionar la arquitectura de las redes sociales que incentivan y recompensan la creación de comunidades y contenido extremistas.
Centrarse solo en la moderación significa que Facebook, You Tube y otras plataformas no tienen que responder por el diseño de sus plataformas que fomentan la creación de contenido incendiario, recompensándolo con vistas, me gusta y, en algunos casos, con dólares por publicidad.
Las personalidades de You Tube y las comunidades que surgen en torno a los videos se convierten en importantes herramientas de reclutamiento para las franjas de extrema derecha. En algunos casos, nuevas características como “Super Chat” –que permite a los espectadores realizar donaciones a personalidades de You Tube durante las transmisiones en vivo– se han convertido en las principales herramientas de recaudación de fondos para los peores usuarios de la plataforma, actuando esencialmente como teletones en línea para los nacionalistas blancos.
Parte de lo que es tan inquietante acerca del sospechoso de los disparos en Nueva Zelanda es que revela cómo estas fuerzas pueden unirse en ocasiones para fines violentos. La decisión de calificar el ataque como un “mensaje de esfuerzo en la vida real” refleja una fusión misteriosa de odio conspirativo de las páginas de los foros en línea y del mundo real: un sombrío recordatorio de cómo las comunidades en línea pueden envalentonar y empujar a sus individuos más violentos e inestables.
Los administradores de nuestro fracturado ecosistema en línea deben aceptar la responsabilidad no solo por moderar el contenido, sino también por las culturas y los comportamientos que pueden fomentar. Aceptar esa responsabilidad requerirá una serie de conversaciones difíciles en nombre de las compañías más poderosas de la industria tecnológica. Implicará grandes preguntas sobre si la conectividad a escala es un bien universal o un fenómeno insostenible que nos empuja lentamente hacia resultados perturbadores.
Y si bien no son las conversaciones que quieren tener Facebook o You Tube, son las que desesperadamente necesitamos ahora.
–Glosado y editado–© The New York Times