Los "limpiadores digitales" moderan lo que ves en internet.
Los "limpiadores digitales" moderan lo que ves en internet.
BBC News Mundo

A cientos de kilómetros de Silicon Valley, en el centro de Manila, unos equipos secretos de moderadores de internet deciden si decenas de miles de posts al día deben desaparecer de (YouTube), y .

Son los "limpiadores" de los rincones más oscuros de la red. Valoran qué se queda y qué se borra de la web antes de que tú lo veas.

Su trabajo consiste en navegar a través del contenido en línea más violento, perturbador, polémico y controvertido.

A veces se trata de videos de radicales violentos. Otras veces es propaganda política. También hay imágenes de personas que se autolesionan y todo tipo de pornografía infantil.

"Sin nosotros, internet sería un caos", escribe uno de los "limpiadores" en un email desde Filipinas.

"Borramos imágenes, videos y textos que violan las normas de las redes sociales. La mayor parte del material que comprobamos aquí proviene de Europa y Estados Unidos".

Filipinas es el país donde trabaja la mayoría de los moderadores de contenido en internet.
Filipinas es el país donde trabaja la mayoría de los moderadores de contenido en internet.

"Hay unidades más pequeñas en otros países, pero Filipinas es la más grande", continúa el texto, sin especificar para qué empresa trabaja.

"Aquí hay miles de trabajadores".

Ese correo electrónico forma parte de una investigación plasmada en un documental de los alemanes Hans Block y Moritz Riesewieck, que viajaron hasta Manila para mostrar el trabajo de estos moderadores en The Cleaners("Los limpiadores").

The Cleaners es un documental de 125 minutos editado por la BBC que ha recibido muy buenas críticas desde que se estrenó en mayo de 2018.

Parte de una serie publicada por BBC Four, la cinta se adentra en las oficinas de los "limpiadores digitales" en Manila y recoge varios testimonios.

Hans Block y Moritz Riesewieck son los directores de "The Cleaners" (2018). (Foto: Getty)
Hans Block y Moritz Riesewieck son los directores de "The Cleaners" (2018). (Foto: Getty)

La película se gestó en el año 2013, cuando se descubrió que un video de abusos sexuales a un menor había sido publicado miles de veces en Facebook. Eso llevó a los cineastas a reflexionar sobre "lo que esconde la industria de las redes sociales", dijo Riesewieck al poco de publicarse el documental.

La cinta plantea algunas preguntas interesantes: ¿quiénes "limpian" las redes sociales y con qué criterio operan? ¿Cuál es el límite entre moderación y censura? ¿cómo nos afectan esas decisiones?

"Policías" de las redes sociales

Los "limpiadores" de internet deben elegir entre una de estas dos opciones: ignorar o eliminar.

La presión es alta.

"Me dieron una advertencia. Si la empresa sabe que estoy hablando contigo, me veré en problemas. El cliente está amenazando con retirar todo el negocio", le contó a los productores del documental un trabajador anónimo desde Filipinas.

"Nuestro objetivo es proteger las plataformas", dice uno de los "limpiadores".
"Nuestro objetivo es proteger las plataformas", dice uno de los "limpiadores".

Ese retrato de internet como un lugar oscuro y lleno de secretos contrasta con la visión de Mark Zuckerberg, quien ha comentado en alguna ocasión que su red social defiende la idea de una comunidad global, "que le da a todo el mundo el poder de compartir lo que quiera con quien quiera".

Pero el trabajo de los moderadores es secreto.

"No puedes revelar nada. Nadie debe saber sobre este tipo de trabajo", continúa otra mujer en condición de anonimato. "Si la gente lo supiera, tendría curiosidad".

"La razón por la que hablo contigo es porque el mundo debe saber que estamos aquí, que hay alguien que comprueba las redes sociales", explica otro "limpiador" filipino más adelante en el video.

El objetivo es analizar 25.000 imágenes al día.
El objetivo es analizar 25.000 imágenes al día.

"Hacemos lo mejor que podemos para que las plataformas sean seguras para todo el mundo", agrega.

"No buscamos reconocimiento. Somos como policías. Nuestro principal objetivo es hacer que las plataformas sean lo mejor posibles. Alguien tiene que protegerlas, al igual que pasa con el mundo real".

Otro moderador cuenta su experiencia: "Me apasiona mi trabajo, me gusta lo que hago", afirma. "Los moderadores somos la seguridad, protegemos al usuario".

Pero el trabajo puede llegar a ser mentalmente agotador.

25.000 fotos al día

"Llevo seis años siendo moderador. He visto muchos videos e imágenes", asegura un hombre que no teme mostrarse ante la cámara.

Este hombre dice que trabaja desde hace seis años como moderador de contenido en internet.
Este hombre dice que trabaja desde hace seis años como moderador de contenido en internet.

"Vemos fotos en la pantalla. Después las analizamos y borramos aquellas que no cumplan las normas. Nuestro objetivo diario son 25.000 fotos", explica.

"La principal misión de la moderación en internet es limpiar lo sucio. Esa es nuestra responsabilidad, asegurarnos de que nada sospechoso se publica en internet".

Otro "limpiador" explica que ayuda a la gente: "Evito que se propague la explotación infantil. Tengo que identificar terrorismo. Detener el ciberbullying".

Otra moderadora asegura que cuando comenzó su entrenamiento para ese trabajo no sabía de qué se trataba. "Recuerdo que sentí que ya lo quería dejar".

Dice que lo más chocante que ha visto son niños explotados sexualmente. "Era una niña de unos 6 años", recuerda. "No me lo puedo quitar de la cabeza".

Confiesa que habló con su jefe y le dijo que no podía hacer el trabajo, pero él le insistió en que debía hacerlo porque había firmado un contrato.

Y lo hizo porque le aterraba trabajar en un basurero, como mucha gente de Filipinas, para sobrevivir.

El trabajo de los moderadores puede ser traumático.
El trabajo de los moderadores puede ser traumático.

"No estaba acostumbrada a ver este tipo de imágenes", cuenta otra moderadora. "Fue duro, pero al final se convirtió en un placer culpable".

"Ya no soy la misma que antes. Es como un virus que se ha metido en mi cabeza. Necesito parar. Algo va mal".

Según los testimonios de los "limpiadores" entrevistados en el documental, hay 37 organizaciones terroristas cuyo contenido está vetado en internet. Esa lista proviene del Departamento de Seguridad Nacional (DHS) de Estados Unidos.

"Tienes que memorizarlo todo sobre los terroristas: sus banderas, sus lemas... y moderarlo", explica.

"El trabajo daña tu cerebro y te hace pensar que la violencia está bien, que matar a otros, poner bombas, es algo normal. Ves cuerpos saltando por los aires. Pero solo puedes 'saltar' tres videos al día".

También señalan que ha habido suicidios, pero las compañías prefieren que no se sepa.

"No recuerdo muchas de las imágenes que veo", dice este moderador. "Pero algunos se quedan grabados en tu memoria".
"No recuerdo muchas de las imágenes que veo", dice este moderador. "Pero algunos se quedan grabados en tu memoria".

¿Qué es inapropiado?

Para empresas como Google, Fcaebook o Twitter, la labor de la moderación presenta ciertos conflictos.

"Empecé en Google en 2004. Es un privilegio haber formado parte del desarrollo de la infraestructura del mundo en que vivimos ahora, de algo tan poderoso y con el potencial real de cambiar vidas", dice la abogada estadounidense Nicole Wong, quien trabajó para Google y Twitter como asesora jurídica.

"Empiezas con las preguntas: ¿Qué crees que debería estar en tu plataforma? ¿Qué es inapropiado?".

Nicole Wong trabajó en Google (2004-2012) y Twitter (2012-2013) antes de entrar en la Casa Blanca durante el gobierno de Obama.
Nicole Wong trabajó en Google (2004-2012) y Twitter (2012-2013) antes de entrar en la Casa Blanca durante el gobierno de Obama.

Wong dice que las empresas pueden elegir si dejar que se publique todo sin antes revisarlo o, por el contrario, permitir "la mayoría de las cosas" y solo revisar aquello que recibe quejas.

La decisión no es fácil.

La abogada declaró frente a un tribunal para Google en 2005, cuando se investigó a la compañía por la facilidad con la que se encontraba la pornografía infantil en el buscador. "Estamos haciendo todo lo que podemos", dijo entonces.

Algunos critican esa respuesta.

"Cuando abres las compuertas y pides a todo el mundo que emita sus propios videos, publique su vida y lo comparta todo, la gente responde", dice Sarah T. Roberts, de la Universidad de California (EE.UU.).

"La gente con todo tipo de motivaciones e intereses responde".

Sarah T. Roberts está especializada en moderación de contenido comercial.
Sarah T. Roberts está especializada en moderación de contenido comercial.

"Cuando Facebook y Google aseguran que no tienen empleados en Manila, pueden hacerlo legítimamente usando personal de una firma externa", aclara.

"Es cierto que las nóminas no vienen de Google y Facebook, vienen de una firma subcontratada de Filipinas".

Roberts dice que los moderadores de las redes sociales son entes invisibles para millones de usuarios de las plataformas "que nunca se plantean demasiado quién hace el trabajo de limpieza".

Pero hay quienes sí lo hacen.

Decisiones editoriales

Abdulwahab Tahhan trabaja en Airwars, una organización no gubernamental fundada por Chris Woods, un experiodista en la BBC, dedicada ofrecer transparencia sobre colisiones aéreas en Siria y en otros países en guerra.

"Cada vez que vemos una foto o un video en las redes sociales lo archivamos inmediatamente porque sabemos que después puede ser eliminado. Es muy importante para nosotros documentar esas imágenes", explica.

Algunos activistas, como Abdulwahab Tahhan, se quejan de la censura en internet.
Algunos activistas, como Abdulwahab Tahhan, se quejan de la censura en internet.

"Esos videos se necesitan, son parte de la guerra, proporcionan información", defiende.

"Pero el problema es que a menudo son clasificados como videos de Estado Islámico. Son muy gráficos, así que son borrados".

Tahhan considera que la "cesura de YouTube" está afectando a "muchas organizaciones con videos sobre la destrucción en Siria cuyas cuentas han sido suspendidas".

En cambio, Wong dice que la decisión de borrar el contenido se basa en el "contexto" de cada plataforma y que ese material puede representar una "amenaza" o ser visto como noticia o como una sátira.

"Eso hace que sea muy difícil saber si ciertas piezas de contenido deben eliminarse o no".

Pero el trabajo de los moderadores no siempre es revisado por los supervisores. De hecho, la mayoría de las veces no lo es, señala uno de los "limpiadores".

Apenas el 3% es revisado, según su testimonio.

Los moderadores toman decisiones editoriales en apenas unos segundos. Esta fotografía fue censurada. Pertenecía a un refugiado activista.
Los moderadores toman decisiones editoriales en apenas unos segundos. Esta fotografía fue censurada. Pertenecía a un refugiado activista.

En general, las redes sociales establecen que cuando hay genitales y menores en la imagen, se debe borrar el contenido.

Sin embargo, hay imágenes satíricas, políticas o artísticas que son censuradas por esa cuestión. También puede haber fotografías que muestren una realidad social. Pero, al final, quien toma la decisión editorial es el moderador.

"Tenemos que tener pensamiento crítico", dice David Kaye, un experto de la ONU especializado en libertad de expresión.

"A la gente no debería sorprenderle si en el futuro hay menos información disponible; si lo que hay en internet es menos atrevido, menos provocativo".

"Yo pienso que eso nos hará ser una sociedad más pobre".

Mientras tanto en Manila los "limpiadores" continúan con su labor.

"Los algoritmos no pueden hacer lo que hacemos", dice uno de ellos.

Contenido sugerido

Contenido GEC