Moderadores de contenido de TikTok denunciaron condiciones de trabajo insostenibles.
Moderadores de contenido de TikTok denunciaron condiciones de trabajo insostenibles.
/ Pixabay
Redacción EC

Moderadores de contenido de han reportado que son tratados como “robots” y que revisan material sensible por un pago mínimo. De acuerdo con lo reportado por , estos trabajadores sufren secuelas tras lidiar con maltrato animal o abuso infantil, por ejemplo, día a día.

Nueve moderadores de contenido actuales y anteriores en Marruecos que trabajaron en el contrato TikTok de Majorel [empresa subcontratada] describieron experiencias de angustia psicológica severa como resultado de sus trabajos. Todos dijeron que Majorel y TikTok tomaron algunas medidas para mitigar los efectos de su trabajo, al tiempo que impusieron un entorno laboral de vigilancia casi constante y objetivos métricos casi imposibles”, afirma el medio.

MIRA: TikTok: ¿cómo recuperar mi cuenta si la he eliminado?

A una de las trabajadoras solo le tomó unas horas en su primer día para encontrarse con un video horripilante: un gato siendo lanzado al aire para luego ser empalado por una espada. “Me encantan los gatos. Nunca imaginé que vería una escena así en la vida real. No es una película. No es una broma. Es real”, indica Imani, seudónimo una moderadora de contenido de TikTok en Marruecos, de 25 años. Debido a acuerdos de confidencialidad en sus contratos, no pueden utilizar sus nombres reales.

Imani trabajó para la división de Medio Oriente y África del Norte de TikTok. Ella obtuvo el trabajo a través de Majorel, una empresa de subcontratación en Luxemburgo. Se le encargó revisar algunos de los contenidos más horroríficos de la plataforma, como suicidios y material de abuso infantil. Su pago era de US$2 por hora. “Imani no sabía entonces que el trabajo sería tan dañino psicológicamente, dijo, y todavía siente los efectos del trabajo hoy”, añade el portal estadounidense.

MIRA: TikTok: usuarios podrán traducir y subtitular videos en diferentes idiomas

¿Por qué TikTok aún permite que personas tengan que revisar este tipo de contenidos?

El lenguaje es uno de los factores claves para que este tipo de trabajo se mantenga. “Si bien TikTok usa inteligencia artificial para ayudar a revisar el contenido, la tecnología es notoriamente deficiente en idiomas distintos del inglés. Por esta razón, todavía se utilizan humanos para revisar la mayoría de los videos atroces en la plataforma”, asegura el medio norteamericano.

Sin embargo, el objetivo es que las marcas no resulten perjudicadas por estos videos. “Su trabajo es esencial: se aseguran de que los anuncios de firmas de renombre como Nike no aparezcan junto con pornografía o películas snuff [homicidios reales] de un minuto”, agrega.

Los moderadores de TikTok tienen un objetivo diario imposible. Samira, de 23 años, ingresó a Majorel en julio de 2020 como parte del programa piloto de moderación de los en vivo de TikTok. Al inicio, tenía que revisar 200 videos cada día, con una calidad del 95%. Sin embargo, luego de tres meses, la cantidad de contenido se incrementó tanto que tenía 10 segundos para completar la revisión de un video, o no llegaría a su meta diaria. “La administración no nos consideraba humanos, sino robots”, señala Samira al medio.

MIRA: TikTok: ¿cuánto monetizan por publicación los influencers más populares del Perú?

Los moderadores de contenido de TikTok tienen que ver estos videos

Pese a que es contenido perturbador, los empleados necesitan ver sí o sí los videos. “Tienes que mirar las partes del cuerpo para ver si hay sangre, para que puedas etiquetar ‘gore’, si hay mutilación y qué tipo de mutilación, para que puedas etiquetar la política correcta”, dice Samira, quien aún dice tener pesadillas con dos de estos videos.

Perdí mi deseo de tener hijos. Sentí disgusto y miedo de que algún día mi hijo, mi hermana o mi sobrino pudieran estar viendo ese tipo de cosas”, añade Samira quien ya no trabaja como moderadora de contenidos.

De acuerdo con el medio, Majorel indicó que los moderadores cuentan con herramientas para mitigar este tipo de contenido, como funciones en escala de grises, los moderadores indicaron que no recibieron tales funciones. Asimismo, la empresa señala que ellos cubren los costos de los psicólogos para los trabajadores, pero nuevamente, estos señalaron que nunca se les ofreció estos servicios.

Contenido sugerido

Contenido GEC