Técnicamente, las políticas de Facebook permanecen sin cambio alguno. (Foto: AFP)
Técnicamente, las políticas de Facebook permanecen sin cambio alguno. (Foto: AFP)
Redacción EC

Hasta ahora, nunca reveló las pautas que sus moderadores toman en cuenta para decidir si eliminan un mensaje por llamar a la violencia, ser spam, de acoso, da instrucciones para autolesiones, de terrorismo, robo de propiedad intelectual o ser un discurso de odio. Pero este martes publicó una de lo que permite y lo que no.

Así, dentro de Facebook no se puede realizar amenazas violentas creíbles ni 'apreciar' la violencia sexual; promover el terrorismo ni la caza furtiva de especies amenazadas; intentar comprar marihuana, vender armas de fuego ni develar los precios de venta de medicamentos con receta; instrucciones para autolesionarse; mostrar a menores en un contexto sexual ni cometer homicidios en diferentes momentos y lugares, según resume la agencia AP.

Las normas comunitarias de Facebook están detalladas con ejemplos de cada caso que la red social prohíbe en su plataforma. (Foto: AFP)
Las normas comunitarias de Facebook están detalladas con ejemplos de cada caso que la red social prohíbe en su plataforma. (Foto: AFP)

De esta forma, la red social está cambiando de forma efectiva hacia dónde se tendrán que apuntar las críticas de eliminación de contenido: hacia errores de aplicación y ya no en casos individuales, indica el sitio "TechCrunch". Esto como una mejora significativa de sus antiguos 'estándares de la comunidad', donde lo más notable es que ya no descalifica a las minorías para evitar el discurso de odio.

Técnicamente, las políticas de Facebook permanecen sin cambio alguno. La diferencia está en que ahora es público. Solo una copia de un libro de reglas internas que hizo público "The Guardian" había demostrado en el pasado en qué casos la red social aplica sus normas para eliminar una publicación. Esas mismas reglas se traducirán a más de 40 idiomas para el público.

Por otra parte, la red social planea expandir su proceso de apelaciones de eliminación de contenido. Actualmente, permite a los usuarios pedir una revisión de una decisión para eliminar su perfil, página o grupo. Pero junto al anuncio llegó la noticia que también notificará a los usuarios cuando se elimine su desnudez, actividad sexual, discurso de odio o contenido de violencia gráfica junto a un botón para "Solicitar revisión" dentro de 24 horas.

Las normas comunitarias de Facebook están detalladas con ejemplos de cada caso que la red social prohíbe en su plataforma. (Foto: Facebook)
Las normas comunitarias de Facebook están detalladas con ejemplos de cada caso que la red social prohíbe en su plataforma. (Foto: Facebook)

Las precisiones

La agencia AP indica que las pautas actualizadas son un reflejo de los criterios que emplean los 7.600 moderadores de Facebook para aprobar una publicación, eliminarla o eliminarla y alertar a las autoridades. Los criterios no han variado en nada, pero Facebook ofreció detalles inéditos e indicaciones como lo que considera explotación sexual de adultos o menores con un margen para prohibir posibles otras formas de abuso en el futuro.

Cuenta con detalles como que la presencia de asesinos en serie dentro de su plataforma está prohibido. Por eso alguien que haya cometido dos o más asesinatos en "múltiples incidentes o ubicaciones" serán censurados. Mientras que una persona que cometió un único homicidio sí podrá ser admitida, pues podría tratarse de un caso de defensa propia.

El trabajo del moderador

La vicepresidenta de gestión de producto global de Facebook, Monika Bickert, coordinó el lanzamiento de las directrices desde setiembre pasado. En una rueda de prensa de la semana pasada en las oficinas de la red social dijo que "ha habido mucha investigación sobre cómo las instituciones ponen sus políticas 'allí', las personas cambian su comportamiento, y eso es algo bueno".

(Foto: Facebook)
(Foto: Facebook)

Aquella vez, Bickert admitió que aún existe preocupación de que los terroristas o grupos de odio mejoren el desarrollo de "solicitudes" para evadir a los moderadores de Facebook, "pero los beneficios de ser abiertos sobre lo que sucede detrás de las escenas supera eso".

El trabajo de moderador de contenido en empresas de medios sociales como Facebook ha sido descrito como "infernal" en muchas exposiciones sobre cómo es luchar contra la propagación de video sexuales de menores, videos de decapitaciones y racismo durante muchas horas al día. Para lidiar esto, los moderadores de la red social tienen acceso a asesoramiento y recursos a todas horas durante los siete días a la semana.

A diferencia de YouTube que recientemente impuso un límite de cuatro horas diarias de exposición a material ofensivo a sus moderadores, Facebook no dijo que imponga un límite por hora sobre la cantidad de publicaciones que revisan. Aunque ellos sí pueden solicitar no mirar ciertos tipos de contenido a los que son sensibles.

Los datos

Facebook organizará Foros de Facebook: eventos de Estándares Comunitarios en Alemania, Francia, el Reino Unido, India, Singapur y los EE. UU. Para darles a sus comunidades más grandes una mirada más cercana sobre cómo funciona la política de la red social.

Contenido sugerido

Contenido GEC