(Foto: AFP)
(Foto: AFP)
Redacción EC

Luego de que el portal ProPublica alertó que había ignorado más de 900 solicitudes de retiro de contenidos que incitaban a la violencia, la red social pidió disculpas por los inconvenientes y dijo que incrementará a 20.000 el número de personas que revisan los contenidos.

El medio reveló 43 ejemplos de publicaciones que hacían referencia a contenido o frases racistas, antisemitas o en contra de la igualdad de género. En algunos de los post la red social argumentó que no tenía suficiente información para tomar una decisión o que sus reglas permiten, por ejemplo, atacar una ideología pero no miembros de la religión.

(Foto: AFP)
(Foto: AFP)

Sin embargo, en un comunicado dirigido a ProPublica, la compañía reconoció que se cometieron errores en el proceso de revisión y que prevé duplicar el número de personas que se encargan de verificar que las publicaciones cumplan con las reglas.

El pasado mes de septiembre el mismo portal publicó una investigación que revelaba que dentro de la red social se podía segmentar audiencias con categorías antisemitas, entre ellas: “cómo quemar judíos” y “la historia de cómo los judíos arruinaron el mundo”.

En varias ocasiones la red social se ha comprometido a luchar en contra del discurso del odio dentro de la red social y trabajar “para hacer de Facebook un lugar donde todos puedan sentirse seguros”. De hecho, la compañía de Mark Zuckerberg ha acudido al uso de sistemas de inteligencia artificial que se encargan, entre otras cosas, de hacer comparación de imágenes para identificar si una foto o un video coincide con un contenido de terrorismo publicado anteriormente.
(Fuente: El Tiempo/GDA)

Más noticias de Tecnología en...

Contenido sugerido

Contenido GEC