Meta ha puesto a disposición de otras empresas la herramienta de moderación que permite identificar imágenes y videos en masa para su retirada de las plataformas digitales con el objetivo de frenar la difusión de contenido infractor como material terrorista o de explotación sexual infantil.
La herramienta de moderación, de código abierto, se conoce como Hasher-Matcher-Actioner (HMA) y ha sido diseñada por Meta para eliminar la difusión de contenido terrorista de las plataformas digitales como Facebook.
MIRA: Meta no quiere que el Metaverso sea regulado por los gobiernos
Meta ahora la ha liberado, poniéndola a disposición de otras empresas que no tienen los mismos recursos, para que ellas también puedan combatir el contenido que viola sus políticas, como ha informado en su blog oficial.
Una vez un la imagen o el video ha sido marcado en una red social por violar las normas de la comunidad —por estar vinculado a acciones terroristas, por tratarse de material de explotación sexual infantil u otro tipo de contenido infractor—, pasa a formar parte del sistema de HMA.
MIRA TAMBIÉN: Mark Zuckerberg lamenta haber invertido demasiado en Meta: “Me equivoqué y asumo la responsabilidad”
Esta herramienta genera una huella única para el contenido marcado, que se conoce como hash, lo que permite eliminar esa primera imagen o video, pero mantener la huella en la base de datos para buscar copias que se hayan podido subir a las plataformas.
De esta forma, cuando la herramienta encuentra una coincidencia no solo ofrece una relación de los resultados, sino que también permite actuar, por ejemplo, eliminar el contenido infractor identificado de forma automática en bloque o de uno en uno.
Otro objetivo de esta herramienta es crear de forma conjunta una base de datos más completa con los hash para poder atajar el contenido infractor en distintas plataformas de forma más rápida y eficaz.
MIRA: Meta recibe multa de 265 millones de euros por no proteger los datos de usuarios en Facebook
Esta herramienta se enmarca en los trabajos de Meta en Seguridad, un apartado en el que la compañía invirtió 5.000 millones de dólares el año pasado, con más de 40.000 trabajadores, y “cientos de personas” centradas en el trabajo específico de contraterrorismo.
La compañía también ha destacado la eficacia de su tecnología de inteligencia artificial para eliminar el contenido infractor de forma masiva. Como detalla, el contenido con discurso del odio recibe dos visitas por cada 10.000 visitas al contenido de Facebook, se bloquean “millones de cuentas falsas” a diario para evitar la propagación de información errónea, y desde 2017 han eliminado más de 150 redes de cuentas maliciosas.
Contenido sugerido
Contenido GEC