Frances Haugen, la famosa denunciante de Facebook, —que acusó a la compañía de Mark Zuckerberg de anteponer sus beneficios económicos al bienestar de los de los usuarios— dijo este lunes en una intervención en el Parlamento Europeo que le “preocupa mucho” el cambio de nombre de la empresa a Meta.
MIRA: Facebook se defiende y niega que 360 millones de usuarios sean adictos a su red social
“Muestra un metaproblema porque demuestra que quieren darle prioridad al crecimiento y al beneficio. Con 10.000 ingenieros más van a hacer videojuegos, pero no pueden tener 10.000 ingenieros para trabajar en la seguridad. Me parece indefendible”, manifestó la exempleada de la compañía.
- Facebook se convierte en Meta: los pros, contras y qué objetivo persigue | OPINIÓN
- WhatsApp: cómo aceptar sus nuevas políticas, en qué consisten y hasta cuándo hay plazo
- ¿Qué es el grupo virtual Brooklyn y cómo una de sus bromas desvió un avión en Europa?
El consejero delegado de la compañía, Mark Zuckerberg, quiere expandir su negocio hacia el metaverso, un universo paralelo de realidad virtual en el que los usuarios pueden interactuar a través de un “alter ego”, ya sea para el ocio personal o en el mundo laboral.
MIRA: “Facebook puede ser empleado para crear divisiones y expandir el odio”
“Me preocupa que haya más sensores en nuestras casas y oficinas para el metaverso. Los usuarios tienen que exponer mucho y Facebook ha demostrado que miente cada vez que le conviene”, señaló Haugen.
“Llenar oficinas y casas con sensores que no son transparentes es una pésima idea”, continuó la estadounidense, que añadió que, en lo que respecta al mundo laboral, los trabajadores “no pueden controlar la tecnología que utiliza el empleador” en el lugar de trabajo.
MIRA: WhatsApp: cómo bloquear y eliminar spam en iOS y Android
No obstante, Haugen vio elementos positivos en este universo paralelo y es que “va a funcionar de forma más humana”, porque lo hará “con grupos de hasta diez personas”, de tal manera que “nos podemos reunir con alguien que tiene ideas extremas, pero todos le conocemos, sabemos cómo es”.
UNIÓN EUROPEA
Haugen explicó que empezó a trabajar en Facebook porque “pensaba que tenía la posibilidad de sacar lo mejor que llevamos dentro. Pero estoy aquí porque creo que los productos de Facebook perjudican a los niños, atizan la división y debilitan la democracia”.
En este sentido, sobre el funcionamiento de los algoritmos que determinan el contenido que ven los usuarios, aseguró que “hay muchos idiomas en Europa para los que el sistema de seguridad es mínimo”, porque “los sistemas de supervisión que no están en inglés no funcionan bien”.
“No creo que el problema de Facebook sean malas personas (...) sino amplificar los contenidos más divisivos o más extremos”, dijo la extrabajadora del gigante tecnológico.
“Facebook es distinta de otras empresas. Es menos transparente que otras grandes plataformas, dijo Haugen, citando a Google y Twitter, y se mostró convencida que las leyes que se están negociando en Bruselas para controlar más a estas empresas “pueden inspirar a otros países”.
“La ley de servicios digitales puede ser un grito de alerta”, comentó sobre una normativa que obligará a las plataformas digitales a proporcionar información a las autoridades sobre cómo funcionan los algoritmos y a someterse a auditorias independientes.
Antes de su intervención en la Eurocámara, Haugen se reunió con el comisario europeo de Mercado Interior, Thierry Breton, y con la ponente de la ley de servicios digitales, la eurodiputada socialdemócrata Christel Schaldemose.
REACCIÓN DE FACEBOOK
“Evidentemente, como una plataforma construida alrededor de gente compartiendo cosas sobre las que están interesadas, inevitablemente se extenderá el contenido que provoca fuertes emociones. Pero es profundamente ilógico el argumento de que para obtener beneficio promovemos de forma deliberada el contenido que enfada a la gente”, dijo Monika Bickert, vicepresidenta de la Política de Contenido de Meta, en el blog de la compañía.
Según Bickert, los discursos de odio representan solo el 0,05% del contenido que ven los usuarios y aseguró que la compañía elimina el 97% de esa información “antes de que alguien lo denuncie”.
La empresa, dijo, destinó este año 5.000 millones de dólares a combatir los discursos de odio, con una plantilla de 40.000 personas destinados a este objetivo.