Las redes sociales a veces se sienten como un quiosco gigante con más opciones que cualquier otro. Contienen noticias no solo de medios periodísticos, sino también de parientes, amigos, famosos y gente de países que nunca has visitado. Es un festín abundante. Pero, a menudo, no puedes elegir del buffet.
En la mayoría de las plataformas de redes sociales, los algoritmos utilizan tu comportamiento para limitar las publicaciones que se te muestran. Si envías la publicación de un famoso a un amigo, es posible que aparezcan más publicaciones como la del famoso en tu ‘feed’. Incluso cuando eliges qué cuentas seguir, el algoritmo sigue decidiendo qué publicaciones mostrarte y cuáles enterrar.
Hay muchos problemas con este modelo. Existe la posibilidad de quedar atrapado en burbujas en las que solo vemos noticias que confirman nuestras creencias preexistentes. Hay agujeros de conejo, donde los algoritmos pueden empujar a la gente hacia contenidos más extremos. Y hay algoritmos impulsados por el enganche que a menudo recompensan material escandaloso u horripilante.
Pero ninguno de estos problemas es tan perjudicial como el de quién controla los algoritmos. Nunca ha estado el poder de controlar el discurso público tan completamente en manos de unas pocas corporaciones.
La adquisición de Twitter por parte de Elon Musk, que la ha rebautizado como X, ha demostrado lo que puede ocurrir cuando un individuo impulsa una agenda política mediante el control de una empresa de medios sociales.
Desde que Musk compró la plataforma, ha declarado en repetidas ocasiones que quiere derrotar el “virus de la mente despierta”, que le ha costado definir, pero que en gran medida parece referirse a las políticas demócratas y progresistas. Ha restablecido cuentas que habían sido vetadas por sus opiniones antisemitas y de supremacía blanca. Ha promocionado a figuras de extrema derecha expulsadas de otras plataformas. Ha cambiado las normas para que los usuarios puedan pagar para que el algoritmo potencie algunas publicaciones y, supuestamente, ha cambiado el algoritmo para potenciar sus propias publicaciones. El resultado, como dice Charlie Warzel en “The Atlantic”, es que la plataforma es ahora una “red social de extrema derecha” que “promueve los intereses, prejuicios y teorías conspirativas del ala derecha de la política estadounidense”.
Cualquier empresa tecnológica podría hacer algo similar. Para evitar que quienes secuestran algoritmos se hagan con el poder, necesitamos un movimiento a favor de los algoritmos. Nosotros, los usuarios, deberíamos poder decidir qué leemos en el quiosco.
En un mundo ideal, me gustaría poder elegir mi fuente entre una lista de proveedores. Me encantaría tener un ‘feed’ elaborado por bibliotecarios, que ya son expertos en curar información, o de mi medio de noticias favorito. Y me gustaría poder comparar un ‘feed’ elaborado por una organización conservadora y otra progresista. O puede que simplemente quiera utilizar la selección de una amiga, porque tiene muy buen gusto.
Hay un creciente movimiento mundial para darnos algunas opciones, desde un grupo de Belgrado que exige que los algoritmos de recomendación sean un “bien público” hasta los reguladores europeos que exigen que las plataformas ofrezcan a los usuarios al menos una opción de algoritmo que no se base en el seguimiento del comportamiento del usuario.
Uno de los primeros lugares en empezar a hacer realidad esta visión es una red social llamada Bluesky, que recientemente ha abierto sus datos para que los desarrolladores puedan crear algoritmos personalizados. La empresa, que cuenta con el apoyo financiero del fundador de Twitter, Jack Dorsey, afirma que el 20% de sus 265.000 usuarios utilizan ‘feeds’ personalizados. Algunos de ellos han sido creados por desarrolladores de Bluesky y otros por desarrolladores externos.
Por supuesto, la elección algorítmica también plantea problemas. Cuando el profesor de Ciencias Políticas de Stanford Francis Fukuyama dirigió un grupo de trabajo que propuso que entidades externas ofrecieran la elección algorítmica, los críticos respondieron con muchas inquietudes. A algunos les preocupaba que la propuesta de Fukuyama pudiera dejar a las plataformas libres de culpa por sus fallos a la hora de eliminar contenidos nocivos. Otros argumentaron que su enfoque no haría nada para cambiar el modelo de negocio subyacente de algunas plataformas tecnológicas que incentiva la creación de contenidos tóxicos y manipuladores.
Fukuyama se mostró de acuerdo con que su solución podría no ayudar a reducir los contenidos tóxicos y la polarización. “Deploro la toxicidad del discurso político actual en Estados Unidos y otras democracias, pero no estoy dispuesto a intentar resolver el problema descartando el derecho a la libertad de expresión”, escribió en respuesta a las críticas.
Cuando dirigía el equipo de ética de Twitter, Rumman Chowdhury desarrolló prototipos para ofrecer a los usuarios opciones algorítmicas. Pero sus investigaciones revelaron que a muchos usuarios les resultaba difícil imaginar tener el control de su ‘feed’. Sin embargo, que la gente no sepa que lo quiere no significa que la elección algorítmica no sea importante. Y ahora que se avecinan otras elecciones presidenciales en Estados Unidos y la desinformación circula desenfrenadamente, creo que pedir a la gente que elija la desinformación –en lugar de aceptarla pasivamente– marcaría la diferencia.
Los algoritmos invisibilizan nuestras elecciones. Hacerlas visibles es un paso importante para construir un ecosistema informativo sano.
–Glosado, editado y traducido–
© The New York Times