(Ilustración: Giovanni Tazza).
(Ilustración: Giovanni Tazza).
Moisés Naím

A finales del año pasado comenzaron a circular por Internet videos pornográficos cuyas principales protagonistas eran algunas de las actrices y cantantes más famosas de estos tiempos. Naturalmente, los videos se hicieron virales y fueron vistos por millones de personas en todo el mundo. A los pocos días se supo que Scarlett Johansson, Taylor Swift, Katy Perry y otras artistas de renombre no eran las verdaderas protagonistas de estos videos sino las víctimas de una nueva tecnología que, utilizando inteligencia artificial y otros avanzados instrumentos digitales, permite insertar la imagen facial de cualquier persona en un video.

Ese fue solo el comienzo. Muy pronto Ángela Merkel, Donald Trump y Mauricio Macri también fueron víctimas de lo que se conoce como ‘deepfake’ o falsificación profunda. Barack Obama fue utilizado, sin su consentimiento, para ejemplificar los posibles usos nefastos de esta tecnología. Vemos a Obama diciendo en un discurso lo que el falsificador quería que el dijera y que el ex presidente jamás había dicho. Pero el resultado es un video muy real.

La manipulación de imágenes no es nada nuevo. Los gobiernos autoritarios tienen una larga historia “desapareciendo” de las fotos oficiales a los líderes caídos en desgracia. Y ya desde 1990 photoshop permite al usuario alterar las fotografías digitales.

Pero el ‘deepfake’ es diferente. Y mucho más peligroso. Diferente porque desde que circularon los videos falsos de las actrices hasta hoy esa tecnología ha mejorado muchísimo. La imagen corporal y la expresión de la cara son hiperrealistas y la imitación de la voz y la gestualidad de la persona son tan exactas que resulta imposible descubrir que es una falsificación, a menos que se cuente con sofisticados programas de verificación digital. Y el peligro del ‘deepfake’ es que esta tecnología está al alcance de cualquier persona.

Un ex novio despechado y sociópata, por ejemplo, puede producir y diseminar anónimamente por las redes sociales un video que imita perfectamente la voz, los gestos y la cara de la mujer que lo dejó y en el que ella aparece haciendo o diciendo las más vergonzosas barbaridades. Las imágenes de policías propinándole una brutal paliza a una anciana que participa en una protesta contra el gobierno pueden provocar violentos enfrentamientos entre la muchedumbre que protesta y los agentes policiales. El respetado líder de un grupo racial o religioso puede instigar a sus seguidores a atacar a los miembros de otra raza o religión. Algunos estudiantes pueden producir un comprometedor video de un profesor al que repudian. Extorsionadores digitales pueden amenazar a una empresa con divulgar un video que dañará su reputación si la empresa no paga lo que le piden.

Los posibles usos del ‘deepfake’ en la política, la economía o las relaciones internacionales son tan variados como siniestros. La divulgación de un video mostrando a un candidato a la presidencia de un país diciendo o haciendo cosas reprobables poco antes de los comicios se volverá una treta electoral más comúnmente usada. Aunque el rival de este candidato en la pugna electoral no haya aprobado el uso de esta indecente táctica, sus seguidores más radicales pueden producir el video y distribuirlo sin pedirle permiso a nadie.

El potencial de los videos falsificados para enturbiar las relaciones entre países y exacerbar los conflictos internacionales también es enorme.

Y esto no es hipotético; ya ha ocurrido. El año pasado el emir de Qatar, Tamim bin Hamad al-Thani, apareció en un video elogiando y apoyando a Hamas, Hezbollah, a los Hermanos Musulmanes y a Irán. Esto provocó una furibunda reacción de Arabia Saudí, los Emiratos Árabes Unidos (EAU), Bahréin y Egipto, que ya venían teniendo fricciones con Qatar. Denunciaron el discurso del emir como un apoyo al terrorismo y rompieron relaciones diplomáticas, cerraron las fronteras y le impusieron un bloqueo de aire, mar y tierra. La realidad, sin embargo, es que el Emir de Qatar nunca dio ese discurso; el video que escaló el conflicto era falso. Lo que es muy real es el boicot que sigue vigente.

La amenaza que constituye el ‘deepfake’ para la armonía social, la democracia y la seguridad internacional es obvia. Los antídotos contra esta amenaza lo son mucho menos aunque hay algunas propuestas. Todas las organizaciones que producen o distribuyen fotografías o videos deben obligarse a usar bloqueos tecnológicos que hagan que su material visual sea inalterable. Las personas también deben tener acceso a tecnologías que los protejan de ser víctimas de los ‘deepfakes’. Las leyes deben adaptarse para que quienes difamen o causen daños a otros a través del uso de estas tecnologías tengan que responder ante la justicia. Hay que hacer más difícil el uso del anonimato en la red. Todo esto es necesario pero insuficiente. Habrá que hacer mucho más.

Hemos entrado en una era en que la diferencia entre verdad y mentira, entre hechos y falsedades se ha ido erosionando. Y con ello la confianza en las instituciones y en la democracia. El ‘deepfake’ no es sino otra arma en el arsenal que tienen a su disposición los mercaderes de la mentira. Hay que enfrentarlos.