/ NoticiasInformación basada en hechos y verificada de primera mano por el reportero, o reportada y verificada por fuentes expertas.
Solo para suscriptores
Los ‘deepfakes’ están aquí para quedarse: aquí una guía para evitar ser engañado| Entrevista
Los cibercriminales están utilizando imágenes, videos y audios manipulados mediante inteligencia artificial para suplantar la identidad de las personas. No seas uno de los engañados.
Resume las noticias y mantente informado sin interrupciones.
00:0000:00
Resumen
Este resumen es generado por inteligencia artificial y revisado por la redacción.
Los avances tecnológicos ahora permiten a cibercriminales a generar videos, imágenes y audios falsos de celebridades y hasta personas comunes. Imagen generada por ChatGPT.
¿Puedes diferenciar entre una imagen real o una creada por inteligencia artificial? Suena como el nombre de un nuevo show de televisión, o más probablemente de un canal de YouTube, pero los avances en la tecnología IA han llevado a una realidad en la que lo que ven nuestros ojos y escuchan nuestros oídos no siempre es confiable, sea esto un video Elon Musk promete duplicar nuestro dinero si invertimos en una cuestionable criptomoneda o incluso una llamada de un familiar pidiéndonos una rápida transferencia de dinero o detalles de nuestras cuentas bancarias.
Y es que junto a todas las ventajas que nos ha traído la inteligencia artificial generativa, también ha ampliado la capacidades de los cibercriminales para llevar a cabo sus estafas con herramientas cada vez más sofisticadas para engañarnos como los ‘deepfakes’, imágenes creadas por IA que emulan a personas reales. Es justamente la propagación de estas imágenes la que nos ha motivado escribir esta nota, una guía básica sobre qué cosas tomar en cuenta para saber si nos encontramos ante una estafa de este tipo.
¿Qué es un ‘deepfake’?
“Un ‘deepfake’ es una alteración digital de una imagen, un video o un audio utilizando inteligencia artificial con la intención de suplantar la identidad de otro en alguna acción o algún escenario”, indicó a El Comercio Leandro Cuozzo, analista de Seguridad en el Equipo Global de Investigación y Análisis para América Latina en Kaspersky. “Se trata de utilizar ingeniería social para engañar a una persona o a un grupo de personas de que se encuentran frente a una persona - sea alguien conocido o alguien famoso - para tener acceso a datos confidenciales, contraseñas, credenciales bancarias o de cuentas en varios servicios o incentivarlos a invertir en algo como una criptomoneda.”
Poco después de la elección del Papa León XIV se empezaron a difundir en TikTok y YouTube discursos falsos del pontífice hechos con inteligencia artificial.
/ CHRIS DELMAS
El experto dividió las estafas en dos rubros a grandes rasgos:
Suplantación de famosos o figuras públicas para incitar a inversiones falsas o robo de credenciales. Un ejemplo de esto fue el caso de una mujer argentina que fue engañada por un falso George Clooney para colaborar monetariamente en actividades del club de fans del actor, perdiendo alrededor de US$15 mil.
Usurpación de identidad de un usuario para abrir cuentas en billeteras virtuales y solicitar préstamos.
Son las primeras de estas las que nos centraremos en este artículo, buscando que el usuario esté más preparado para identificarlas y así no caer en estos engaños. Sin embargo, una manera de protegernos del segundo caso, la suplantación de identidad, es restringiendo la cantidad de información personal, fotos y videos que uno comparte en línea y en redes sociales, por ejemplo limitando a solo amigos y familia quienes pueden visualizarla. Esto le dará menos información a los cibercriminales que quieran imitarnos mediante un ‘deepfake’.
¿A qué estar atento?
Si bien previamente habían muestras más claras de que una imagen, un video o un audio habían sido manipulados mediante inteligencia artificial, los nuevos avances tecnológicos han causado que estos errores se vean reducidos hasta crear imágenes casi perfectas. De todos modos, es siempre importante saber qué características estar atento tanto porque muchos de los cibercriminales no cuentan con acceso a las herramientas más sofisticadas libres de errores.
Mira las manos. ¿El número de dedos es correcto? Observa también si son los dedos correctos y no hay más de un pulgar por mano.
Fíjate en el rostro, ya que las manipulaciones de ‘deepfake’ casi siempre son transformaciones faciales, por lo que una imagen borrosa en los bordes de la cara puede señalar que la imagen ha sido manipulada.
Presta atención a las mejillas y la frente. ¿La piel parece demasiado lisa o demasiado arrugada? ¿El envejecimiento de la piel es similar al envejecimiento del cabello y los ojos? ¿Las facciones son congruentes con el resto de la cara?
Fíjate en la tez y si es consistente del sujeto. Una diferencia de colores entre el rostro y el resto del cuerpo pueden indicar un ‘deepfake’ (o un bronceado desigual).
Observa con atención los ojos y las cejas. ¿Aparecen sombras en los lugares esperados? ¿Brillan mucho?
Si el sujeto lleva gafas: ¿Hay algún reflejo? ¿Hay demasiado reflejo?
Revisa con atención el vello facial o la falta del mismo. ¿Este vello facial parece real? Los deepfakes pueden añadir o eliminar bigotes, patillas y barbas, pero es posible que no se vea natural.
Presta atención a los lunares faciales u otras marcas. ¿Parecen reales?
Analiza el fondo de las imágenes. ¿Las formas son consistentes con la iluminación? ¿Las estructuras u objetos parecen distorsionados o sospechosamente inclinados? Si hay otras personas en el fondo revísalas por otros signos de que la imagen ha sido manipulada por inteligencia artificial.
Captura de un video 'deepfake' difundido por Donald Trump en el que el expresidente estadounidense Barack Obama es encarcelado. Foto: Donald Trump/Truth Social
Videos
En el caso de los videos, todas las consideraciones pasadas relacionadas a las fotos son relevantes, pero el video presenta más oportunidades para encontrar inconsistencias que pueden marcar el material como manipulado con IA.
Observa los movimientos de los labios. Algunos ‘deepfakes’ se basan en la sincronización labial. ¿Los movimientos de los labios parecen naturales? ¿Coinciden con las palabras que están diciendo?
Volviendo a los lunares y marcas faciales, busca consistencia ¿Se mantienen en el mismo lugar a lo largo del video?
Los reflejos son delatores: Si el objeto del video tiene gafas, ¿cambia el ángulo del reflejo cuando la persona se mueve? Una vez más, los ‘deepfakes’ encuentran difícil completamente la física natural de la iluminación.
Presta atención al parpadeo. ¿La persona parpadea lo suficiente o demasiado?
Mira los dientes. Si se ven borrosos o la forma se mantiene consistente a lo largo del video puede ser una señal de un deepfake.
Revisa la expresión de las personas. ¿Se ve natural o artificial? ¿Es demasiado neutral? ¿Concuerda con lo que la persona está diciendo?
Si hay otros objetos en el video, ¿respetan las leyes de la física? Vasos de agua donde el líquido actúa sospechosamente son también posibles señales de un ‘deepfake’.
Aquí un ejemplo - en inglés - un ‘deepfake’ de Bill Gates. Prestar atención a sus labios borrosos:
Audio
Los audios son otra rama de los ‘deepfake’ que puede resultar también engañosa al no darnos pistas visuales, pero todavía hay algunas señales que pueden decirnos si estamos ante un ‘deepfake’ o no.
Diálogo monótono. Las IA todavía tienen dificultades para hablar de manera natural como un humano, lo que puede revelar su naturaleza artificial, por ejemplo cambiando la tonalidad para insinuar una pregunta cuando no hay ninguna o contando una historia emotiva sin aparentemente tener una respuesta emocional.
Habla mal articulada, sobre todo en términos poco comunes. Debido a que los ‘deepfakes’ auditivos se hacen analizando el habla de la persona, la inteligencia artificial puede tener problemas articulando palabras que no tiene en sus bases de datos lo que puede llevar a dificultades de pronunciación o pausas sospechosas.
Sonidos extraños. Presta atención por sonidos extraños como interferencia o estática, sobre todo cuando se trata de mensajes de personas que lógicamente tendrían acceso a herramientas profesionales como actores o políticos.
¿Nos pueden ayudar los programas de detección?
Si el problema de los ‘deepfakes’ es la tecnología, ¿la solución no puede venir también de la tecnología? Es así que con la difusión de cada vez más imágenes generadas por IA también ha llevado a la creación de herramientas - gratuitas y pagadas - para detectar la manipulación por computadora de las mismas utilizando una serie de algoritmos.
Sin embargo, como nos advierte Leandro Cuozzo de Kaspersky el nivel de certidumbre de este tipo de herramientas es todavía sospechoso y muchas de ellas puede identificar como falso algo verdadero y viceversa.
“Todavía no tienen un gran radio de detección, pero va a mejorar con el tiempo”, afirmó el experto. “Es una competencia entre creadores y detectores de ‘deepfakes’.”
En cierto modo, el depender en estas herramientas también puede ser un talón de Aquiles para sus usuarios, dándoles certidumbres cuando deberían todavía tener dudas. Es por eso que lo más importante para detectar los ‘deepfakes’ sigue siendo el humano y su capacidad de razonar.
Lo más importante: el contexto
“Lo que yo más recomiendo para tratar de detectar hoy en día es analizar más el contexto, que la imagen, el video o el audio en sí”, señaló el experto. “Por ejemplo, si alguien me pasa un video donde Elon Musk, en un español perfecto, me dice que debo invertir S/. 100 mil y me va a devolver cinco veces mi inversión es algo para tener precaución y pensar que se trata de un video que ha sido manipulado. ¿Por qué? Porque Elon Musk no habla el español perfecto, no existen inversiones que te devuelvan el quíntuple de lo que invertiste y bueno, se trata de una oferta muy rara.”
Es así que el experto de ciberseguridad recomendó cuatro factores que uno debe tener en cuenta al recibir un audio, video o fotografía sospechosa.
Verificar siempre la fuente y el remitente. ¿Es confiable? ¿Es oficial? Incluso en esto hay que tener cuidado porque han ocurrido casos en los que cibercriminales han tomado control de cuentas oficiales para difundir sus fraudes.
Analizar el contexto: ¿qué pide el mensaje? ¿cómo lo dice? ¿qué emociones intenta provocar? Los cibercriminales muchas veces quieren generar una sensación de premura para que sus víctimas cometan errores.
Desconfiar si piden datos confidenciales como contraseñas o información bancaria. Ningún banco te pedirá por teléfono o correo esta información y cabe sospechar de cualquier pariente o celebridad que la quiera (sea un ‘deepfake’ o no).
Sospechar si ofrece algo demasiado bueno para ser cierto. Si hay una inversión tan buena como para duplicar tu inversión, ¿por qué la difundirían en vez de sacar todos los beneficios para ellos?