
Escucha la noticia

Imágenes tan reales que engañan: así usan la IA los ciberdelincuentes
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
¿Qué es verdad y qué es mentira? Un día cualquiera revisas tus redes sociales y descubres que Brad Pitt te ha enviado varios mensajes, con fotos y videos. No queda duda de que es él, es su voz, su forma de hablar. Podría ser el inicio de una soñada conversación, o también el primer paso para caer en una estafa generada con inteligencia artificial (IA).
Este es el caso de varias víctimas de ciberdelincuentes que, haciéndose pasar por el actor estadounidense, lograron engañar y robar varios miles de dólares. Se conoció en marzo de este año, pero en solo unos meses la IA ha avanzado tanto que las imágenes fotorrealistas ahora son capaces de poner en duda lo que es verdadero.
Newsletter exclusivo para suscriptores

Gisella Salmón selecciona notas exclusivas con un enfoque especializado, cada lunes.
MIRA TAMBIÉN: Una presentadora generada por IA conduce un documental sobre el impacto de esta tecnología
Fue hace una semana que Microsoft lanzó su modelo de IA llamado MAI-Image-1 para resultados fotorrealistas que se alejen de lo genérico y repetitivo. Pero dos meses atrás Google hizo lo mismo con Nano Banana (Gemini 2.5 Flash Image), su herramienta para generar imágenes. Y así, cada empresa de inteligencia artificial viene superándose a sí misma.
María Isabel Manjarrez, investigadora de seguridad en Kaspersky, indicó que los ciberdelincuentes han logrado suplantar la identidad de personajes famosos, artistas o personas involucradas en política, con gran perfección que ya es un riesgo.
“Esto erosiona la confianza del usuario porque que así como podemos creer que algo falso es verdad, también podemos dejar de creer que todo sea verdad. Entonces, la confianza también se afecta conforme van explotando más este uso de la inteligencia artificial”, indicó en conversación con El Comercio.
Una mirada similar tiene Amador Rivera Herrera, especialista en Inteligencia Artificial Generativa y Marketing Digital, aunque indica que se debe diferenciar entre el uso ético de la IA y el uso delictivo, pues “el problema no es la tecnología“.
En ese sentido, advirtió sobre la falta regulación en el Perú para el uso correcto de la IA, establecer protocolos, sanciones específicas, entre otras medidas. “Los riesgos principalmente están en que las personas empiecen a creer en esas imágenes, que los jueces no estén preparados para un juicio de esa naturaleza y que, por lo menos desde el lado periodístico, las personas empiecen a difundir noticias con esta información falsa”, comentó a este Diario. En esa situación el riesgo sería mayor pues viviríamos en un “lugar de desinformación total y eso sí se convierte en un caos”.
En abril de este año el gobierno de Dina Boluarte publicó la Ley Nº 32314, que modifica el Código Penal y la Ley de delitos informáticos para integrar en la normativa el uso de la inteligencia artificial como agravante. El caso del deepfake se menciona en delitos como la pornografía infantil, la difamación, la estafa agravada, entre otros.
Por otro lado, si bien las herramientas de IA mencionadas antes son de empresas reconocidas y más fiscalizadas, Rivera Herrera también nos recuerda que se pueden crear modelos de IA libres, a los cuales se les suministra imágenes para ir generando nuevas fotos falsas.
¿Cómo actúan los ciberdelincuentes?
Si bien la inteligencia artificial da muchas oportunidades para trabajar, estudiar, investigar, crear, también puede ser usada de diferentes maneras por los ciberdelincuentes.
Desde Kaspersky se ha evaluado la manera de operar. El tipo de vulneración es conocido como Deepfake, que consiste en la manipulación de video, audio o imagen con la intención de hacerlo pasar como verdadero.
MIRA TAMBIÉN:Internet, el campo de batalla para los titanes de la inteligencia artificial que crean sus navegadores
El principal modo está relacionado a la estafa, donde el objetivo es financiero, es decir, robar dinero. “Hay mucha estafa suplantando la identidad de esas personalidades famosas en donde se invita a invertir, en donde se invita a depositar dinero, a lo mejor por alguna buena causa, pero esto es una estafa”, indicó Manjarrez.
Una variante actual de este tipo de estafa es la relacionada con la inversión en criptomonedas.
Otra situación es el robo de identidad, con la finalidad de extorsionar o dañar la buena imagen. Precisa Manjarrez que “la imagen puede ser manipulada digitalmente, con la inteligencia artificial, para ponerlas en una situación comprometedora y victimizarlas, y entonces estafar o hacer un chantaje”.
El problema es que son tan recientes las modalidades de deepfake que aun no se tiene estadísticas claras. Lo que sí se conoce es que, según informe de Kaspersky, la mayoría de los usuarios en Perú (57%) no reconoce cuando un video ha sido editado digitalmente utilizando la técnica deepfake.

Pero los ciberdelincuentes también encuentran maneras para robar información, y una de ellas es a través de las videollamadas.
“Lo primero que hacen los extorsionadores es hacerte una videollamada telefónica de un número, tú contestas inocentemente, pero al momento de contestar ya te hicieron captura del rostro y luego empiezan a hacer un deepfake con esa imagen. Ese es uno de los principales riesgos hoy”, indicó Rivera Herrera.
Y si estas imágenes son tan realistas como se estima, ¿qué posibilidades hay para separar lo verdadero de lo falso?
Identifica una imagen real o fake
Hasta hace unos meses, diferenciar una imagen real y una falsa podía ser relativamente fácil. Bastaba contar los dedos de alguna persona en la imagen, detectar una imperfección en los ojos, los dientes, etc. Hoy eso ha cambiado.

Para Rivera Herrera, las imágenes generadas con IA son casi 100% fidedignas, casi perfectas, que incluso las herramientas que prometen verificar el contenido generado suelen fallar. Una de las opciones es Google Lens, para evaluar el contenido, pero lo más certero es el ojo humano y ampliar la fotografía o video en una computadora.
“De momento es utilizar una lupa y ver cada punto de una imagen, ir verificando que en efecto sea real, y cuando notas alguna distorsión, es el síntoma de que podría ser generado con IA”, indicó a este Diario.
MIRA TAMBIÉN: Elon Musk pide pago de un billón de dólares para mantener control del ejército de robots que Tesla construye
También se puede evaluar, cuando se trata de una foto o video, algunas distorsiones en la voz, anomalías en el fondo o en el entorno, movimientos inusuales o irregulares, la iluminación, cambios en el tono de piel en un mismo video, incluso si hay o no parpadeos, labios que no sincronizan con el audio, o la imagen es de baja calidad.
Pero hay algo que María Isabel Manjarrez también advierte: el contexto. Para la investigadora de Kaspersky, el factor humano sigue siendo importante para diferenciar si un contenido es verdadero o falso.
“Además de lo visual también necesitamos verificar la información, aunque se vea superrealista, tengo que ir a googlearlo, o tengo que ir a ponerlo en un navegador para buscar la información si esto es real o no. Siempre se recomienda leer los comentarios, investigar más, acudir a una segunda fuente, no quedarte con la primera noticia", explicó.
Aunque la inteligencia artificial no es una amenaza (después de todo, es una herramienta como muchas), el riesgo de caer en un Deepfake sigue creciendo. Dependerá de cada persona someter a prueba cada imagen que se encuentre en las redes sociales, en Internet, en cualquier momento del día.










