

Escucha la noticia
¿Dudas si un video fue hecho con IA? Así puedes detectar un ‘deepfake’
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
La Inteligencia Artificial (IA) ha abierto un universo, aparentemente, sin fronteras, a la par que ha abierto la puerta a grandes riesgos. Uno de estos últimos son los videos creados con IA. Sin embargo, es posible identificarlos y no caer en la trampa de creer que son reales.
Consultamos con portales especializados en el tema para conocer cómo se pueden pillar los ‘deepfakes’. Le contamos.
Newsletter El Comercio MedIA

Según el Grupo Ático 34, el primer aspecto a tener en cuenta es el contexto. Explica que “en la era del scroll infinito y el consumo casi continuo de contenido, pocas veces nos detenemos a reflexionar sobre ese contenido que hemos visto. Para detectar deepfakes, parar y reflexionar es clave".
MIRA: ¿Son adictivos los chatbots de IA como ChatGPT? Esto afirma un estudio internacional
Añade que "normalmente, los deepfakes se crean con una intención y para generar unas emociones determinadas; por ello, cuando veamos un video que llama nuestra atención y que genera fácilmente una determinada emoción en nosotros, deberíamos parar y pensar en la intención de ese video, analizar el contexto".
Recomienda hacerse estas preguntas: ¿Se trata de un video de un personaje conocido haciendo algo indebido o ilegal o algo inusual o inesperado? ¿El contenido está relacionado con un tema de actualidad y busca evocar emociones? ¿Quién publica el video?
Además, aconseja buscar la fuente original del video y rastrear su origen. También recomienda comprobar en qué otros medios se ha difundido.
Ojo a la iluminación
Grupo Ático 34 asegura que “las luces y las sombras son detalles con los que las herramientas de IA todavía tienen problemas, de manera que si un video nos parece sospechoso, podemos observar si las sombras están bien ubicadas respecto a la fuente de luz, si la fuente de luz es coherente o no lo es, comprobar las perspectivas y las formas de los objetivos que aparecen en la imagen en busca de incongruencias o errores que nos indiquen que estamos ante un video creado con IA".
Falta de reflejo en el ojo
Es una tercera opción para establecer si el video es hecho con IA. “Nuestros ojos reflejan lo que tienen delante como si fueran un espejo. Los ojos en los deepfakes no tienen reflejo, es un detalle que requiere tiempo y trabajo, por lo que de momento su ausencia es una de las señales más ‘fáciles’ de detectar, si bien requiere parar el video y observarlo detenidamente (algo que, dependiendo de la calidad del video, puede no ser posible)”.
Agrega que “siguiendo con los ojos, aunque en los deepfakes más sofisticados no ocurre, en aquellos creados con menos esmero, se pueden detectar fallos en la forma y la expresión de los ojos, así como en el parpadeo o el movimiento”.
Fallos anatómicos y de proporción
Grupo Ático 34 explica que “los videos creados con IA todavía presentan fallos anatómicos perceptibles, especialmente en las manos (dedos de más, falta de articulaciones, posiciones físicamente imposibles, distorsiones, fusiones de miembros, pliegues raros en la ropa, etc.). Observar con detención el video permitirá detectar estos fallos".
Además, explica que “como en muchos deepfakes lo que se hace es poner el rostro de una persona sobre el cuerpo de otra, pueden aparecer fallos en las proporciones de la cabeza y el rostro frente al cuello y los hombros o la posición del pelo, tonos de piel ligeramente distintos, así como movimientos extraños o descoordinados entre diferentes partes del cuerpo”.
Calidad
Otro aspecto a tener en cuenta, según Grupo Ático 34, es que “si un video tiene mala calidad, ya sea la imagen o el audio o en conjunto, pudiendo tenerla mejor, se debería sospechar. Actualmente, hacer videos de buena calidad de imagen y sonido está al alcance de cualquier cámara, incluidas las de los smartphones, y cualquier editor de video. Por ello, resulta sospechoso que un video que quiere ser prueba de algo o generar controversia, aparezca en baja calidad y sea imposible encontrar una fuente con mejor calidad”.
Fondos simples
Dice Grupo Ático 34 que “generalmente, los vídeos creados por IA suelen tener muy pocos detalles o los fondos aparecen difuminados, o, si hay alguien o algo en el fondo, aparece distorsionado o producen una sensación extraña (puede ser por la posición o la distorsión de la imagen)“.
Asimismo, continúa, también hay otros detalles irreales que solo aparecen en los videos generados por IA; rostros sin imperfecciones, distribución de objetos simétrica, expresiones exageradas (a la IA todavía no se le da bien recrear nuestras emociones y expresiones faciales) o textos ilegibles (si hay carteles o superficies en las que pueda aparecer un texto, este estará difuminado, resultará ilegible o estará compuesto por caracteres extraños o inventados).
Detalles a tener en cuenta
Según Winston AI, para identificar un video hecho con IA se deben tener en cuenta estos consejos:
- Fallos en el video que muestran algo que no concuerda con el resto del video.
- El movimiento de las personas en el video parece extraño.
- La situación es inverosímil.
“El Tiempo” de Colombia, GDA
TE PUEDE INTERESAR
- ¿Existe el centro del universo?: por qué esta pregunta científica desafía los límites de nuestra imaginación
- Ahora las fotos y videos que publiques en Instagram podrán aparecer en las búsquedas de Google
- Las estaciones húmedas en la Amazonía son cada vez más húmedas, y las secas, más secas
- Fortnite presenta Blitz Royale, un nuevo juego con partidas de cinco minutos diseñado para celulares
Contenido sugerido
Contenido GEC


La temporada 3 de “Record of Ragnarok” ya está en Netflix: cuándo, a qué hora y cómo ver los nuevos episodios del anime
MAG.
32 películas navideñas clásicas para ver en estas fiestas con toda la familia
MAG.
Cuánto dinero gana Donald Trump como presidente de EE. UU. y qué hace con su salario
MAG.
Se prevé más de 10 pulgadas de nieve por tormenta invernal en EE.UU.: cuáles serían los estados afectados
MAG.





