
Expertos en seguridad digital están advirtiendo sobre posibles riesgos en la nueva herramienta de detección de deepfakes de YouTube. Esta función permite que los creadores de contenido suban un video de su rostro para que la plataforma pueda identificar y marcar cualquier contenido que use su imagen sin autorización; sin embargo, un reporte reciente señala que esta política podría permitir que Google entrene sus propios modelos de inteligencia artificial con datos biométricos de los usuarios.
Según el informe, aunque la herramienta ayuda a los creadores a solicitar la eliminación de deepfakes que se hagan pasar por ellos, también abre la puerta a que Google utilice esa información facial para mejorar sus sistemas de IA.
Jack Malon, portavoz de YouTube, negó rotundamente esta posibilidad y explicó al New York Post que la empresa nunca ha usado datos biométricos de los creadores para entrenar modelos.
“Advertimos contra darle peso a afirmaciones infundadas de competidores comerciales que se benefician vendiendo alternativas de pago a las herramientas de seguridad gratuitas que ahora ofrecemos”, afirmó.
YouTube aseguró a CNBC que revisará el lenguaje de la política de uso para evitar confusiones, aunque aclaró que no planea modificar la política en sí.
La plataforma lleva meses intentando reforzar la confianza de los usuarios en medio del rápido avance de los modelos de IA.

En octubre, lanzó oficialmente la herramienta de detección de deepfakes, con la intención de expandirla a más de 3 millones de creadores del Programa de Socios de YouTube para finales de enero, según explicó Amjad Hanif, jefe de producto para creadores.
Para registrarse, los usuarios deben subir una identificación oficial y un video de su rostro, materiales que permiten a YouTube comparar su imagen con el enorme volumen de contenido nuevo que se publica cada minuto.
Este proceso se rige por la política de privacidad de Google, la cual indica que el contenido público puede ser usado “para ayudar a entrenar los modelos de IA de Google y crear productos y funciones como Google Translate, Gemini Apps y Cloud AI”, de acuerdo con CNBC.
Si un video es marcado como posible deepfake, se envía al creador, quien puede decidir solicitar su eliminación.
Hanif afirmó que los retiros reales son pocos porque “la mayoría está contenta sabiendo que la herramienta existe, pero no siente que sea necesario eliminar el contenido”.
“En general, la acción más común es decir: ‘Lo he visto, pero estoy bien con ello’”, agregó.

No obstante, especialistas en seguridad en línea aseguran que el bajo número de solicitudes de retiro no se debe a que los creadores estén cómodos con los deepfakes, sino a que todavía no entienden bien cómo funciona la herramienta.
Empresas externas como Vermillio y Loti comentaron que la demanda de sus servicios para proteger la imagen de celebridades registró un aumento.
“A medida que Google compite en el campo de la IA y los datos de entrenamiento se vuelven oro estratégico, los creadores deben pensar cuidadosamente si quieren que su rostro esté controlado por una plataforma y no por ellos mismos”, advirtió Dan Neely, CEO de Vermillio.
“Tu imagen será uno de los activos más valiosos en la era de la IA, y una vez que entregas ese control, puede que nunca lo recuperes”, agregó.
Luke Arrigoni, CEO de Loti, afirmó que los riesgos de la política actual de YouTube sobre datos biométricos “son enormes”.
El tema también preocupa a creadores populares que ya enfrentan la proliferación de deepfakes. Mikhail Varshavski, médico certificado conocido como “Doctor Mike”, ha visto cómo aumentan los videos falsificados a medida que se popularizan herramientas como Sora de OpenAI y Veo 3 de Google.

Con más de 14 millones de suscriptores y una década creando contenido, relató que se encontró por primera vez con un deepfake suyo en TikTok promocionando un “suplemento milagroso”.
“Obviamente me asustó, porque he invertido más de una década en ganarme la confianza de la audiencia, decirles la verdad y ayudarlos a tomar buenas decisiones sobre su salud”, dijo a CNBC.
“Ver que alguien usa mi imagen para engañar a otros y hacerlos comprar algo que no necesitan o que podría perjudicarlos me aterrorizó por completo en esa situación”, añadió.
Actualmente, los creadores no tienen forma de recibir ingresos por el uso no autorizado de su imagen en deepfakes, incluidos los contenidos promocionales.
Además, aunque YouTube permite que los creadores autoricen a terceros a usar sus videos para entrenar modelos de IA, no reciben compensación por ello.
Lo que debes saber sobre los videos deepfake
Un deepfake es un contenido (video, audio o imagen) creado o alterado utilizando inteligencia artificial y técnicas de aprendizaje profundo. Su objetivo es hacer que una persona parezca decir o hacer algo que nunca ocurrió, produciendo un resultado tan realista que es casi indistinguible de la realidad.
El peligro de los deepfakes radica en su posible uso para la desinformación y el fraude. Pueden ser utilizados para manipular elecciones creando videos falsos de políticos, realizar estafas financieras sofisticadas imitando la voz de un personaje famoso o atacar verbalmente a personas.
Si te interesó esta noticia y quieres mantenerte informado sobre los eventos y tendencias en EE.UU. y el mundo, forma parte de nuestra comunidad de WhatsApp. 👉 Únete aquí











