Un delincuente llama a un ciudadano para asegurarle que ha secuestrado a su madre, hermano o algún otro ser querido. Luego, le pasa el celular a la presunta víctima y se escucha su voz. Sin embargo, todo se trata de una farsa que realiza el estafador para extorsionar a la persona y esta termine entregándole dinero. Las voces de las personas supuestamente raptadas fueron clonadas con la ayuda de la inteligencia artificial (IA).
La actriz Milett Figueroa denunció que su madre, Martha Valcárcel, pasó por ese mal momento, ya que unos estafadores intentaron quitarle dinero bajo este modus operandi. Según contó, los delincuentes usaron una voz extremadamente parecida a la de su hermana y engañaron a su mamá diciéndole que su hija estaba secuestrada. Su progenitora señaló que “casi le da un infarto”.
Más víctimas
Días después de la denuncia de Milett, la campaña #pasaenlacalle de El Comercio recogió otros 55 casos similares en los que las víctimas oyeron, al otro lado del teléfono, una voz exacta a la de un familiar solicitando dinero por alguna “urgencia” o amenaza. “Llamaron a mi casa para decirnos que mi hermano estaba secuestrado y pedían muchísimo dinero. Pero él estaba en su habitación descansando”, reveló Manuel Flores Días, una de las pocas víctimas que quisieron identificarse.
Otra ciudadana cuenta: “Contestó mi mamá. Era la voz de su sobrino, quien aparentemente le dijo que estaba en la comisaría y si por favor podía depositarle mil soles para que lo liberaran. No accedió y luego descubrió que no era él”.
LEE TAMBIÉN: Apagón masivo en Surco, Surquillo y San Borja: ¿qué hacer si me quedo atrapado en un ascensor y cómo pedir ayuda?
Otra usuaria comentó que llamaron a su casa y le dijeron lo mismo que a la madre de Milett. “Aseguraron que mi hermano estaba secuestrado y lo pusieron al teléfono. La voz era muy parecida, estaba pidiendo ayuda. Fue desesperante y me moría de miedo”, contó.
Muchos no lo saben pero estan usando la IA para clonar la voz pic.twitter.com/iqdI7R7zLO
— Carlos V Iglesias (@Carvasias) July 6, 2023
¿Cómo funciona esta modalidad?
Erick Iriarte, abogado experto en derecho digital y nuevas tecnologías, explicó a este Diario que se trata de la técnica del ‘deepfake’: programas que permiten escribir un texto para que sea convertido de forma casi inmediata en la misma voz de los audios que se obtuvieron previamente en las redes sociales de la víctima. En Estados Unidos, en enero de este año, se reportaron casos donde incluso algunas víctimas llegaron a pagar.
El Ministerio Público confirmó a El Comercio la existencia de casos similares, aunque indicaron que, por la complejidad técnica que demanda su investigación, los fiscales los vienen revisando de manera individual. “Al ser delitos de estafas que utilizan tecnologías de la información, las denuncias son atendidas por las fiscalías penales de turno, pudiendo recurrir a la Unidad Fiscal Especializada en Ciberdelincuencia para solicitar un acompañamiento técnico y así acceder al tratamiento de la evidencia digital”, indicaron en un comunicado.
Paso a paso
Rodrigo Ochoa, líder de automatización e inteligencia artificial en Moventi, señaló que la IA está programada para poder reproducir un audio con las palabras que los estafadores escribieron previamente en el sistema. Es así que supuestamente le pasan el teléfono a la falsa víctima para decir frases como “ayúdame por favor”. “Se deben tener varios audios grabados para que la IA pueda registrarlos y luego el programa pueda hacer la representación”, dijo.
Estos programas también pueden encontrarse abiertamente en Internet. “Mientras más audios se tengan de la persona para que la IA pueda estudiarlos, la voz clonada se escuchará más real”, comentó.
Gustavo Vallejo, especialista en ciberseguridad, señaló que “esto le puede pasar a cualquier ciudadano que tenga una presencia activa en redes sociales y genere videos”. Esa es la forma en la que los estafadores obtendrán el material.
Cuando los delincuentes clonan el audio de una persona, en paralelo van obteniendo información básica sobre sus familiares. “Se utiliza el método de ingeniería social: los ciberdelincuentes atan cabos hasta acceder finalmente a la lista de contactos de sus víctimas”, agregó.
Ricardo Elías, abogado experto en cibercriminalidad, dijo que estos delincuentes también estarían detrás de las llamadas silenciosas donde el usuario dice reiteradamente “¿quién es?” o “¿aló?”. De esa manera, pueden captar su voz.
Vallejo añade que los delitos van mutando y los delincuentes cada vez más utilizan herramientas digitales como la IA. “Las víctimas tendrán un diálogo más fluido con una voz que ha sido previamente fabricada para que así caigan con mayor facilidad”, dijo. Agregó que, en algunas ocasiones, los delincuentes generan sus propias herramientas. “Pueden crear un software de IA y venderlo en el mercado negro”, añadió.
¿Cómo se obtiene información para clonar voces?
Gustavo Vallejo también dijo que cuando los delincuentes clonan el audio de una persona, lo más probable es que tengan información básica de esta como quiénes son sus familiares y más detalles que utilizan para hacer más creíble el engaño.
Para Rodrigo Ochoa, primero se hace una recopilación de los audios de la persona, lo que implica también haber obtenido datos como los números telefónicos de los integrantes de su familia. Luego, se procesa su información en la IA. Finalmente, las redes neuronales del programa permiten que se clone la voz tan solo con redactar un texto con lo que uno quiera que se diga.
La técnica del deepfake
Erick Iriarte dice que estos programas permiten escribir un texto para que sea convertido en una voz proveniente de distintos audios. Por otra parte, Ricardo Elías precisó que algunos profesionales en tecnología hacen uso de esta herramienta para brindar una atención más personalizada al cliente. Sin embargo, no todos deberían tener acceso porque pueden haber propósitos perversos.
“Algunas de estas páginas son de libre acceso solo pagando de 5 a 10 dólares mensuales (...). Con la ayuda del ‘Deepfake’, se puede crear algo que una persona nunca dijo”, contó.
El otro problema: las "tarjetas de crédito fantasma"
Otro modus operandi registrado es el de las “tarjetas de crédito fantasma”, donde se usan datos personales a fin de sacar préstamos bancarios o comprar objetos de alto valor. El estafador obtiene información de la víctima vía Internet, es así como suplanta su identidad y solicita un préstamo o una tarjeta bancaria.
Rodrigo Ochoa indicó que la IA también tiene gran impacto en esta modalidad, ya que reduce la dificultad a los estafadores para que hagan sus gestiones. “Los bancos deben poner ciertos requisitos como una verificación con huella dactilar o pedir un escaneo del rostro”, mencionó.
Recomendaciones
Gustavo Vallejo sugirió que, para evitar caer en esta modalidad de estafa, las familias deben tener una palabra clave que puedan utilizar ante este tipo de situaciones. “Debe ser un nombre simbólico, específico y difícil para que el delincuente no lo pueda identificar”, dijo.
Erick Iriarte señaló que hay que tener cuidado cuando se reciben llamadas y nadie contesta, ya que mientras que los ciudadanos empiezan a hablar para preguntar quién es, los estafadores aprovechan en grabar su voz para clonarla y así volver a llamar para realizar la estafa.
LEE TAMBIÉN: TikTok: ¿cuáles son los tipos de estafas que hay dentro de esta red social y cómo evitarlas?
Rodrigo Ochoa recomendó no exponerse tanto en redes. “Las personas famosas ya están expuestas, pero ahora cualquier ciudadano tiene un perfil público. Por ello, es importante que tengan sus perfiles privados en lo posible”, mencionó.
Asimismo, comentó que no hay que aceptar a cualquier usuario que mande una solicitud. “Además, si publicas fotos de tus viajes, los estafadores sabrán que no estás en casa y será el momento perfecto para que llamen a tus familiares”, añadió.
Ochoa señaló que se debe escuchar si la voz tiene algún acento en particular, si no acentúa las palabras o si tiene un tono muy robotizado. Finalmente, agregó que hay que contactarse con la víctima para confirmar si realmente se encuentra en peligro.
Los delitos
Erick Iriarte aseguró que el delito directo es el de suplantación de identidad, el cual se encuentra en el artículo 9 de la Ley de Delitos Informáticos. Tiene una pena privativa de la libertad no menor de 3 ni mayor de 5 años.
Por otro lado, están el delito de estafa y el de hurto, los cuales están establecidos en el Código Penal. Estos ocurren siempre y cuando se haya cumplido la acción. El primero tiene una pena de no menor de 1 ni mayor de 6 años; y el segundo una de no menor de 1 ni mayor de 3 años.
Ricardo Elías precisó que los canales para denunciar estos casos son la División de Investigación de Delitos de Alta Tecnología (Divindat) y el Ministerio Público. Adicionalmente, si ocurrió en Lima, hay que acudir a la Fiscalía Especializada en Ciberdelincuencia. Mientras que, si ocurrió fuera de la capital, se debe ir a la fiscalía penal correspondiente.
Antecedentes
En Arizona, Estados Unidos, Jennifer DeStefano recibió una llamada donde un delincuente le indicó que presuntamente su hija estaba secuestrada, por lo que le pidieron 1 millón de dólares para el rescate. No obstante, luego se enteró de que ella se encontraba en buenas condiciones y su voz en realidad fue clonada.
Congreso de la República del Peú
El martes 5 de julio del 2023, se publicó la Ley 31814, Ley que promueve el uso de la IA. De acuerdo con el Congreso, esta ley busca “fomentar el desarrollo económico y social del país en un entorno seguro que garantice su uso ético, sostenible, transparente y responsable”.
Óscar Montezuma Panez, abogado especialista en tecnología, indicó que esta ley es importante porque otras leyes relacionadas a la IA se podrían generar en el país en base a esta. “Es el primer antecedente en el marco legal peruano que regula un fenómeno tecnológico tan nuevo como la inteligencia artificial”, dijo.
Envía tu denuncia
#PasaEnLaCalle
995818486
TAGS
TE PUEDE INTERESAR
- Plaga de grillos en el norte del Perú: ¿cómo se generó y cuál es la afectación a la población?
- Mala praxis en el quirófano: ¿cómo saber si un centro médico es seguro y qué hacer si deseas denunciar?
- Matrimonios disminuyen y divorcios aumentan: ¿cuántas parejas de esposos decidieron ponerle fin a su relación en lo que va del 2023? | INFORME
- Las más leídas
- 1
Últimas noticias del DolarToday y Monitor Dólar este 20 de diciembre
- 2
Se complica la lucha por el pisco peruano: la historia podría dar un nuevo giro en Chile
- 3
La ley que permite expulsar en 24 horas a extranjeros que no se identifiquen: ¿Norma antimigración o eficaz contra la inseguridad?
Contenido Sugerido
Contenido GEC