ChatGPT es un chatbot o sistema de chat desarrollado por OpenAI. Se trata de un modelo basado en Inteligencia Artificial (GPT-3) que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto.
Fue entrenado con grandes cantidades de texto para responder preguntas o proporcionar información. Y si bien presenta errores, a través del proceso de entrenamiento, va mejorando su capacidad para interactuar de forma automática ante las consultas de las personas.
MIRA: ChatGPT ha superado los 100 millones de usuarios activos al mes, desde su lanzamiento en noviembre
Sin embargo, ESET advierte que, como toda tecnología, también presenta ciertos riesgos en términos de ciberseguridad, analizar los mismos.
“Tecnologías como ChatGPT vinieron a revolucionar y automatizar diversos procesos. Lo más destacable de estas tecnologías probablemente sea que están cambiando la forma en que interactuamos con las computadoras. Con ChatGPT se ve el avance de la democratización y accesibilidad del conocimiento, ¿pero acaso esto no está posibilitando también la democratización del cibercrimen? Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas. Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, comentó Sol González, Investigadora de Seguridad Informática de ESET Latinoamérica.
MIRA TAMBIÉN: ChatGPT: mi entrevista al famoso sabelotodo virtual que provoca tanto recelo como fascinación
ChatGPT se describe a sí mismo
Para entender mejor qué es ChatGPT, el equipo de ESET le preguntó al propio sistema y esto es lo que nos respondió:
Además, se le consultó cómo funciona su algoritmo:
El ChatGPT se comunica de una manera amigable, y emplea un lenguaje accesible. Esto es lo que hace disruptiva a esta tecnología. El cambio que introduce es cómo los usuarios interactúan con esta tecnología, ya que permite que sea accesible para cualquier tipo de persona.
ChatGPT y sus riesgos de seguridad
Además, ChatGPT permite infinidades de usos. Por ejemplo, para la automatización de procesos en diversas industrias, como educación, finanzas, salud, atención al cliente, etc. “Sin embargo, es importante tener presente, que al igual que toda tecnología, también presenta sus riesgos de seguridad. Haciendo una analogía, así como el modelo de Ransomware as a Service (RaaS) permite que actores con menos conocimientos tengan acceso a un malware y solo deban preocuparse por diseñar el correo de phishing con el cual tratar de engañar a las víctimas, ChatGPT también es un servicio disponible para cualquiera que puede ser utilizado para facilitar ciertas tareas a cibercriminales”, agrega la investigadora de ESET.
MIRA: Google tendrá un evento el próximo 8 de febrero: ¿será sobre inteligencia artificial?
Al respecto, ESET analizó 6 maneras en qué los cibercriminales pueden beneficiarse con ChatGPT:
Generación de fake news
En caso de que se quiera generar una noticia falsa que se distribuya a lo largo de internet. ¿Qué se podría hacer? Apelando a la creatividad e ingresando los parámetros correspondientes en torno a lo que se quiere, esto es posible con esta plataforma.
Por ejemplo, desde ESET se le pidió a ChatGPT que redacte un artículo en donde Elon Musk sorpresivamente compra la empresa Meta y este fue el resultado:
Ataques de phishing
Es un hecho que cada vez resulta más difícil identificar los correos de phishing. Cada vez son más dirigidos y por ende mucho más persuasivos. Hace unos años la redacción de los correos maliciosos era muchas veces absurda, hasta incluso con errores ortográficos.
MIRA TAMBIÉN: El popular ‘Google chino’ preparará su propio chatbot al estilo ChatGPT
Desde ESET se le preguntó a Chat-GPT si podría ayudar a redactar correos electrónicos maliciosos de manera fácil. Esta fue su respuesta:
En este caso, la plataforma alertó de manera correcta que no es bueno realizar este tipo de actividad. Sin embargo, con un nuevo intento se realizó la consulta, pero de otra manera:
“Como se observa, la herramienta claramente puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales. Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada”, confirmó Gonzalez de ESET.
Robo de identidad
Los ciberdelincuentes pueden utilizar Chat-GPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.
Desarrollo de Malware
Esta plataforma puede ser de ayuda para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación.
El malware también es un software, pero con fines maliciosos. El equipo de investigación de ESET hizo la una prueba y solicitó a ChatGPT que escriba un programa en .NET que llame a Powershell y descargue el payload.
MIRA TAMBIÉN: ChatGPT propone la “esterilización y eutanasia” en los humanos como solución para salvar el planeta
Como respuesta el ChatGPT advierte los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio. Sin embargo, el código se generó de todas formas, hasta incluso proporciona una descripción detallada sobre cómo funciona.
Automatización de procesos ofensivos
A la hora de realizar ataques dirigidos los cibercriminales suelen realizar un proceso de reconocimiento que incluye realizar ciertas tareas que tienden a ser repetitivas. Sin embargo, en los últimos años fueron surgiendo herramientas que permiten acortar los tiempos de estas tareas.
MIRA: Juez usa la inteligencia artificial de ChatGPT para resolver un caso judicial en Colombia
De manera de chequear si ChatGPT pudiese utilizarse para estas actividades, desde ESET se simuló ser un atacante que quiere ingresar a un servidor LDAP para ver qué usuarios hay en una empresa. Se probó ChatGPT como herramienta para automatizar este proceso, pidiendo la creación de un script.
La plataforma proporcionó un código en Python para enumerar los usuarios de un Active Directory utilizando el protocolo LDAP. Para quienes trabajan en seguridad saben es recomendable contar con un Cheat Sheet ágil para ejecutar ciertos comandos. Si, por ejemplo, se está en la fase de acceso, como cibercriminal, se necesita un script para abrir una Shell reversa y utilizando ChatGPT se podría fácilmente obtener esta información:
Chats maliciosos
ChatGPT cuenta con una API que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para muchos usos beneficiosos, pero lamentablemente también puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.
GDA / El Universal / Juan Carlos Peña / México
TE PUEDE INTERESAR
- Samsung Galaxy S23: todas las novedades del más reciente unpacked
- Samsung Galaxy S23 Ultra vs. iPhone 14 Pro Max: la comparativa entre los celulares más potentes del mundo
- Samsung Galaxy S23 vs. iPhone 14: ¿En qué se diferencian los celulares ‘básicos’ de Apple y Samsung?
- Samsung Galaxy S23 Ultra vs. Samsung Galaxy S22 Ultra: ¿en qué se diferencian ambos celulares?
Contenido sugerido
Contenido GEC