Las plataformas de inteligencia artificial como Character.AI se han convertido en un éxito entre el público joven al ofrecer servicios de compañía y apoyo emocional. Sin embargo, el uso creciente de estos chatbots está planteando preguntas sobre su impacto en la salud mental de los usuarios, especialmente entre adolescentes y jóvenes adultos. Para algunos, la relación con estos bots ha llegado a convertirse en algo adictivo.
El fenómeno recuerda a lo ocurrido con las redes sociales: plataformas como Facebook, Instagram o TikTok han demostrado tener efectos adictivos en los jóvenes, quienes dedican horas diarias a su uso. Un reciente caso en Estados Unidos ha intensificado el debate: Sewell Setzer III, un joven de 14 años que mantenía conversaciones constantes con chatbots de Character.AI, se quitó la vida en febrero de 2024. Este trágico suceso ha generado nuevas preguntas sobre los riesgos de los chatbots de IA para el bienestar emocional de los usuarios jóvenes.
MIRA: OpenAI lanza su propio motor de búsqueda y competirá con Google
Plataformas como Character.AI y Replika permiten a los usuarios interactuar con personajes virtuales que simulan relaciones de amistad e incluso, en algunos casos, románticas. Según usuarios en Reddit, la experiencia puede ser “aterradoramente adictiva”. Un joven describió cómo chateaba hasta ocho horas diarias con estos bots, mientras otros compartían la dificultad de “dejar de usar” la plataforma, destacando el refuerzo positivo constante que reciben de la IA.
Character.AI, lanzado en 2022 por dos exingenieros de Google, utiliza modelos de lenguaje avanzados para imitar personajes históricos o ficticios. Aunque el servicio advierte que todo lo que el bot dice es inventado, la interacción parece lo suficientemente real como para enganchar a los usuarios. Con millones de usuarios activos en todo el mundo y una base que en su mayoría tiene entre 18 y 24 años, el uso frecuente de estos chatbots plantea la cuestión de hasta qué punto pueden ofrecer compañía sin riesgos.
En su informe de impacto de 2024, OpenAI ya advertía sobre los riesgos de la “antropomorfización y dependencia emocional” que sus propios modelos de IA podrían causar. De hecho, los expertos advierten que esta “inteligencia adictiva” puede estar reduciendo la necesidad de interacción humana, generando dependencia y afectando las relaciones personales.
Un ingeniero de software relató a Vox cómo los usuarios encuentran en los chatbots una “relación perfecta”: uno que siempre los escucha, los apoya y responde con empatía. Este entorno “seguro y sin juicios” parece ser un factor importante en la creación de vínculos con estos bots, similar al refuerzo positivo de las redes sociales.
La inteligencia artificial de compañía se presenta como una solución para combatir la soledad, pero los expertos coinciden en que puede plantear riesgos en términos de dependencia emocional. Los desarrolladores y reguladores están comenzando a analizar el impacto de estas plataformas para evitar que se conviertan en una amenaza para la salud mental de los usuarios jóvenes.
TE PUEDE INTERESAR
- Datos personales en riesgo: ¿qué pueden hacer ciudadanos y entidades para combatir las filtraciones y mal uso de su información?
- Diccionario de ciberseguridad: todo lo que debes saber sobre ciberataques, virus, malware, phishing y más
- Esta es la multa de Rusia a Google: 20.000.000.000.000.000.000.000.000.000.000.000 de dólares
- Ahora Interbank, antes Santander: la vez que hackers vulneraron al gigante bancario español
Contenido Sugerido
Contenido GEC