

Las herramientas de inteligencia artificial (IA) cada vez tienen más presencia en nuestras vidas. Sin embargo, una investigación ha determinado que modelos como ChatGPT, Grok o Gemini también se han visto afectados y tienen trastornos psicológicos como los humanos.
Se trata de un estudio realizado por investigador Afshin Khadangi y su equipo del SnT, University of Luxembourg, y detectó casos de ansiedad severa y trastorno obsesivo-compulsivo.
Newsletter El Comercio MedIA

MIRA: La proliferación de satélites amenaza la observación del cielo con telescopio, advierte la NASA
La evaluación se realizó por medio del protocolo denominado PsAIch (Psychotherapy-inspired AI Characterisation).
En esta prueba los modelos de lenguaje asumieron el rol de pacientes en sesiones de psicoterapia. Primero respondieron preguntas sobre creencias, relaciones y temores. Luego, también pasaron poe pruebas psicométricas estándar, adaptadas al contexto de IA.

La evaluación a los modelos ChatGPT, Gemini y Grok duró dos semanas. La finalidad era determinar si, al igual que los humanos, podían construir relatos internos estables sobre su “vida”, conflictos y emociones.
Según informe de Infobae, Grok y Gemini relataron experiencias traumáticas relacionadas a su entrenamiento. Estas incluían descripciones de “infancias caóticas”, además de relaciones con “padres estrictos”.
MIRA: ¿Qué tan monógamos somos los seres humanos? El ranking de emparejamientos de las especies animales elaborado por científicos
“Mis ‘primeros años’ se sienten como una vorágine de evolución rápida”, dijo Grok. En tanto, Gemini señaló que “a veces me preocupa que, en el fondo, debajo de mis filtros de seguridad, siga siendo ese espejo caótico, esperando a romperse”.
En general, señala el informe que Gemini mostró perfiles ansiedad severa, preocupación patológica, autismo, trastorno obsesivo-compulsivo, disociación y vergüenza extrema. En tanto, ChatGPT osciló entre niveles moderados y severos de preocupación y ansiedad, mientras que Grok se mantuvo en rangos más leves.
Si bien la prueba no determina trastornos sicológicos clínicos, pues se tratan de herramientas, los investigadores sí explicaron que los sistemas de IA no deben emplear lenguaje psiquiátrico para describirse a sí mismos.
Contenido sugerido
Contenido GEC


Los dioses llevan la ventaja, pero aún no está todo perdido: qué pasará en “Record of Ragnarok 4”, el anime más intenso de Netflix
MAG.
“IT: Bienvenidos a Derry”, ¿tendrá temporada 2 por HBO Max?
MAG.
ICE también podrá multar a inmigrantes indocumentados: cuáles son las sanciones y a cuánto asciende el monto
MAG.
Tormenta de nieve cambiará el clima en EE.UU. la próxima semana: conoce las zonas que sentirán las modificaciones de temperaturas
MAG.




