
En los últimos años, ha ido tomando fuerza una idea que genera cierta inquietud: la singularidad, ese posible momento en que la inteligencia artificial (IA) supere por completo a la inteligencia humana, podría estar mucho más cerca de lo que pensamos. Varios expertos en tecnología aseguran que podría hacerse realidad en apenas una o dos décadas.
La singularidad es ese momento hipotético en el que la IA superaría a la inteligencia humana, volviéndose tan avanzada que podría mejorarse a sí misma sin intervención humana. Para muchos, sería un punto de no retorno, donde las máquinas podrían tomar decisiones más rápido y mejor que nosotros, cambiando radicalmente la forma en que vivimos, trabajamos y nos relacionamos. Algo parecido a lo que vimos en la recordada película The Terminator.
Sin embargo, un nuevo estudio liderado por científicos de la Universidad Johns Hopkins sugiere que esa singularidad podría no estar tan próxima como se pensaba.
La razón es sencilla, pero poderosa: los humanos aún son mejores que cualquier IA en una tarea crítica para la convivencia y la seguridad del mundo real. Nos referimos a la capacidad de interpretar escenas sociales en movimiento: leer gestos, entender interacciones, anticipar intenciones.
“Siempre que se quiera que una IA interactúe con humanos, se necesita que sea capaz de reconocer lo que hacen. Creo que esto pone de manifiesto que estos sistemas no pueden hacerlo actualmente”, explicó Leyla Isik, profesora adjunta de ciencias cognitivas y autora principal del estudio.
Esta habilidad es esencial para muchas tecnologías emergentes, desde los coches autónomos hasta los robots de asistencia. Para que un vehículo sin conductor pueda operar con seguridad, necesita mucho más que detectar peatones. Debe anticipar si alguien está a punto de cruzar la calle, si dos personas están conversando o si una bicicleta cambiará de dirección. Esa lectura de la intención humana sigue siendo una capacidad netamente humana.

En la investigación, que será presentada por la estudiante de doctorado Kathy García en la Conferencia Internacional sobre Representaciones de Aprendizaje, se pidió a voluntarios que observaran videoclips de tres segundos con personas interactuando. Luego, debían calificar qué tan importantes eran ciertos aspectos sociales para comprender cada escena. Los resultados humanos fueron consistentes; las IA, en cambio, fallaron estrepitosamente.
Se analizaron más de 350 modelos distintos de IA, incluyendo modelos de lenguaje, video e imagen. A pesar de su entrenamiento con grandes volúmenes de datos, ninguno fue capaz de predecir con precisión las respuestas humanas ni de interpretar correctamente lo que sucedía en los videos. Los modelos de video, por ejemplo, no lograban describir con precisión las actividades humanas. Incluso cuando se les proporcionaba una secuencia de fotogramas, no podían detectar si las personas se estaban comunicando entre sí.
Paradójicamente, esto contrasta con el éxito de la IA en tareas más estáticas, como el reconocimiento de objetos o rostros en imágenes fijas. Esas habilidades llevaron a la IA muy lejos, pero hoy ya no son suficientes.
“La vida real no es estática”, recordó García. “Necesitamos que la IA comprenda la historia que se desarrolla en una escena. Comprender relaciones, contexto y dinámica de interacciones sociales es el siguiente paso, y esta investigación sugiere que podría haber un punto ciego en el desarrollo de modelos de IA”.

El equipo sugiere que el problema puede estar en la base misma de cómo se diseñan estas inteligencias. Las redes neuronales actuales están inspiradas en regiones del cerebro humano especializadas en analizar imágenes estáticas, pero la comprensión social en movimiento es otra historia. Procesar la dinámica social requiere un tipo de estructura cerebral distinta, y la IA, por ahora, no tiene con qué replicarla.
“Hay muchos matices, pero la principal conclusión es que ningún modelo de IA puede replicar las respuestas del cerebro y el comportamiento humano ante escenas en general, como lo hacen con escenas estáticas”, concluyó Isik. “Creo que hay algo fundamental en la forma en que los humanos procesan las escenas que estos modelos pasan por alto”.
Así que, si bien la inteligencia artificial ha logrado avances impresionantes en reconocimiento de patrones, procesamiento del lenguaje y generación de imágenes, todavía no entiende cómo se mueven ni se relacionan los humanos. Y mientras no lo haga, la singularidad seguirá lejana.
¿Cuáles son algunas de las aplicaciones comunes de la IA en la vida cotidiana?
Existen muchas aplicaciones en la cual un ser humano puede aprovechar, tales como asistentes virtuales (Siri y Alexa), sistemas de recomendación en plataformas de streaming y comercio electrónico, software de reconocimiento fácil, charbots (ChatGpt, Gemini, entre otros) y más.

Periodista. Estudió Comunicación en la Universidad de Lima. Diez años de experiencia en medios digitales. Actualmente se desempeña como redactor del Núcleo de Audiencias de El Comercio.