Un bebe recibe múltiples estímulos visuales y auditivos que le enseñan a asociar palabras con el mundo que le rodea. (Foto referencial: pexels.com)
Un bebe recibe múltiples estímulos visuales y auditivos que le enseñan a asociar palabras con el mundo que le rodea. (Foto referencial: pexels.com)
Redacción EC

En los últimos años se han vuelto populares las herramientas ChatGPT de OpenAI o Gemini Pro de Google, cuando hablamos de (IA). Pero no son los únicos modelos que existen y que buscan comprender la comunicación humana.

Hasta el momento las empresas han desarrollado modelos de IA que trabajan en función a textos y datos que incluso provienen de Internet, formas de hablar ya existentes. Sin embargo, un grupo de investigación busca ir desde el principio.

LEE TAMBIÉN: Baterías de metal de litio, la tecnología que puede duplicar la autonomía de los autos eléctricos

El grupo pertenece a la Universidad de Nueva York y se han planteado que la IA aprenda a hablar tal como lo hace un bebe.

Según informe de la página , los investigadores entrenaron un sistema de inteligencia artificial multimodal a través de los ojos y oídos de un solo niño, utilizando grabaciones de video con cámara frontal desde que el niño tenía 6 meses hasta los 2 años.


Los resultados se han publicado en la revista científica Science, donde se señala que la red neuronal podía aprender una cantidad sustancial de palabras y conceptos utilizando fragmentos limitados de la vida del sujeto.

“Demostramos, por primera vez, que una red neuronal entrenada con esta información realista desde el punto de vista del desarrollo de un solo niño puede aprender a vincular palabras con sus contrapartes visuales”, dice Wai Keen Vong, parte del equipo de investigadores.


Consiguieron 60 horas de grabación, que solo constituye el 1% de las horas de vigilia del bebe. Además, obtuvieron una precisión del 61.6%. Será una nueva manera de que la IA aprenda más de los humanos.

Contenido sugerido

Contenido GEC