Se espera que Microsoft haga referencia a MAI-1 en la próxima conferencia para desarrolladores Microsoft Build (prevista para 21-23 de mayo).
Se espera que Microsoft haga referencia a MAI-1 en la próxima conferencia para desarrolladores Microsoft Build (prevista para 21-23 de mayo).
/ MOHD RASFAN
Agencia Europa Press

Microsoft está entrenando un nuevo modelo de Inteligencia Artificial (IA), conocido a nivel interno como MAI-1, que maneja 500.000 millones de parámetros y es “lo suficientemente grande” para competir con modelos de última generación lanzados por otras tecnológicas, como Google, Anthropic y OpenAI.

MIRA: La IA de Google puede detectar malwares en solo 30 segundos

El equipo encargado de su desarrollo está supervisado por el exlíder de la IA de Google y director ejecutivo de la startup Inflection AI, Mustafa Suleyman, tal y como ha adelantado recientemente The Information.

Este medio también ha indicado que el nuevo modelo de IA en el que trabaja Microsoft, conocido a nivel interno como MAI-1, tendrá un tamaño mucho mayor que cualquiera de los modelos de código abierto más pequeños que Microsoft haya desarrollado previamente.

Esto significa que este modelo, que tendrá aproximadamente 500.000 millones de parámetros, requerirá más datos de potencia de computación y entrenamiento, lo que lo encarecerá, según fuentes consultadas por este medio.

Asimismo, MAI-1 se podrá basar en datos de formación y otras tecnologías de Inflection, que se enfoca en el desarrollo de la IA personalizada. Entre sus trabajos destaca Pi, un ‘chatbot’ capaz de proporcionar conocimiento basado en los intereses y necesidades de los usuarios.

Con esta nueva IA, a la que Microsoft podría hacer referencia en la próxima conferencia para desarrolladores Microsoft Build (prevista para 21-23 de mayo), la tecnológica espera competir con los modelos de última generación de Google, Anthropic y OpenAI.

Conviene recordar que en los últimos meses Microsoft ha presentado diferentes modelos de lenguaje, como Phi-1, que trabaja con 1.300 millones de parámetros y se actualizó hace unos meses con Phi-1.5, con el que se obtuvo un rendimiento comparable al de modelos con un tamaño hasta cinco veces mayor.

La última iteración es Phi-2, capaz deobtener resultados de razonamiento y comprensión de lenguaje con un rendimiento “de vanguardia” entre lo modelos con menos de 13.000 millones de parámetros, según avanzó hace unas semanas.

Contenido sugerido

Contenido GEC