La historia de la breve crisis dentro de OpenAI, con el abrupto despido de Sam Altman, no ha quedado tan clara. (Foto: AFP)
La historia de la breve crisis dentro de OpenAI, con el abrupto despido de Sam Altman, no ha quedado tan clara. (Foto: AFP)
Redacción EC

La crisis vivida dentro de , tras el abrupto despido y restitución de , sigue generando controversias. Y es que una de las razones que estaría detrás de esta diferencia sería el proyecto llamado AGI, o lo que algunos llaman como la .

Según un informe de la agencia , antes de la crisis un grupo de investigadores escribió una carta a la junta directiva de OpenAI advirtiendo sobre un descubrimiento de IA que podría amenazar a la humanidad.

LEE TAMBIÉN: Cómo configurar el “Botón de acción” del iPhone para usar al asistente de voz de ChatGPT en vez de Siri

En la investigación periodística participaron dos fuentes anónimas. Aunque no se ha tenido acceso al mensaje, OpenAI reconoció en un mensaje interno a su personal la existencia de un proyecto llamado Q* (que se pronuncia como Q-Star).

No se ha detallado el contenido, pero según señala Reuters, en el interior de OpenAI se cree que podría ser un gran avance en la búsqueda de la startup en lo que se conoce como inteligencia artificial general (AGI).

Sam Altman participó en el foro APEC. Unos días después fue despedido de OpenAI. (Foto: AFP)
Sam Altman participó en el foro APEC. Unos días después fue despedido de OpenAI. (Foto: AFP)

Esto también despierta las sospechas sobre el despido de Altman, fundador y CEO de OpenAI, pues en la cumbre de Cooperación Económica Asia-Pacífico dijo: “Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala, cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante”. Unos días después fue despedido.

¿La humanidad en riesgo?

La IA General es uno de los retos dentro de los investigadores informáticos. Según informe de, Nisha Talaga, CEO de AIClub, lo ha descrito como “una inteligencia que no está especializada en ninguna tarea concreta”, sino que es buena en muchas.

LEE TAMBIÉN: Una nueva era en OpenAI: consecuencias del regreso de Sam Altman a la firma que cambió la IA

Por otro lado, el equipo de DeepMind, una división de Google que se dedica a la investigación sobre IA, ha establecido cinco niveles de AGI. El primero se llama Emergente, que es donde hoy nos encontramos con chatbots como ChatGPT y Bard; luego vienen otros: Competente; Experto; Virtuoso y, finalmente, Sobrehumano, que es capaz de realizar varias tareas mejor que los humanos.

Otro de los retos es que no solo pueda hacer muchas tareas a la vez, sino que pueda aprender a realizarlas, evaluar su desempeño y pedir ayuda.


Entre los riesgos que se señala en el informe es que también supone una amenaza sobre la privacidad de datos, al tomar decisiones de manera autónoma, poniendo en riesgo la seguridad de muchas personas. Por ello, hoy en día la Unión Europea, Estados Unidos, Japón y otros territorios del mundo evalúan medidas regulatorias.


Contenido sugerido

Contenido GEC