El CEO de Nvidia, Jensen Huang, aparece rodeado de robots durante la reciente Conferencia para la Era de la IA que tuvo lugar el 18 de marzo del 2024.
El CEO de Nvidia, Jensen Huang, aparece rodeado de robots durante la reciente Conferencia para la Era de la IA que tuvo lugar el 18 de marzo del 2024.
/ JOSH EDELSON
Agencia Europa Press

El director ejecutivo de la firma tecnológica , Jensen Huang, cree que la Inteligencia Artificial general (AGI, por sus siglas en inglés) llegará en cinco años y que será “un 8 por ciento mejor” que la de los seres humanos.

MIRA: Escritores demandan a Nvidia por infracción de derechos de autor en el entrenamiento de su IA

La AGI se concibe como un tipo de sistema automático que tiene la capacidad de llevar a cabo cualquier tarea intelectual humana con éxito. Este ‘software’ puede, por tanto, razonar, aprender, comunicarse en lenguaje natural o, incluso, planificar el futuro.

La IA general no debe confundirse con la IA, que es una disciplina de la informática que permite al ‘software’ resolver tareas nuevas y/o complejas con un rendimiento a nivel humano tras un entrenamiento previo, ya que la AGI puede hacerlo sin intervención manual y sin limitarse a un ámbito específico. Esto quiere decir que la AGI se puede autoenseñar y resolver problemas para los que nunca se ha formado.

En un encuentro reciente con medios de comunicación, el CEO de Nvidia ha hablado sobre este tema y ha comentado que predecir “cuándo se verá una AGI aceptable” primero depende de cuál sea la definición esta IA.

En este sentido, ha subrayado que “si se especifica que es algo muy concreto”, como un conjunto de pruebas a las que se puede someter un programa informático para resolverlas como si se tratara de un humano, la AGI llegará “en cinco años”.

En este sentido, el directivo ha matizado que la IA general “puede funcionar muy bien”; tanto que podría ser “un 8 por ciento mejor que la mayoría de los usuarios” en pruebas como “un examen de abogacía, pruebas de lógica, económicas o la capacidad de aprobar un examen de premedicina”, según recoge TechCrunch.

Alucinaciones “solucionables”

Además de la AGI, Huang ha opinado sobre las alucinaciones de la IA. Se conoce como alucinaciones a aquellos datos que ofrece un modelo impulsado por esta tecnología que, a pesar de que están escritos de manera coherente, incluyen información incorrecta, sesgada o errónea.

El directivo ha subrayado que cree que estas se pueden resolver fácilmente, siempre que para elaborar las respuestas se haga una investigación previa. “Ante una respuesta de una IA, hay que examinar la fuente y el contexto”, ha señalado.

Una vez se haya pasado esta primera fase del procedimiento, se debe “comparar los hechos con verdades conocidas” y, si la respuesta es incorrecta, aunque sea de forma parcial, debe descartarse la fuente y pasar a otra diferente.

“La IA no debería simplemente responder. Primero debería hacer una investgiación para determinar cules de las respuestas son las mejores”, ha sentenciado Huang.

Contenido sugerido

Contenido GEC