Sam Altman también ha asegurado que el coste de la IA “debería converger eventualmente a un nivel cercano al de la electricidad”.
Sam Altman también ha asegurado que el coste de la IA “debería converger eventualmente a un nivel cercano al de la electricidad”.

Escucha la noticia

00:0000:00
Sam Altman asegura que la consulta a ChatGPT consume “una quinceava parte de una cucharadita” de agua
Resumen de la noticia por IA
Sam Altman asegura que la consulta a ChatGPT consume “una quinceava parte de una cucharadita” de agua

Sam Altman asegura que la consulta a ChatGPT consume “una quinceava parte de una cucharadita” de agua

Resumen generado por Inteligencia Artificial
La IA puede cometer errores u omisiones. Recomendamos leer la información completa. ¿Encontraste un error? Repórtalo aquí
×
estrella

Accede a esta función exclusiva

El director ejecutivo de OpenAI, Sam Altman, ha asegurado que una consulta a su ‘chatbot’ ChatGPT consume, de media, “aproximadamente la quinceava parte de una cucharadita” de agua, lo que equivale a 0,000085 galones de agua, así como unos 0,34 vatios-hora en términos de energía.

La inteligencia artificial (IA) habitualmente es una tecnología que demanda grandes cantidades de recursos energéticos, ya sea para su entrenamiento o para su uso, tal y como han corroborado en diversas ocasiones estudios recientes, como el elaborado por investigadores de la Universidad de Riverside (California) y de la Universidad de Arlington (Texas), que detalló en octubre del pasado año que utilizar ChatGPT con el modelo GPT-3 para responder a un máximo de 50 consultas precisa de alrededor de dos litros de agua.

Newsletter El Comercio MedIA

Alicia Rojas
MIRA: La mitad del mundo vivió un mes más de calor extremo por el cambio climático, indica estudio

Ahora, el propio CEO de OpenAI ha aportado algunos datos actualizados sobre la cantidad de recursos que utiliza ChatGPT a la hora de resolver solicitudes de los usuarios, a través de una publicación en su blog personal en la que también ha compartido sus predicciones sobre el futuro de la IA y cómo afectará al mundo actual.

En concreto, Altman ha detallado que una consulta promedio de un usuario a ChatGPT tiene un consumo de unos 0,34 vatios por hora, lo que equivale al consumo de un horno “en poco más de un segundo” o una bombilla de alta eficiencia “en un par de minutos”.

Siguiendo esta línea, el directivo también ha especificado la cantidad de agua que habitualmente requiere una consulta a su ‘chatbot’ impulsado por IA. Concretamente, este utiliza unos 0,000085 galones de agua (alrededor 0,000322 litros de agua), lo que corresponde a “aproximadamente la quinceava parte de una cucharadita” de agua.

Teniendo todo ello en cuenta, Altman también ha aseverado que, a medida que se automatiza la producción en los centros de datos, el coste de la IA “debería converger eventualmente a un nivel cercano al de la electricidad”.

Agentes que realicen “trabajo cognitivo real”

Más allá del coste, el CEO de OpenAI también ha compartido su visión de cómo avanzará la IA en un futuro próximo, alegando que durante este año se llegarán a concretar agentes que puedan realizar “trabajo cognitivo real”, esto está relacionado con capacidades de atención, memoria, concentración y razonamiento. Asimismo, ha manifestado que, ante estos avances, “escribir códigos informáticos nunca volverá a ser lo mismo”.

Continuando con las predicciones, de cara al próximo año 2026, Altman ha adelantado que se llegarán a generar sistemas “capaces de descubrir nuevos conocimientos” y, avanzando a 2027, augura la llegada de robots que ya puedan realizar tareas en el mundo real.

No obstante, Altman también ha concluido que, para llegar a todos los avances mencionados, es necesario afrontar “serios desafíos”, como son los problemas de seguridad “tanto técnicos como sociales” y distribuir ampliamente el acceso a la superinteligencia, “dadas las implicaciones económicas”, ha sentenciado.

Mira también:

Contenido sugerido

Contenido GEC