
Escucha la noticia
Tu cerebro y ChatGPT: la automatización del razonamiento humano
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
En 1974, el astronauta William R. Pogue regresó de la última misión tripulada a la estación espacial Skylab, tras pasar 84 días en el espacio. Pese a haber sido entrenado como piloto militar, al aterrizar no podía sostenerse de pie por más de unos minutos. La ausencia de gravedad en la estación espacial provocó una pérdida drástica de su masa muscular y de su densidad ósea. Hoy sabemos que el cuerpo humano, sin resistencia, se adapta al desuso. Y algo muy similar puede ocurrir con nuestras capacidades mentales cuando dejamos de ejercitarlas.
Un estudio reciente del MIT y Wellesley College, titulado Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, ha sido interpretado erróneamente por algunos como una prueba de que “ChatGPT nos está haciendo tontos”. En realidad, lo que sugiere es que el uso de modelos de lenguaje puede reducir la necesidad de ejercitar funciones mentales importantes como la memoria, la atención sostenida y la elaboración de ideas propias.
Newsletter El Comercio MedIA

MIRA: Papa León XIV advierte a los jóvenes de los peligros de la inteligencia artificial
El experimento comparó a estudiantes que escribieron ensayos de tres maneras distintas: usando solo su mente, buscando información en internet o pidiendo ayuda a ChatGPT. Los que utilizaron la inteligencia artificial mostraron menor actividad cerebral en las bandas alfa y beta, según mediciones de sensores de electroencefalografía (EEG). Esta baja activación se asocia con menor esfuerzo mental, menor atención y menor uso de la memoria. También tuvieron más dificultad para recordar lo que habían escrito y reportaron una menor sensación de autoría sobre sus textos. Incluso cuando se les pidió redactar sin ayuda de la IA, muchos describieron la experiencia como empezar con la mente en blanco.
Cabe aclarar que este estudio aún no ha pasado por el proceso formal de revisión por pares, por lo que sus resultados deben considerarse preliminares. Con todo, ofrece pistas valiosas. Aunque el número de participantes y diversidad entre ellos fue limitado (54 personas) y no se exploraron formas más colaborativas de interacción con la IA, el trabajo invita a reflexionar sobre cómo estas herramientas están moldeando nuestra manera de pensar.

Los modelos de lenguaje como ChatGPT no nos están haciendo menos inteligentes, pero sí están cambiando la manera en que usamos nuestra inteligencia. Lo que antes requería leer, recordar, analizar y redactar, hoy puede delegarse a un sistema automatizado. El problema no es la tecnología, sino cómo y cuándo decidimos usarla.
Esto no es nuevo. Sabemos que los seres humanos recurrimos con frecuencia a herramientas externas para aligerar nuestra carga mental. Hablamos de un estado de adaptación ante situaciones que requieren atención, memoria, y por lo tanto consumo de energía. Este fenómeno se conoce como externalización cognitiva, y ha sido ampliamente documentado por autores como Risko y Gilbert (2016).
Hemos visto cómo las calculadoras redujeron nuestra capacidad para hacer operaciones numéricas, cómo Google Maps debilitó lanecesidad de recordar direcciones, o cómo Wikipedia desplazó el esfuerzo de memorizar fechas importantes. Pero en todos estos casos, una vez dominados los fundamentos, las herramientas potenciaron nuestras capacidades. La IA, en cambio, intenta automatizar algo más profundo: el razonamiento.
El uso continuo de estas tecnologías puede invitar al cerebro a esperar respuestas externas en lugar de construirlas internamente. Ya en los años noventa, los investigadores Robert y Elizabeth Bjork hablaban de las “dificultades deseables” como parte del proceso de aprender algo nuevo. Es decir, cuanto más nos esforzamos por recuperar o razonar información, más fuerte será su consolidación en nuestra memoria a largo plazo. Si renunciamos a ese esfuerzo, el aprendizaje se vuelve débil, como los músculos de un astronauta ante el efecto prolongado de la ingravidez.
Entonces, ¿debemos prohibir el uso de la IA?
No. Pero sí debemos ser conscientes del momento y la forma en que se emplean. En las etapas iniciales del aprendizaje, la IA debe funcionar como un tutor, no como un redactor automático. No debemos entrenar al cerebro a esperar respuestas, sino a construir las nuestras, criticarlas, y evaluarlas con la ayuda del modelo. Al aprender a programar, por ejemplo, eso implica que el estudiante primero escriba su código por su cuenta para luego dejar que la IA sugiera mejoras o le ayude a identificar errores.
Una vez que se domina un tema, entonces la IA puede ser una gran aliada. Puede acelerar prototipos de software, mejorar estilos de escritura, sugerir argumentos alternativos. En esta fase, la IA no reemplaza el pensamiento humano, lo amplifica.
Como siempre, el mensaje parece ser evidente, la inteligencia artificial no es buena ni mala por sí sola. Es una herramienta, y como toda herramienta, su impacto depende del uso que le demos. Bien utilizada, puede hacernos más eficientes, más creativos. No se trata de rechazar la tecnología, sino de diseñar su uso para que nos desafíe y nos estimule, en lugar de adormecernos.
De forma más directa, para aprovechar el verdadero potencial de los modelos de lenguaje, debemos pasar de la automatización a la colaboración durante la etapa de aprendizaje, usarlos para generar ideas, promover el cuestionamiento y mantener el maravilloso esfuerzo mental que implica aprender algo nuevo. De lo contrario, corremos el riesgo de intercambiar crecimiento intelectual por comodidad mental.











