Cerebro electrónico
Cerebro electrónico
Francisco Melgar Wong

En 1950, el matemático inglés Alan Turing lanzó una profecía: “Cuando este siglo se acabe, uno podrá hablar de máquinas pensantes sin que nadie lo contradiga”. Aunque la profecía de Turing no llegó a cumplirse, los intentos por crear una máquina pensante continúan hasta el día de hoy. Por ejemplo, a comienzos de este año, Mark Zuckerberg anunció que construirá una máquina que arregle su casa y lo ayude en el trabajo. “Algo así como Jarvis en 'Iron Man'”, dijo. Unos días después, el polémico inventor estadounidense Ray Kurzweil anunció que construirá una super inteligencia artificial a la que convertirá en su asistente personal. Todo esto suena muy interesante. Pero ¿es realmente posible programar una máquina para que tenga la capacidad de pensar?

La prueba de Turing
La carrera por crear una máquina pensante se remonta al 12 de noviembre de 1936, cuando Alan Turing publicó el artículo “Sobre números computables” en la revista de la Sociedad Matemática de Londres. En este artículo, escrito cuando tenía 24 años, Turing presentó una máquina universal de memoria ilimitada —el primer boceto de las computadoras actuales— que, en principio, podía ejecutar cualquier operación mecánica, como, por ejemplo, resolver sumas y restas o traducir una frase del inglés al español al mejor estilo del traductor Google. Como era de esperar, el artículo de Turing causó un gran impacto entre los ingenieros y matemáticos de su tiempo, y, 12 años después, su idea se materializó en una máquina tangible, conocida como el cerebro electrónico de Manchester. Fue en esa época que Turing empezó a tomarse en serio la idea de una máquina pensante. De hecho, esta sería la idea central de su siguiente artículo: “Computing Machinery and Intelligence”, publicado en 1950 por la revista Mind. En ese artículo, considerado uno de los más influyentes en el área de la inteligencia artificial (IA), Turing presentó un célebre test que hoy lleva su nombre. El test consiste en una persona que interroga a otras dos entidades que permanecen ocultas, una de ellas es un ser humano y la otra es una máquina. Después de un determinado lapso, la prueba acaba y el interrogador decide cuál de sus dos interlocutores es la máquina. Si no logra distinguir la máquina del ser humano, la máquina habrá pasado la prueba. 
     Una prueba de Turing podría basarse en las siguientes preguntas: ¿cuánto es 34.957 más 70.764? ¿Qué hizo el sábado por la noche? ¿Cuál es su disco favorito de David Bowie? Si tengo un rey en rey 1 y ninguna otra pieza, y usted tiene rey en rey 6 y peón en peón 1, ¿cuál sería su jugada? ¿Cuál es el significado de la vida? Según Turing, si una máquina puede responder preguntas de este tipo y hacernos creer que es humana, entonces tiene la capacidad de pensar. Pero ¿realmente es así? ¿No podríamos imaginar un artificio programado para que sus respuestas nos persuadan de que es inteligente, aunque en realidad se trate solo de una computadora diseñada para imitar mecánicamente el comportamiento de un ser inteligente? Desde esta perspectiva, el test de Turing no parece ser el mejor método para descubrir si hay máquinas pensantes. Quizá, si queremos averiguar si este tipo de aparatos existe, debemos proponer otro tipo de preguntas.
     Justamente, a comienzos de los años noventa, el filósofo estadounidense John Searle planteó el problema de otra manera. En su artículo “¿Es el cerebro un programa de computadora?” (1990), Searle identificó las máquinas pensantes con computadoras que ejecutan programas. Estos programas pueden ser “creer que Tony Stark es Iron Man”, “saber que Mark Zuckerberg es el creador de Facebook” o cualquier otro que lleve algún tipo de información. No es casual que Searle identifique pensar con tener en mente algún tipo de información. Al fin y al cabo, cuando los seres humanos piensan tienen en mente información; y, por su parte, cuando ejecutan algún programa, las computadoras procesan y almacenan información. La pregunta de Searle es si, basándonos en este parecido, podemos afirmar que las computadoras y los seres humanos piensan cuando almacenan y procesan información.
     La respuesta de Searle, en el caso de las computadoras, es no. No basta almacenar y procesar información para que una computadora piense. El razonamiento de Searle es el siguiente: al ejecutar un programa la computadora manipula símbolos, pero estos símbolos no tienen ningún significado para ella. Cuando la computadora asocia los símbolos “2 + 2”, “=” y “4” no tiene idea de que su significado es que dos más dos es igual a cuatro. Ni siquiera tiene idea de que el símbolo “4” se refiere al número cuatro. La máquina solo emite símbolos luminosos provocados por impulsos eléctricos que siguen una ruta planteada de antemano por un manual de programación, pero de ningún modo está pensando que dos más dos es igual a cuatro. Searle intenta persuadirnos de que emitir señales eléctricas según las pautas de un manual de programación no equivale a pensar. Pensar, es cierto, tiene que ver con la emisión de señales eléctricas, pero también con tener algo en mente al momento de hacerlo.

¿Máquinas que piensan?
El argumento de Searle es de gran utilidad si queremos evaluar la posibilidad de que realmente existan máquinas pensantes. El 27 de enero pasado, por ejemplo, la oficina de IA de Google anunció que uno de sus programas, AlphaGo, había logrado dominar Go, uno de los juegos de mesa más complejos que existen. Según la revista Nature, el programa había usado la técnica del deep learning para fortalecer las conexiones entre imitaciones de capas de neuronas a través del ejemplo y la experiencia. De esta manera, AlphaGo había incorporado 30 millones de posiciones de jugadas hechas por expertos, de las que podía abstraer información relevante para ganar el juego. El programador francés Rémi Coulom no dudó en declarar que “el deep learning usado en AlphaGo está solucionando todos los problemas en el campo de la IA”. Esta afirmación es, a todas luces, una grosera exageración. Si echamos mano del razonamiento de Searle, podemos poner en duda las declaraciones de Coulom y señalar que la complejidad de un programa no garantiza que la computadora que lo ejecuta esté pensando. Pensar requiere hallarse en un estado mental, y hallarse en un estado mental requiere que los símbolos que procesamos signifiquen algo para nosotros. AlphaGo combina símbolos según las reglas sintácticas preestablecidas por un manual de programación, pero no tiene ni idea de que está jugando Go.
     De hecho, solo unas horas después de que Coulom anunciara con bombos y platillos que gracias al deep learning el programa AlphaGo había solucionado todos los problemas de la IA, uno de los principales desarrolladores del deep learning, Yoshua Bengio, se apuró en ponerle paños fríos a sus declaraciones.
     “Por muchos años, la IA ha sido una decepción. Los investigadores luchamos para volver a las máquinas más inteligentes, pero estas siguen siendo muy estúpidas,” declaró Bengio desde su laboratorio del MIT. “Nuestro gran reto ahora es la comprensión del lenguaje. En este campo, hemos progresado a lo largo de los años, pero no hemos llegado a un punto en el que podamos decir que la máquina entiende lo que decimos. Esto ocurrirá solo cuando leamos un párrafo y la máquina pueda respondernos de una manera razonable, como lo haría un humano. Pero la verdad es que estamos muy lejos de llegar a eso”.
     Mientras tanto, la carrera por crear una máquina pensante continúa. Hoy mismo, Mark Zuckerberg trabaja en la creación de su propia IA. Según el creador de Facebook, lo primero que hará será programar su máquina para que reconozca su voz. Luego le enseñará a reconocer las caras de sus amigos. Finalmente, la utilizará en su trabajo para crear mejores servicios. La idea de Zuckerberg, como ya hemos dicho, es crear una especie de Jarvis, la carismática IA construida por Tony Stark en la saga de "Avengers". Pero lo que Zuckerberg olvida es que en la ficción cinematográfica Jarvis es un sistema superinteligente, y el estado actual de la IA está lejos de crear una máquina así. John Searle podría darse una vuelta por su oficina y advertirle que su máquina nunca sabrá que las señales electrónicas que percibe son su voz, ni que las señales luminosas que aparecen en su sensor óptico son las caras de sus amigos. ¿Cómo podría la máquina saber lo que hace? La máquina no sabe qué hace. Solo hace.

[Francisco Melgar Wong es filósofo, periodista y crítico musical]

Contenido sugerido

Contenido GEC