Inteligencia artificial
La semana pasada, la compañía Apple dio a conocer su nuevo modelo de teléfono llamado iPhone X. En la presentación del producto se anunció que, gracias al reconocimiento facial, el aparato empezará a funcionar apenas reconozca el rostro de su dueño. Para eso, dijeron los ingenieros, el chip electrónico del teléfono ha sido entrenado a reconocer mas de mil millones de rostros humanos usando un sistema electrónico llamado circuito neuronal artificial.
En los últimos años se ha venido usando ese tipo de circuitos neuronales en máquinas que ayuden en el diagnóstico en algunas especialidades de la medicina, especialmente en patología y radiología. La idea es que del mismo modo que ahora un teléfono celular es capaz de reconocer el rostro de una persona con una seguridad de uno en un millón, ¿será posible que una máquina pueda reconocer tan bien como un ser humano una neumonía en una placa de rayos X o un diagnóstico de cáncer de la próstata en una biopsia?.
El conocimiento humano
Tratando de entender como es que los radiólogos aprenden a interpretar sus radiografías, investigadores de la Universidad de Sao Paulo pusieron a 25 radiólogos en máquinas de MRI que estudiaban sus cerebros mientras se les enseñaban imágenes de rayos X, siluetas de animales o simplemente letras del alfabeto. Los resultados indicaron dos cosas, en primer lugar, que el reconocimiento de las imágenes era casi instantáneo (demora 1.33 segundos) y en segundo lugar, que a pesar de que el reconocimiento de todas las imágenes usa la misma zona cerebral (lóbulo parietal) el reconocimiento de diagnósticos médicos activa zonas cerebrales mas complejas. Eso indica que hay dos niveles de conocimiento, el de la imagen por si misma y el del significado de las imágenes.
Ese hallazgo refuerza la idea del filosofo británico Gilbert Ryle quien dijera en 1945 que el conocimiento existe en dos esferas, el del “saber eso” y el del “saber cómo”. Por ejemplo, el saber reconocer un carro es algo simple, pues implica saber que tiene cuatro ruedas, tiene una carrocería, tiene un parabrisas, tiene un timón, etc. Este nivel de conocimiento es el “saber eso”. Pero ya el saber diferenciar la marca del carro, el modelo o el año de fabricación exige ya un nivel mas sofisticado de conocimiento, el que según Ryle representa el “saber cómo”, en este caso, el saber como diferenciar los diferentes tipos y modelos de carro.
¿Pueden las máquinas aprender?
Desde hace varios años, se han venido desarrollando máquinas que han aprendido a reconocer imágenes, es decir el “saber eso” de Ryle. Así, se tienen máquinas que leen citologías vaginales (Papanicolaou), mamografías (sistema CAT por sus siglas en ingles), electrocardiogramas, etc. El problema con estos sistemas es que solo han llegado al primer nivel del conocimiento, es decir reconocer imágenes y patrones de un solo elemento (células, imágenes de rayos X) pero no han aprendido a diferenciar imágenes que sean diferentes de lo que se les ha enseñado. En otras palabras, solo diferencian carros de bicicletas y motocicletas, pero no han aprendido el “saber cómo” diferenciar las marcas o los modelos de los carros ni su año de fabricación.
Un interesante estudio del Dr. Sebastián Thrun de la Universidad de Stanford y publicado en la revista Nature en febrero de este año, revela que dependiendo del tipo de datos con que se alimenten a las máquinas, estas son capaces de aprender. En primer lugar, se le enseñó a la máquina a reconocer 130,000 imágenes de todo tipo de lesiones de la piel (incluyendo cáncer, acné, lunares, eczemas, etc.). En un segundo paso, los científicos alimentaron a la máquina con el nombre de las 2,000 enfermedades que esas imágenes representaban y las biopsias de 2,000 de esas lesiones. El resultado fue que la máquina no solo aprendió a reconocer las imágenes de las lesiones, sino que aprendió a relacionarlas con el nombre de las enfermedades y sus respectivas biopsias. En otras palabra, la máquina no solo aprendió el “saber eso”, sino que aprendió también el “saber cómo” de Ryle. En otras palabras, no solo aprendió a reconocer los carros, sino que aprendió a diferenciar las marcas y los modelos. A este tipo de conocimiento avanzado de las máquinas, se le ha bautizado como “conocimiento profundo”.
Validación del conocimiento profundo
Para probar el nivel de conocimiento adquirido de sus máquinas, Thrun la enfrentó primero a dos radiólogos entrenados en reconocer las mismas lesiones. Luego de mostrarle a ambos 14,000 imágenes, la máquina predijo con un 72% de certeza el diagnóstico de una imagen. Los radiólogos solo lo hicieron en el 66%.
En un segundo experimento, la máquina fue enfrentada con un grupo de 25 radiólogos para examinar 2,000 imágenes de cáncer de la piel de tipo melanoma y la máquina fue mucho mejor que los humanos, tanto en su sensibilidad, es decir casi no se le pasaban por alto las imágenes de verdaderos melanomas y en su especificidad, es decir, no llamaba melanoma a lo que no era.
Corolario
Si bien es cierto que al igual que los humanos, las máquinas (incluyendo la Watson de IBM o el DeepMind), pueden aprender el “saber eso” y en base a esa experiencia pueden desarrollar el “saber cómo” de Ryle, es importante entender que hasta ahora, las máquinas no pueden desarrollar el tercer tipo de conocimiento que postuló Ryle. Es el llamado “saber qué” o sea el saber para qué o porqué se hacen las cosas, es decir el razonamiento que permite relacionar el “saber eso” y el “saber cómo” con el medio ambiente y establecer el contexto de lo que realmente sucede en la vida.