Un algoritmo puede tomar mejores decisiones que un humano. Por más contraintuitivo que esto suene, esto se sabe hace más de 50 años, muchísimo antes que los avances en inteligencia artificial pusieran a los algoritmos de moda.
En los años 60, investigadores del Oregon Research Institute (ORI) descubrieron que diferentes profesionales –desde radiólogos hasta psiquiatras– erraban más que un algoritmo para hacer predicciones en sus áreas de práctica.
Luego de décadas de investigación en psicología y economía del comportamiento, se sabe que hay dos tipos de decisiones en las que un algoritmo puede ser consistentemente más preciso que personas entrenadas.
El primero son decisiones que se toman de manera intuitiva, o con lo que el psicólogo y premio Nobel Daniel Kahneman ha bautizado sistema 1.
Estas son decisiones que se toman muy rápido y por procesos cognitivos inconscientes. En ellas predominan impresiones formadas con información incompleta y reacciones emocionales. Por ejemplo, cuando tenemos que tomar decisiones de personal la simpatía que nos genere alguien influye sustancialmente sobre nuestra predicción de su desempeño en el puesto. Ese es el sistema 1 en acción.
Uno de los estudios más reveladores sobre los sesgos inconscientes en decisiones de personal mostró cómo los directores de orquestas sinfónicas de élite en EE.UU. tienden a contratar a más mujeres cuando las audiciones a candidatos son ciegas (el candidato toca el instrumento tras una cortina). Cuando los evaluadores no conocen el género del candidato, tienden a contratar a 50% más mujeres. Cuando ven a la persona, inevitablemente el sistema 1 activa sesgos inconscientes que perjudican a las mujeres.
Un algoritmo puede ser tan superior a decisiones tomadas con el sistema 1 que Andrew Ng, profesor de Stanford y uno de los investigadores líderes en inteligencia artificial, cree que la mayoría de decisiones que se toman en poco tiempo serán eventualmente reemplazadas o asistidas por algoritmos.
El segundo tipo son decisiones que en apariencia se toman de manera reflexiva (con el sistema 2), pero en las que igual termina primando la intuición del sistema 1.
Estas son decisiones complejas en las que las personas no necesariamente tienen feedback rápido sobre su decisión, y por lo tanto su proceso de aprendizaje es muy limitado. Como consecuencia, aunque la decisión se intente tomar de manera más analítica, el decisor combina análisis con intuición. La consecuencia es que sus decisiones pueden ser muy inconsistentes. Por ejemplo, los radiólogos estudiados por el ORI perdían contra un algoritmo para diagnosticar cáncer de estómago por su inconsistencia: sus diagnósticos eran distintos a pesar de que las radiografías eran similares. La intuición en esos casos puede ser muy errática.
Sin embargo, el objetivo de un algoritmo no es hacer obsoleta la inteligencia humana, sino potenciarla. Un algoritmo podrá ser superior a un humano, pero nada es superior a la combinación humano más algoritmo.