“Más que lamentarnos y esperar que las máquinas nos dominen, debemos estar listos para avanzar con ellas”.
Aunque se habla de inteligencia artificial desde hace ya un tiempo, en estos últimos dos años el tema ha cobrado mayor notoriedad. Primero con Dall-e, una aplicación que crea dibujos e ilustraciones inéditos a partir de descripciones textuales; y ahora con ChatGPT, un chatbot especializado en el diálogo. Ambos productos –desarrollados por la empresa OpenAI– están basados en inteligencia artificial y cuentan con gran capacidad para aprender en base a determinadas técnicas de refuerzo.
Muchos nos hemos sorprendido –y algunos hasta atemorizado– al ver respuestas del ChatGPT con un nivel de argumentación muy alto. Incluso, algunas semanas atrás, leí en “El Mercurio” de Chile una columna de opinión generada por la herramienta en cuestión. ¿Es que la idea de que los robots nos dejen sin trabajo ahora sí cobra más sentido? Ojo, no se trata de un debate de nuestros tiempos. Desde la construcción del sirviente automático de Filón de Bizancio, hace más de 2.200 años, ya los griegos empezaban a hacerse la misma pregunta.
Si bien la inventiva humana, a lo largo de la historia, ha hecho que desarrollemos herramientas cada vez más modernas para realizar de la manera más sencilla posible nuestras tareas, como humanidad hemos llegado a un punto en el que el avance tecnológico está permitiendo que esas mismas herramientas realicen por completo ciertas tareas.
¿Pero cuál es la real amenaza? ¿Que haya sistemas cada vez más inteligentes que puedan aprender y encontrar soluciones por su cuenta? ¿O que los humanos dejemos de aprender?
Antes de caer en alarmismos, se debe dejar en claro que la inteligencia artificial ya la venimos usando desde hace un buen tiempo y que hoy, incluso, se ha convertido en un elemento indispensable para realizar ciertos trabajos.
Conversando con Michael Sayman, ingeniero de software y CEO de Friendly Apps, me confesó que usa soluciones de inteligencia artificial para programar: plantea el problema y la aplicación le propone líneas de código. Él las prueba y, si funcionan, las aplica. Así ahorra tiempo.
Por el mismo lado fue Omar Flórez, doctor en ciencias de la computación e investigador en temas de inteligencia artificial. “No es la primera vez que nos sentimos amenazados por la tecnología, pero, laboralmente, también hay que pensar que esos avances van a generar otro tipo de trabajos”, me dijo.
Entonces, más que lamentarnos y esperar que las máquinas nos dominen, debemos estar listos para avanzar con ellas, para aprovechar la inteligencia artificial como herramienta que nos permita llegar al siguiente nivel. En el futuro inmediato la inteligencia será clave. Y si es la nuestra, mucho mejor.
“Por más desarrollada que pueda ser una inteligencia artificial, sigue siendo una construcción humana”.
“Ley Cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley”.
Desde que Isaac Asimov planteara estas leyes para los cerebros positrónicos, ha transcurrido casi un siglo. Estas leyes, que han ido evolucionando, se han planteado también para la inteligencia artificial (IA) y, de hecho, son nuestro punto de partida.
Debemos partir desde la idea de que una IA no es autogenerada (aún no estamos en Skynet). Una IA es creada por alguien, por un programador o un grupo de ellos que, en el mejor sentido, tendrán su impronta (incluyendo sus visiones del mundo y sus propios prejuicios). De esta manera podemos tener un instrumento que, aun con posibilidades de aprender, termine tomando como base ciertos límites propios del programador. Por más desarrollada que pueda ser una IA, sigue siendo una construcción humana.
Pero alguien puede preguntarse: “¿Y si una IA hace una IA?”. Si las reglas expuestas líneas arriba están claras, las IA seguirán dichas reglas como si fueran una licencia vírica. El tema está en que, con una generación sin reglas, donde el ‘machine learning’ no tenga mayores parámetros que la “tendencia” o la “mayor presencia de casos positivos”, podríamos terminar dependiendo de la forma de aprendizaje. Y esto nos lleva a otras interrogantes. ¿Cómo aprendemos? ¿Cómo aprenderá la IA? ¿Qué programación para aprender y aprehender tiene dicha tecnología? ¿Puede la IA ser un problema para el derecho de autor o para el arte? ¿La investigación científica se verá afectada por textos no creados por humanos? ¿Cómo afectará nuestra visión del mundo si las IA comienzan a tener “prejuicios” o “tendencias” hacia una visión del mundo en específico? ¿Terminará siendo un instrumento discriminador?
Lo cierto es que, hasta el momento, tenemos más preguntas que respuestas, pero quizás las preguntas no son nuevas, sino que pueden encontrarse en diversas novelas de ciencia ficción de los últimos 100 años.
Una visión pesimista es la que indica que la IA terminará llegando a la conclusión de que la única salida es eliminar a los humanos. Una visión optimista es la que manifiesta que la IA servirá para desarrollar nuestra sociedad y eliminar las brechas sociales y las diferencias. Probablemente, la respuesta es que la IA actual no será ninguna de las dos, pero sí queda claro que la visión protecnología se olvida de que dicha tecnología fue hecha por personas con sus propias dimensiones, realidades, prejuicios y miedos.