La inteligencia artificial (IA) está cobrando cada vez mayor relevancia en la sociedad, recientemente con el ‘chatbot’ del nuevo Bing de Microsoft, que dejó “profundamente perturbado” a un columnista de “The New York Times” tras declararle su amor; o la sorprendente tecnología del DALL-E, en la que usuarios pueden crear en instantes imágenes basadas en cualquier descripción que se imaginen. Aunque estas innovaciones generan mucha curiosidad y expectativa, encuentro también aspectos preocupantes y desoladores al respecto. En un país como el nuestro, donde apenas gastamos un 0,17% del PBI (2020) en investigación y desarrollo, ¿cuál va a ser el impacto de estos sistemas en un futuro cercano para el mercado laboral?
No es novedad que las máquinas hayan reemplazado a los humanos en algunas profesiones, sobre todo en aquellas que requerían tareas repetitivas, mejorando así la producción y reduciendo los costos financieros. Teniendo en cuenta el creciente uso de la IA en las áreas de trabajo, es fundamental instaurar, como sociedad, cuáles van a ser las reglas de juego en nuestra interacción con esta tecnología. Al tratarse sobre cambios significativos en nuestra convivencia, se requiere convocar no solo a los creadores de estas tecnologías, sino también a la sociedad civil, sindicatos, políticos, el sector privado y a la academia. Como punto de partida podríamos considerar las siguientes reflexiones, motivadas por algunos de los ‘principios’ de la OCDE con relación a la IA:
Consensuar un pacto social sobre el impacto de la IA en los empleos. Un ideal sería que la IA potencie las capacidades humanas, que sea fuerte donde nosotros no lo somos. Pero las tendencias indican que la IA podría significativamente modificar nuestra organización laboral. ¿Qué pasará entonces con aquellas personas que perderán sus formas de ganarse la vida a causa de estos avances tecnológicos?
Establecer líneas de responsabilidad claras en el uso de la IA. Si esta tecnología genera algún fallo, ¿quién asume la falta? La OCDE, en su principio 1.5 de ‘responsabilidad’, señala que las “organizaciones e individuos que desarrollan, implementan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios basados en valores de la OCDE para la IA”. Sin embargo, hasta el momento, ciertas instituciones y empresas en nuestro país se excusan de esta responsabilidad, lamentando que hubo “un error en el sistema”. Pero, mientras más avanza la tecnología, ¿quién se hará responsable si un vehículo autónomo atropella a un transeúnte?
Hay que preparar a la sociedad para esta transición que ya se encuentra en curso. Esto requiere repensar y modificar algunos trabajos y carreras académicas para así ampliar los conocimientos y facilitar la interacción de los usuarios con los nuevos sistemas. Rescatando lo señalado por la OCDE en otro de sus principios (2.4), es probable que el foco deba estar en el desarrollo de aquellas habilidades que considerábamos plenamente ‘humanas’, como el “juicio, criterio, el pensamiento creativo y la comunicación interpersonal”.
Desde un punto de vista político, la responsabilidad del Estado recae en preparar a la sociedad para estos cambios, promoviendo y controlando el uso responsable de la IA y buscando distribuir los beneficios de esta creciente tecnología de manera democrática, amplia y justa. Aún nos encontramos en la fase experimental de la IA, pero el progreso de esta tecnología continuará mejorando en su propósito de crear máquinas con capacidades cada vez más humanas, poniendo en riesgo varias funciones de trabajo actuales. No debemos dejar que el tiempo deje a la humanidad fuera de juego.