
Es innegable el entusiasmo que provoca la inteligencia artificial (IA) y sus resultados. Podríamos enlistar las diferentes formas en que usted está incorporándola en su vida cotidiana y entrenándola para diseñar una exposición del trabajo, resolver tareas de la maestría, analizar documentos legales, evaluar hojas de vida, etc. El asombro no es menor: la IA nos ahorra tiempo. Pero en medio de esta admiración hay una perspectiva a la que no deberíamos renunciar: el trabajo humano y nuestro pensamiento crítico.
¿A qué me refiero? Una dependencia tecnológica –y entusiasta– puede conducirnos a traspasar límites éticos u olvidar que, en este punto, es necesario establecerlos. Por ejemplo, respecto de los derechos de autor. Reconozcamos que no estamos ante un debate nuevo. La IA está en el mundo académico desde 1950. Pero sí es un escenario desafiante. Periodistas, publicistas, arquitectos, literatos, músicos, cineastas, docentes, abogados, economistas creamos de diferentes maneras. Diría que no hay espacio que deje de estar involucrado. ¿Cuál es la trazabilidad que su sector está definiendo para seguir innovando con IA, garantizando los ‘copyright’ y potenciando el ejercicio crítico humano en lugar de reemplazarlo?
A fines del 2023, el “Times” acusó a OpenAI de utilizar, sin su permiso, miles de sus artículos para entrenar los modelos de lenguaje de ChatGPT. El caso sigue en curso en los tribunales y su resultado permitirá establecer límites éticos respecto del uso de contenidos periodísticos. El caso también nos proporciona otro análisis. El que tiene que ver con el impacto que puede tener la IA en la sostenibilidad de diferentes formas y espacios de creación. El debate sobre cómo seguimos garantizando los derechos de autor debería motivarnos a tener una aproximación crítica hacia las herramientas de IA, preguntarnos qué fuentes han sido utilizadas para el entrenamiento y con cuánto de eso nos estamos quedando o apropiando. El hecho de que una herramienta de IA generativa sea capaz de analizar rápidamente no significa que todo esté hecho. Involucrar nuestro razonamiento crítico en estas tareas es crucial e irremplazable.
Por último, la IA generativa necesita ser alimentada con información para ofrecer resultados. Y la responsabilidad de estos entrenamientos recae en los seres humanos. Por tanto, la perspectiva centrada en las personas no debe estar apartada del proceso de integración de herramientas de IA. Así como el pedido de rendición de cuentas. Para situarnos: hace poco nos vimos inundados de imágenes que copiaban el estilo del Studio Ghibli, de Hayao Miyazaki y otros colaboradores. Esto acarreó un dilema que iba más allá de la tendencia, y tenía que ver con qué decisiones estamos tomando al momento de vincularnos con las herramientas de IA. Víctor Krebs, filósofo y docente de la PUCP, lo explicaba así: “La IA tiene capacidad de entendimiento, pero no puede distinguir por sí sola qué es importante y qué no, ni discernir éticamente sobre asuntos sensibles”.
La aparente perfección de los sistemas de IA debe ser confrontada en la medida que su progreso nos conduce a nuevos desafíos públicos.