Los algoritmos ya se encargan de identificar los hechos noticiables, analizar y organizar datos que se utilizan como fuente de información para el periodista de datos o de investigación, facilitar procesos como transcripciones de textos y traducciones simultáneas, generar contenidos escritos e infografías, escoger títulos, definir enfoques de historias, personalizar y recomendar contenidos a los usuarios, entre otros.
La inteligencia artificial (IA) facilita ahora la producción de contenidos periodísticos, pero esta no debe ser el fin de nuestra tarea, sino un apoyo, una herramienta, para mejorar la calidad de la información y optimizar el trabajo indagatorio, verificación de datos, etc. En suma, debe formar parte de una cadena de valor que genere nuevos modelos de negocios en las empresas de comunicación.
Las rutinas cambian. De la multitarea a la polivalencia se pasa a un flujo de trabajo automatizado que requiere de otras habilidades. Por ejemplo, la IA va a consolidar el trabajo transversal de la producción de noticias en texto, audio y video, y trasladar con facilidad el contenido de un formato a otro; reducir aún más los tiempos para procesar información y ahorrar costos.
La IA tiene ya un papel fundamental en decisiones editoriales de los medios. Por eso nos preguntamos qué problemas crean o crearán los sistemas automatizados, de qué debemos preocuparnos frente a estos nuevos retos. La respuesta está en las decisiones que tomamos, por eso las cuestiones éticas que se plantean se centran en cómo vigilamos a las personas que gestionan los algoritmos en el proceso de producción de noticias. Son estas personas, los periodistas, las que definen los parámetros de operación y los tipos de respuestas que se esperan de los usuarios.
El contenido falso, o los llamados ‘deepfakes’ –imágenes que suplantan la identidad de las personas y que inducen al engaño–, es más sofisticado y difícil de detectar y lo más peligroso es que se mezcla con información verdadera. También vemos el caso de los ‘bots’, sistemas de conversación que en el periodismo se aplican para dar detalles de los hechos noticiosos.
No debemos olvidar que la veracidad se fundamenta en la ética porque se refiere a esa actitud del periodista por alcanzar la verdad que no será absoluta, porque él no está en capacidad de conocer todo el mundo que lo rodea, pero sí le exige realizar todo el esfuerzo para llegar a ella. Se evidencia en el actuar del periodista como mediador de la información. Y, en ese proceso, se toman decisiones y estas deben estar normadas por la prudencia que –como virtud de la razón que conduce al bien– nos lleva a deliberar de la manera más correcta posible.
Esta disposición ética no va a cambiar, se mantiene sólida frente a la evolución de tecnología. Permaneció en el tránsito del papel a la televisión y la radio, luego al contenido digital y ahora a la IA.
Queda, por consiguiente, la autorregulación a fin de establecer criterios para que los algoritmos respeten los valores de la buena práctica y, lo más importante, que el periodista sea consciente de los riesgos que afronta al utilizar esta nueva tecnología. Una acción inmediata es que los medios de comunicación adviertan al público de manera explícita que el contenido que está leyendo, viendo o escuchando es falso o simulado, y que ha sido creado por IA. No olvidemos que los lectores, las audiencias, son sujetos de derecho a recibir una información verdadera.
En esta nueva rutina, la figura del ‘gatekeeper’ o el filtrador de la información se convierte en una pieza fundamental en el proceso de construcción del contenido. Este será una guía que clarifique las dudas y además garantice una supervisión constante.