La Organización Mundial de la Salud (OMS) pidió este martes “cautela” en el uso de la inteligencia artificial en el ámbito sanitario y reclamó una mayor supervisión de los gobiernos en relación a este tipo de tecnologías.
En un comunicado, la organización se refirió en particular a las herramientas de modelos lingüísticos, como ChatGPT, cuya popularidad se ha disparado en los últimos meses y que son capaces de imitar los procesos de comunicación humana.
La organización alertó de que estas herramientas pueden ser entrenadas con datos falsos y ser utilizadas indebidamente para “generar y difundir desinformación muy convincente” en forma de texto, vídeo y audio.
MIRA: ChatGPT podría pagarte por utilizar tus contenidos, según el CEO de OpenAI
“Es imperativo que se examinen cuidadosamente los riesgos que tiene el uso de estas herramientas como método de apoyo para la toma de decisiones médicas”, insistió la OMS, que no obstante se mostró “entusiasmada” con los avances tecnológicos en este ámbito.
La OMS avisó de que una utilización “precipitada” de este tipo de tecnologías podría llevar a los profesionales sanitarios a cometer errores, causar daños a los pacientes y erosionar la confianza general en la inteligencia artificial.
Lo que más preocupa a las autoridades de la OMS es la falta de supervisión de estas tecnologías y los posibles sesgos en los que éstas podrían incurrir.
MIRA: Italia crea un fondo para capacitar a los trabajadores que serían sustituidos por la inteligencia artificial
Además, la OMS expresó su preocupación por los problemas de protección de datos sensibles de los pacientes que ellos mismos pueden proporcionar a estos modelos.
Para atajar estas situaciones, la OMS propone a las autoridades nacionales que estudien bien los beneficios de la inteligencia artificial con fines sanitarios antes de generalizar su uso.
En este sentido, el organismo ha identificado seis principios fundamentales que deben regir: la protección de la autonomía de los profesionales, la promoción del bienestar humano, las garantías de transparencia, el fomento de la responsabilidad, la inclusión y la promoción de una inteligencia artificial sostenible.
Contenido sugerido
Contenido GEC