MADRID. Cómo extraer valor médico más allá del caos que generan los millones de datos sobre enfermedades y fármacos en internet, no siempre fiables o incluso peligrosos, es el objetivo de un proyecto europeo de Big Data sobre salud, del que habla su coordinador, Allan Hanbury, en una entrevista a Efefuturo.
Este físico de la Universidad Tecnológica de Viena dirige una iniciativa de la UE sobre procesamiento automatizado de datos médicos en el marco del proyecto Kconnect, que involucra a una treintena de investigadores, y que está dirigido a la creación de servicios "web" que garanticen el acceso a información médica fiable y de calidad en la red.
Acreditar de forma automatizada "webs" con información médica fiable, favorecer el acceso de doctores a datos actualizados y fidedignos sobre avances sanitarios en distintos idiomas, procesar automáticamente el historial de pacientes de un hospital o agilizar la predicción de posibles efectos secundarios de nuevos medicamentos a partir de datos anonimizados son algunos objetivos del proyecto.
Hanbury, director de varios proyectos de envergadura sobre analítica "inteligente" de datos en salud, participó en Madrid en unas recientes jornadas de Big Data, organizadas por la Escuela Técnica Superior de Ingenieros de Telecomunicación (Etsit) de la Universidad Politécnica de Madrid (UPM).
Hanbury explicó a Efefuturo que su grupo trabaja con varias fuentes informativas para su proyecto de Big Data en salud. En concreto, con datos de páginas de internet con información médica de calidad, publicaciones científicas y asimismo informes médicos de hospitales (donde se describen síntomas, previsibles patologías, tratamientos, etc).
La relación médico-paciente ha cambiado drásticamente con la irrupción de internet, según el experto. De hecho, dos tercios de la población se informa sobre sus dolencias en la red antes de acudir al doctor, según un reciente estudio en EE.UU., recordó.
Por el contrario, hasta el 50% de los contenidos en internet sobre salud podrían estar bajo sospecha de ser inciertos o falsos, lo que agrava las alertas sobre la fiabilidad médica de los mismos, advertió.
Como parte del proyecto iniciado en 2010, con el compromiso de estar operativo en un año y medio, el equipo de Hanbury está desarrollando complejos algoritmos basados en el "aprendizaje automático".
Las soluciones en desarrollo permiten extraer datos médicos relevantes de páginas "web", y acreditar de forma automatizada si cumplen una serie de criterios para que puedan ser certificadas como plataformas de información fiable y de calidad.
Agilizar y mejorar las predicciones de posibles efectos secundarios de nuevos medicamentos son también objetivos del proyecto. Se busca así complementar los resultados de los obligados ensayos clínicos, que no siempre delatan todos los posibles riesgos de un nuevo fármaco, por las limitaciones en la duración de las pruebas, y el número de pacientes involucrados.
De hecho, se refirió a un caso muy polémico de un tratamiento que disparaba la posibilidad de ataques al corazón. El problema no se descubrió durante la fase de ensayos clínicos y causó 26.000 muertes en cinco años antes de ser retirado del mercado.
El procesado de millones de datos en tiempo real ayuda a determinar patrones, modelos, tendencias y hacer predicciones de todo tipo, ha subrayado el experto.
Varias entidades colaboran con esta iniciativa europea: la ONG suiza "Health on the Net"; un hospital psiquiátrico en Londres asociado al King's College, el Departamento de Salud de Suecia y una pequeña empresa en el Reino Unido.
Según Hanbury, uno de los mayores desafíos del proyecto está en el procesado automático de informes en manos de médicos: no suelen ser fácilmente legibles dadas las prisas con las que habitualmente escriben los facultativos, quienes además utilizan muchas abreviaturas, que complican el análisis automático de los datos.
Otro reto es el idioma, teniendo en cuenta el alto número de lenguas con las que se trabaja en el proyecto, que son siete, incluido el español.
Fuente: EFE