Tareas tan sencillas para el ojo humano como reconocer un nmero invertido, diferenciar un perro de un gato o identificar entre miles de imgenes slo las de nios de carne y hueso son desafos complejos para las mquinas pero se est avanzando mucho tecnolgicamente para superarlos.
A un ordenador hay que explicarle todos los datos del problema de reconocimiento de imgenes en un idioma de bits y algoritmos para que los comprenda y de forma algo torpe, explic a Efe Enrique Solano, director del grupo de Tecnologas Cunticas para las Ciencias de la Informacin de la Universidad del Pas Vasco en Bilbao (norte de Espaa).
Esa particularidad complica mucho a las mquinas el procedimiento de identificacin de contenidos, que se han disparado en el mundo digital, aadi este experto, cuyo equipo ha participado en un experimento pionero para digitalizar de forma universal la computacin cuntica analgica en un chip superconductor.
Un reto logrado en colaboracin con los laboratorios de Google de computacin cuntica, y que se ha publicado recientemente en la revista Nature.
Hasta el momento, explica este doctor en fsica, los sistemas de inteligencia artificial para reconocimiento de imgenes no ofrecen resultados absolutamente fiables aunque las tecnologas son cada vez ms sofisticadas.
En los ltimos cinco aos, con el desarrollo del llamado deep learning que permite a las mquinas aprender por s mismas de sus propios errores, se ha avanzado mucho en reconocimiento de datos incluso de los no estructurados y especialmente en las reas de imgenes, voz y vdeo, precis por su parte la experta Nuria Oliver, directora cientfica de Telefnica I+D.
Aunque ya existen mquinas que procesan millones de datos en segundos con resultados incluso ms exactos que los de los humanos, ordenadores que compiten y vencen en juegos contra las personas y sistemas informticos que componen msica o analizan imgenes para determinar diagnsticos mdicos complicados, todava les resulta muy complejo interpretar el contenido de imgenes y vdeos, insisten los expertos.
Segn Solano, hasta el momento, ninguna mquina puede distinguir imgenes con un margen de error cero de un gato o de un perro a partir del anlisis de sus caractersticas morfolgicas traducidas a nmeros.
Tampoco parece posible a da de hoy que un sistema informtico identifique, por ejemplo, qu imgenes de entre todas las existentes en la red son exclusivamente del pintor Pablo Picasso conversando con el expresidente estadounidense John F. Kennedy o en cules aparecen madres reales con nios de carne y hueso y no adolescentes.
Los resultados en la identificacin de este tipo de datos son precarios en fiabilidad. Entiendo que decisiones judiciales, comerciales o educativas seran muy polmicas hoy en da si se basaran nicamente en el reconocimiento de imgenes por una mquina automtica sin intervencin humana, segn el responsable del grupo de Tecnologas Cunticas para las Ciencias de la Informacin de la universidad vasca, pionero en digitalizacin cuntica de algoritmos.
La computacin cuntica podra resolver el problema, explica el experto. De hecho, Google ha invertido cien millones de dlares en el ordenador cuntico que se construye en la Universidad de Santa Brbara para resolver diversos problemas importantes, entre ellos el de reconocimiento de imgenes, que es uno de los retos computacionales actualmente ms complejos, asegur Solano.
Fuente: EFE