Mariposas clasificadas como lavadoras, caimanes vistos como picaflores y libélulas que se convierten en plátanos.
Estos son solo algunos de los ejemplos de los errores en los que caen los sistemas de inteligencia artificial a la hora de asignar etiquetas a imágenes que a nosotros nos pueden parecer muy simples y fácilmente reconocibles.
[Informática| Crean el primer procesador de lenguaje ternario que utiliza 0,1, y 2]
[¿Tu PC está lenta? Aprende a liberar espacio sin necesidad instalar programa alguno]
Los investigadores crearon una base de datos con 7.500 fotos que las computadoras más potentes no consiguen identificar correctamente.
Un experto dijo que, si se quería utilizar estos sistemas en el mundo real, era crucial resolver este problema.
"Nadie sabe por qué no reconocen estas imágenes que no se ven tan difíciles", dijo Calum Chace, un experto en el campo.
"Y si bien nadie sabe cuál es la solución, mi intuición es que no va a retrasar la investigación de la inteligencia artificial por mucho tiempo porque hay una enorme cantidad de dinero y talento que se puede destinar a este problema para resolverlo".
Los investigadores de la Universidad de California en Berkeley y las Universidades de Washington y Chicago, todas ellas en Estados Unidos, aseguraron que las imágenes que compilaron, en un conjunto de datos llamado ImageNet-A, tienen el potencial de afectar seriamente el rendimiento general de los clasificadores de imágenes.
Y esto podría tener un efecto en cadena sobre cómo tales sistemas operan en aplicaciones como el reconocimiento facial o los autos sin conductor.
"El problema debe resolverse antes de que sistemas como el de los autos sin conductor se conviertan en estándar", dijo Chace.
Todas las imágenes fueron recolectadas de internet y ninguna había sido alterada digitalmente.
Los investigadores esperan que la base de datos ayude a los expertos a mejorar la precisión de cómo los sistemas de inteligencia artificial clasifican las imágenes. Y es que, puede que las fotos con las que se ha puesto a prueba a la inteligencia artificial hasta ahora hayan sido demasiado simples, creen los expertos.
A menudo, la inteligencia artificial identifica erróneamente los objetos porque generaliza demasiado. Así, por ejemplo, una sombra en la imagen de un reloj de sol puede llevar a los algoritmos a etiquetar las sombras en general como relojes de sol. O a hacerles pensar que todos los autos son limusinas.
La ImageNet original se usó para entrenar redes neuronales (sistemas que pueden enseñarse a sí mismos) y fue parte de un renacimiento de la inteligencia artificial, a medida que la potencia de la computadora y las enormes bases de datos se fueron combinando para crear sistemas mucho más capaces.
Síguenos en Twitter...