A inicio de mayo la popular página de imágenes Flickr puso en marcha un nuevo algoritmo de reconocimiento que automatizaría el proceso de etiquetado, haciendo más sencillo el subir y encontrar las fotografías. No obstante, esta herramienta ha generado polémica, al ser considerada por los usuarios como racista y antisemita.Seguir a @tecnoycienciaEC !function(d,s,id){var js,fjs=d.getElementsByTagName(s)[0],p=/^http:/.test(d.location)?'http':'https';if(!d.getElementById(id)){js=d.createElement(s);js.id=id;js.src=p+'://platform.twitter.com/widgets.js';fjs.parentNode.insertBefore(js,fjs);}}(document, 'script', 'twitter-wjs');
Según se reporta The Guardian, el nuevo algoritmo calificó la imagen de un hombre negro llamado William como “animal” y “mono”. Lo mismo ocurrió con la foto de una mujer blanca con la cara pintada, la cual fue etiquetada de la misma manera.
Pero la situación no acabó ahí. Una foto del campo de concentración nazi de Dachau (Alemania) fue etiquetada como “deporte” y “juego de pasamanos”.
Flickr ya ha corregido los errores y ha retirado las etiquetas ofensivas de los casos ya mencionados, además, informaron que están al tanto de sus equivocaciones y que ya se encuentran trabajando para que esta situación no se vuelva a repetir.
“Si bien estamos muy orgullosos de esta avanzada tecnología de reconocimiento de imágenes, somos los primeros en admitir que habrá errores y estamos trabajando constantemente para mejorar la experiencia. Si se elimina una etiqueta incorrecta, nuestro algoritmo aprende de ese error y se obtienen mejores resultados en el futuro. El proceso de etiquetado es completamente automático, ningún ser humano ve las fotos para etiquetarlas”, señala un vocero de Flickr, citado por The Guardian.
Fuente: The Guardian