El robot todavía no piensa solo
Year in Review es la aplicación con la que Facebook buscó mostrar, a través de una animación con imágenes, los mejores momentos del 2014 de cada usuario. Aparentemente, el algoritmo (ese conjunto específico de operaciones creadas para hallar un resultado) considera las fotos publicadas que más interacciones (comentarios y Me Gusta) tuvieron.
Pero esta aplicación le brindó una mala experiencia a algunos usuarios. Ese fue el caso de Eric Meyer, cuya hija de 6 años falleció de cáncer en el 2014. La aplicación ‘decidió’ usar una foto de la niña como portada de la animación y la frase “Eric, así fue tu año”.
Sin duda, este es un tema muy complejo que da para la discusión y la reflexión en diversos campos. Sin embargo, hay algunas ideas que quiero compartir:
Facebook y su mundo feliz
Facebook tiene un carácter netamente positivo. Esa red social está diseñada para que los usuarios compartan solo aquello que les haga sentir felicidad. Esa es una de las razones por las que no existe el botón No Me Gusta. Eso lleva a que cuando el usuario quiere compartir pasajes malos o dolorosos de su vida, la red social entra “en trompo”.
Quizás tú has sido de quienes usaron esta red para contar que te asaltaron, para quejarte por un mal trato en algún establecimiento o para lamentarte por un hecho aún más grave. ¿Los Me Gusta que recibe tu publicación son en solidaridad a tu sentir o es que están de acuerdo con lo que te sucedió?
La urgencia por compartirlo todo
Ahora, hagamos un mea culpa: ¿es necesario compartir todo? Si me partí la pierna y eso me resultó traumático, ¿debo compartir la radiografía que muestra mi hueso destrozado? ¿Es necesario que lo que compartamos sea a todos nuestros seguidores? ¿Habrá algo de malo si seleccionamos qué compartir solo con algunas listas en particular?
La inteligencia artificial
Cada vez se avanza más en la personalización de contenidos, con páginas web y aplicaciones que aprenden de nuestros comportamientos, de lo que nos gusta y de nuestras interacciones. Una persona con la que conversaba comenta: “imagínate que en el aeropuerto puedan acceder a toda tu base de datos, que a partir de tus publicaciones en redes sociales puedan saber de tus preferencias personales, políticas y sexuales. Y que esa información la usen para determinar si eres una persona potencialmente segura o peligrosa para ingresar a determinado territorio”.
Y yo le respondí: “¿Y qué tal si, por ejemplo, esa persona usa sus redes de manera irónica o burlona? ¿Qué tal que posteos no sean realmente un reflejo de su sentir sino más bien expresiones de humor (del color que quieras) para generar desde risa hasta polémica? ¿En ese caso, seguirías confiando en el algoritmo para que tome la decisión?”
Regresando al caso de la aplicación de Facebook, no podemos echarle la culpa de la decisión que su algoritmo tomó. ¿La razón? Que todo lo hace a partir de información que hemos decidido compartir, por lo que el sistema puede “pensar” que son cosas que sí queremos mostrar. Además, nadie nos obliga a utilizar la aplicación Year in Review y, si lo hacemos, antes de que su resultado se haga público, nosotros tenemos que aceptar.
Particularmente, creo que en algún momento –tal como nos muestran las películas futuristas- las máquinas empezarán a tomar las decisiones. Pero por el momento, todavía falta el OK humano para que ellas solas tomen la decisión.