Christiane C. no pensó en nada negativo cuando su hija de 10 años y una amiga subieron un video de ellas mismas en el que aparecen jugando en una piscina en el patio trasero.
“El video es inocente, no tiene gran importancia”, dijo Christiane, quien habita en un suburbio de Río de Janeiro.
►El neonazi pedófilo y homófobo que planeó el asesinato de una parlamentaria británica
►Sobreviví al abuso sexual de niño y ahora a los 47 años busco tener mi primera cita
►“Mi papá es un pederasta que violó a dos de mis primas. Cuando lo acusé, mi familia me excluyó”
Algunos días después, su hija le compartió una noticia emocionante: el video tenía miles de reproducciones. Dentro de poco, había alcanzado cuatrocientas mil vistas, un número asombroso para un video de una niña en un traje de baño de dos piezas con su amiga.
“Vi el video nuevamente y me asusté por el número de vistas”, dijo Christiane.
Tenía razones para estarlo.
El sistema automatizado de recomendaciones de YouTube (que impulsa la mayoría de los miles de millones de vistas de la plataforma al sugerir lo que los usuarios deberían ver a continuación) había comenzado a mostrar el video a usuarios que vieron otros videos de infantes prepúberes, parcialmente vestidos, como descubrió un equipo de investigadores.
YouTube había curado los videos de todos sus archivos, a veces incluyendo videos caseros de familias sin su conocimiento, dicen los investigadores. En muchos casos, su algoritmo refería a los usuarios a los videos después de haber visto contenido con temáticas sexuales.
El resultado era un catálogo de videos que los expertos consideran que sexualizan a los niños.
“Es el algoritmo de YouTube lo que conecta estos canales”, dijo Jonas Kaiser, uno de tres investigadores en el Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard que se topó con los videos mientras examinaba el impacto de YouTube en Brasil. “Eso es lo atemorizante”.
El video de la hija de Christiane fue promovido por los sistemas de YouTube meses después de que la compañía fue alertada de que tenía un problema con los pedófilos. En febrero, Wired y otros medios informativos reportaron que depredadores sexuales usaban la sección de comentarios de los videos de YouTube donde aparecen niños para guiar a otros pedófilos.
Ese mes, al calificar el problema de “profundamente preocupante”, YouTube deshabilitó los comentarios en muchos videos donde aparecían niños.
No obstante, el sistema de recomendaciones, que se mantiene en funcionamiento, ha reunido decenas de dichos videos en un nuevo depósito, de fácil acceso, y los ha puesto a disposición de una vasta audiencia.
YouTube nunca se fijó la meta de dar servicio a usuarios con intereses sexuales en niños, pero al final, dijo Kaiser, su sistema automatizado logró que continuaran viendo a través de recomendaciones que él calificó de “inquietantemente precisas”.
Los usuarios no necesitan buscar videos de niños para terminar viéndolos. La plataforma puede dirigirlos a ellos a través de una progresión de recomendaciones.
De tal manera que un usuario que mira videos eróticos puede recibir recomendaciones de videos de mujeres que se vuelven sospechosamente más jóvenes y después de mujeres que posan de maneras provocativas usando ropa de niños. Al final, a algunos usuarios les podrían ser presentados videos de niñas tan jóvenes que sus edades oscilen entre los 5 y los 6 años y vistan trajes de baño, o se estén vistiendo o abriéndose de piernas.
Por su cuenta, cada video podría ser perfectamente inocente, un video casero, digamos, grabado por un niño. Cualquier cuadro es efímero y aparece de manera accidental. Sin embargo, agrupados, sus características compartidas se vuelven inconfundibles.
“Realmente me da miedo”, dijo Christiane. “Tengo miedo por el hecho de que un video como este cayó en una categoría como esa”. The New York Times no publica el apellido de la familia para proteger su privacidad.
Cuando el Times alertó a YouTube de que su sistema hacía circular videos familiares entre personas al parecer motivadas por un interés sexual en niños, la compañía retiró varios de ellos, pero dejó muchos otros, incluidos algunos aparentemente subidos por cuentas falsas.
El sistema de recomendaciones en sí mismo también cambió de inmediato, al dejar de vincular juntos algunos de los videos reveladores. YouTube dijo que esto probablemente era resultado de ajustes rutinarios a sus algoritmos, y no de un cambio deliberado de política.
Jennifer O’Connor, directora de Producto para Confianza y Seguridad, dijo que la compañía estaba comprometida con erradicar la explotación de niños en su plataforma y había trabajado sin descanso desde febrero en mejorar su ejecución. “Proteger a los niños está en el primer lugar de nuestra lista”, dijo.
No obstante, YouTube no ha puesto en marcha el único cambio que los investigadores afirman evitaría que esto ocurriera de nuevo: desactivar su sistema de recomendaciones en videos de niños, aunque la plataforma puede identificar tales videos de forma automática. La compañía dijo que debido a que las recomendaciones son el mayor impulsor de tráfico, retirarlas afectaría a “creadores” que dependen de esos clics. Aunque dijo que limitaría las recomendaciones en videos que considere que pone a niños en peligro.
Por la madriguera del conejo
YouTube ha descrito su sistema de recomendaciones como inteligencia artificial que está aprendiendo constantemente qué sugerencias mantendrán a los usuarios viendo videos. Estas recomendaciones, afirma, impulsan el 70 por ciento de las reproducciones, pero la compañía no revela detalles sobre cómo el sistema realiza sus elecciones.
Algunos estudios han descubierto lo que investigadores llaman un Efecto Madriguera: la plataforma, afirman, lleva a los espectadores a videos o temas cada vez más extremos, que están pensados para engancharlos.
Por ejemplo, si ves algunos videos sobre maquillaje, podría ser que te recomiende un video viral sobre una transformación de imagen; mira videos sobre ciclismo y YouTube podría sugerirte choques impactantes en carreras de bicicletas.
Kaiser y sus colegas investigadores, Yasodara Córdova y Adrian Rauchfleisch, se propusieron examinar el efecto en Brasil. Un servidor abrió videos, después siguió las principales recomendaciones de YouTube sobre qué ver a continuación. Realizar este experimento miles de veces les permitió trazar algo parecido a un mapa del metro sobre cómo la plataforma dirige a sus usuarios.
También siguieron las recomendaciones de YouTube para otros canales, las páginas que albergan la obra de los creadores de videos. Aunque YouTube afirma que los canales rara vez reciben clics, ofrecieron una manera de controlar cualquier ruido estadístico generado por cómo la plataforma sugiere videos.
Cuando siguieron recomendaciones en videos con temática sexual, notaron algo que afirman que los perturbó: en muchos casos, los videos se volvieron más extraños o extremos, y dieron más énfasis a la juventud. Por ejemplo, videos de mujeres hablando sobre sexo a veces conducían a videos de mujeres en ropa interior o amamantando, a veces mencionaban su edad: 19 años, 18, incluso 16 años.
Algunas mujeres solicitaban donaciones de parte de hombres mayores con dinero con gusto por las jovencitas o aludían a videos privados en los que posaban desnudas. Después de algunos clics, algunos jugaban más abiertamente con la prepubertad, al posar en ropa de niños.
A partir de ahí, YouTube repentinamente comenzaría a recomendar videos de niños más pequeños y parcialmente vestidos, después un caudal casi interminable de esos videos provenientes principalmente de Latinoamérica y Europa del Este.
Córdova, quien también ha estudiado la distribución de la pornografía en línea, dice que ella reconoce lo que estaba pasando.
Cualquier video individual podría tener la intención de no ser sexual, tal vez fue subido por padres que quieren compartir videos caseros entre familiares. Sin embargo, el algoritmo de YouTube, en parte al aprender de usuarios que buscan imágenes reveladoras o sugestivas de niños, trataba a los videos como un destino para personas con un tipo de recorrido diferente.
Las cantidades extraordinarias de vistas —a veces hasta de millones— indicaban que el sistema había descubierto una audiencia para los videos y mantenía a la audiencia enganchada.
Algunos investigadores creen que cuando se trata de cierto material, engancharse con ciertos intereses pone en riesgo potenciarlos todos.
“Es increíblemente poderoso y la gente se siente atraída hacia él”, dijo Stephen Blumenthal, un psicólogo radicado en Londres que atiende a las personas por intereses y comportamientos sexuales con desviaciones.
Además, YouTube, al mostrar videos de niños junto a contenido sexual más convencional, así como al desplegar la gran cantidad de vistas de los videos, ponía en riesgo erosionar el tabú contra la pedofilia, dijeron psicólogos.
“La normalizas”, dijo Marcus Rogers, un psicólogo en la Universidad de Purdue que ha realizado investigación sobre pornografía infantil.
YouTube dice que no existe el Efecto Madriguera.
“No queda claro para nosotros que necesariamente nuestro motor de recomendaciones te lleve en una dirección o la otra”, dijo O’Connor, la directora de producto. Aun así, dijo ella, “cuando se trata de los niños, queremos tomar una postura mucho más conservadora sobre qué recomendamos”.
Niños en riesgo
La mayoría de las personas que ven imágenes sexualizadas no van más allá, afirman los investigadores. Sin embargo, algunos de los videos en YouTube incluyen vínculos a las cuentas en redes sociales de los menores.
“Muchas de las personas que están activamente involucradas en conversar con niños tienen mucha mucha experiencia en convencerlos de publicar imágenes más sexualizadas o involucrarse en actividad sexual y grabarla”, dijo Rogers.
YouTube no permite que niños menores de 13 años tengan canales. La compañía dice que hace cumplir la política estrictamente.
Para los padres, no hay soluciones fáciles, dijo Jenny Coleman, la directora de Stop It Now, una organización que combate la explotación sexual de los niños.
“Incluso la más cuidadosa de las familias puede ser arrastrada hacia algo que es dañino o criminal”, dijo.
Al reportar para este artículo, cuando el Times no pudo encontrar información de contacto de los padres de los niños en los videos, contactó a organizaciones locales que pudieran ayudarlos.
Después de que una de esas organizaciones contactó a Christiane, la madre de Brasil, ella se ofreció a hablar sobre su experiencia.
Furiosa, Christiane batalla para asimilar lo ocurrido. Estaba preocupada sobre qué decirle a su marido. Expresó confusión sobre las prácticas de YouTube y se angustió sobre cómo mantener segura a su hija, ahora exhibida ante una audiencia del tamaño de una ciudad.
“Lo único que puedo hacer es prohibirle que publique cualquier cosa en YouTube”, dijo ella.
© “The New York Times”