Algoritmo de YouTube atrae a pedófilos
Tras clip de menores jugando, descubren que algoritmo de YouTube mostró catálogo de videos en el que, expertos afirman, sexualizan a niños.
Christiane C. no vio problema alguno cuando su hija de 10 años y una amiga subieron un video de ellas mismas jugando en una alberca en el patio trasero.
“El video es inocente”, dijo Christiane, quien vive en un suburbio de Río de Janeiro. The New York Times no está divulgando el apellido de la familia para proteger su privacidad.
Varios días después, su hija le compartió una noticia emocionante: el video tenía miles de reproducciones. Poco después tenía 400 mil.
“Vi el video de nuevo y me asusté por el número de vistas”, dijo Christiane.
El sistema automatizado de recomendaciones de YouTube —que impulsa la mayoría de los miles de millones de vistas de la plataforma al sugerir lo que los usuarios deben ver a continuación— había comenzado a mostrar el video a usuarios que vieron otros videos de infantes prepúberes y parcialmente vestidos, halló un equipo de investigadores.
YouTube había seleccionado los videos de sus archivos, dijeron los investigadores. El resultado era un catálogo de videos que los expertos afirmaron que sexualizan a los niños.
“Es el algoritmo de YouTube lo que conecta estos canales”, dijo Jonas Kaiser, uno de tres investigadores en la Universidad de Harvard que se tropezó con los videos mientras examinaba el impacto de YouTube en Brasil. “Eso es lo atemorizante”.
El video de la hija de Christiane fue promovido por los sistemas de YouTube meses después de que la compañía fue alertada de que tenía un problema con los pedófilos.
YouTube nunca buscó dar servicio a usuarios con intereses sexuales en niños. Sin embargo, dijo Kaiser, su sistema automatizado logró que continuaran viendo gracias a recomendaciones que él calificó de “inquietantemente precisas”.
Cuando The Times alertó a YouTube de que su sistema estaba circulando videos familiares entre personas al parecer motivadas por un interés sexual en niños, la compañía retiró varios de ellos, pero dejó muchos otros. Pero YouTube no ha implementado el único cambio que los investigadores afirman evitaría que esto ocurriera de nuevo: desactivar su sistema de recomendaciones en videos de niños. La compañía dijo que retirarlas afectaría a “creadores” que dependen de esos clics. Las recomendaciones, afirma, impulsan el 70 por ciento de las reproducciones.
Algunos estudios han descubierto lo que los investigadores llaman un Efecto Madriguera: la plataforma, afirman, lleva a los espectadores a videos o temas cada vez más extremos, que están pensados para engancharlos.
Kaiser y sus colegas investigadores quisieron examinar el efecto en Brasil. Cuando siguieron recomendaciones en videos con temática sexual, notaron que en muchos casos, los videos se volvían más extremos, y daban más énfasis a la juventud. Por ejemplo, videos de mujeres hablando sobre sexo a veces conducían a videos de mujeres amamantando, a veces mencionando su edad: 19 años, 18, incluso 16 años. Tras unos clics, algunos jugaban más abiertamente con la prepubertad, al posar en ropa de niños.
A partir de ahí, YouTube comenzaba a recomendar videos de niños parcialmente vestidos y luego un caudal casi interminable de ellos provenientes principalmente de Latinoamérica y Europa del Este.
El mostrar videos de niños junto a contenido sexual más convencional, así como el desplegar la gran cantidad de vistas de los videos, ponía en riesgo erosionar el tabú contra la pedofilia, dijeron psicólogos.