El algoritmo de YouTube que facilita videos de niños a posibles pedófilos
El algoritmo de YouTube que facilita videos de niños a posibles pedófilos

Un equipo de investigadores de la Universidad de Harvard descubrió que el algoritmo de  mostró que un inocente vídeo en el que aparecían dos niñas de 10 años bañándose en una piscina en el patio trasero de su casa, a usuarios que habían visto con anterioridad vídeos de temática sexual u otros de niños prepúberes y parcialmente vestidos, de acuerdo al reporte del diario The New York Times .

Una de las niñas que aparece en el clip lo había subido a la plataforma, y su madre Christiane pensó que las imágenes eran inocentes y que no habría ningún problema. En poco tiempo el video tuvo más de 400.000 visitas, lo que sorprendió a su madre y a los científicos del Centro Berkman Klein para internet y la sociedad de Harvard, que encontró la grabación mientras investigaba el impacto de YouTube en Brasil.

Los investigadores descubrieron que el algoritmo de YouTube era el responsable de seleccionar imágenes (a veces entre los vídeos caseros de familias) que terminaron en un único repositorio que fue sugerido a una gran audiencia de personas que anteriormente habían visto vídeos de contenido sexual. Una biblioteca de videos que sexualiza a los niños.

De tal manera que un usuario que mira videos eróticos puede recibir recomendaciones de videos de mujeres que se vuelven inimaginadamente más jóvenes y después de mujeres que posan de maneras provocativas usando ropa de niños. Al final, a algunos usuarios les podrían ser presentados videos de niñas tan jóvenes que sus edades oscilen entre los 5 y los 6 años y vistan trajes de baño, o se estén vistiendo o haciendo movimientos considerados sexuales.

Un ejemplo son los clips de mujeres hablando sobre sexo a veces conducían a videos de mujeres en ropa interior o amamantando, a veces mencionaban su edad: 19 años, 18, incluso 16 años.

A partir de ahí, YouTube repentinamente comenzaría a recomendar videos de niños más pequeños y parcialmente vestidos, después un caudal casi interminable de esos videos provenientes principalmente de Latinoamérica y Europa del Este.

Aunque cualquier clip individual podría tener la intención de no ser sexual, tal vez fue subido por padres que quieren compartir videos caseros entre familiares, el algoritmo de YouTube, en parte al aprender de usuarios que buscan imágenes reveladoras o sugestivas de niños, trataba a los videos como un destino para personas con un tipo de recorrido diferente.

Estas sugerencias generan el 70% de las visitas, pero la empresa no ha revelado detalles de cómo el sistema toma sus decisiones.

TAGS RELACIONADOS