Eliminan más de 17,000 canales de YouTube por nuevas políticas

0
327

Hace unos meses, en Junio, YouTube modificó sus políticas para negar, al menos en teoría, el contenido en la plataforma que incitara al odio hacia colectivos racailizados o discriminados, en el caso del colectivo LGBTQ+. Con la implementación de estas políticas, YouTube asegura haber eliminado más de 17,000 canales de YouTube.

En una publicación en el blog de YouTube, dice que: “la apertura de la plataforma de YouTube ha ayudado a que la creatividad y el acceso a la información prosperen. Es nuestra responsabilidad proteger eso y evitar que nuestra plataforma se use para incitar al odio, el hostigamiento, la discriminación y la violencia”.

Esta nueva moderación se llevará a cabo de 3 formas diferenciadas. En primera instancia, se eliminarán todos los canales y vídeos de ideología supremacista, nazi o que en definitiva aboguen por la segregación o la exclusión por edad, género, raza, religión, orientación sexual, etcétera. También se evitará que se puedan subir vídeos negando hechos y “eventos violentos bien documentados” como tiroteos en escuelas (como el de la escuela primaria Sandy Hook y el 11-S). Una de las tácticas más clásicas de la extrema derecha es negar este tipo de sucesos y relacionarlos con conspiraciones o en su defecto usarlos para fomentar el racismo y culpar a colectivos extranjeros.

La segunda forma consistirá en que, según YouTube, se evitará la propagación la propagación de lo que denomina “contenido límite e información errónea dañina”. Vídeos que hablen de violar las normas de la comunidad o que intenten saltarse estas prohibiciones para promover la promoción de otros vídeos similares para que salgan en recomendaciones entran en dicha categoría. Ya de por sí, esta medida que se implementó parcialmente, había reducido en un 50 por ciento las visitas de vídeos de curas falsas milagrosas o en su defecto de homeopatía (según, de nuevo, YouTube).

Por último, si un canal que está monetizado está saltándose las políticas de “odio de habla” (insultos, expresiones racistas, discriminatorias), quedarán desmonetizados y no podrán acceder a anuncios. Además, no podrán utilizar herramientas como Super Chat, una manera de que los suscriptores paguen a los canales por funciones de chat adicionales. Esto último viene dado por los últimos reportes que desvelaban que este sistema se usó para financiar a los creadores de videos con racismo y discurso de odio.

Según explica YouTube en su blog que desde que se implementaran estas políticas prohibiendo el contenido especializado en odio, se han eliminado esta cantidad tanto de canales como de comentarios. En la imagen que descansa sobre estas líneas vemos una timeline de los actos de YouTube en contra de estas prácticas. También han sido eliminados más de 100.000 vídeos.

Estos números son, como adelanta The Verge, 5 veces superior a los que se manejaron en el último trimestre de la compañía. La misma plataforma admite que están intentando abordar con estas medidas un número cada vez mayor de canales, comentarios y en general contenido de odio que se está generando en YouTube.

De hecho, tal y como explica la misma YouTube, canales y comentarios antiguos han desaparecido con la implementación de estas normativas. Esto podría explicar en teoría los altos números que ha dado YouTube.

Es el famoso algoritmo de YouTube el responsable de capturar vídeos con contenido de odio antes de que estén ampliamente visibles. En el post YouTube asegura que “el 80 por ciento de esos videos marcados automáticamente se eliminaron antes de recibir una sola vista en el segundo trimestre de 2019”.

“Hemos eliminado contenido dañino desde que se inició YouTube, pero nuestra inversión en este trabajo se ha acelerado en los últimos años. En los últimos 18 meses hemos reducido las vistas en videos que luego se eliminan por violar nuestras políticas en un 80 por ciento, y estamos trabajando continuamente para reducir aún más este número”.

https://twitter.com/KosChertified/status/1136665683998019585

No obstante, estos números no tienen un contexto de alcance adecuado. Más de 500 horas de vídeo se suben a la plataforma cada minuto y, según Social Blade, había 23 millones de canales de YouTube en la plataforma en el año 2018. Por lo tanto, estos números en bruto no ofrecen una idea clara de la cantidad de contenido de odio que, porcentualmente, tiene que erradicar YouTube. De hecho, si nos basamos exclusivamente en estos números, pueden sonar irrisorios al lado del contenido de odio potencial que podría estar existiendo en estos momentos en la plataforma.

Las principales medidas de YouTube en contra de estos problemas han sido respuestas a sucesos peliagudos, como la aparición de una red de pedofilia en la plataforma en noviembre de 2016 o el escándalo de Logan Paul, youtuber que grabó un cadáver.

Críticas a YouTube se han ido sucediendo con el tiempo. Ya en 2017 se acusó a YouTube de ser un refugio para vídeos relacionados con el terrorismo. Recientemente, YouTube ha recibido una demanda colectiva por parte de varios youtubers pertenecientes al colectivo LGBTQ+ en referencia a supuestos casos de discriminación.

Este ha sido, como explican en el blog, uno de los primeros pasos de YouTube para combatir el contenido de odio. En los próximos meses YouTube dará más información sobre otros 3 pasos que tomará: reducir la difusión del contenido, generar voces más autorizadas y recompensar a los creadores positivos a través de privilegios publicitarios.

No han sido los únicos. A su vez, unos 500 millones de comentarios y 100,000 vídeos han sido borrados de la plataforma presumiblemente por infringir estas nuevas normativas impuestas por YouTube. Normalmente la plataforma elimina este tipo de contenido (en una cantidad mucho menor de la que se debiera y fallando en ocasiones) pero esta vez los números son mucho más altos.

https://twitter.com/cjcmichel/status/1166167852472311808
Foto del avatar

Comments are closed.