Twitter elimina contenido falso y potencialmente dañino relacionado con el coronavirus

0
588

Twitter ha eliminado más de 1,100 ‘tuits’ de la plataforma por contener contenido engañoso y potencialmente dañino, siguiendo la última ampliación de la definición de daño que incluye aquello que va directamente en contra de lo indicado por fuentes autorizadas de información de salud pública global y local en medio de la pandemia de Covid-19.

Las redes sociales han incrementado el número de usuarios activos en las últimas semanas, con motivo de las medidas de confinamiento y la necesidad de guardar distancia social por el brote del nuevo coronavirus, que afecta a nivel global.

En este contexto, la conversación global sobre Covid-19 y las mejoras del producto han impulsado los usuarios diarios monetizables (mDAU) en Twitter, con una media en el trimestre de 164 millones de mDAUs, un 23 por ciento más de los 134 millones del primer trimestre de 2019 y un 8 por ciento más que los 152 millones del cuarto trimestre de 2019, como recoge en su blog oficial.

La compañía tecnológica también ha visto un incremento del 45 por ciento del uso de la página de eventos con información autorizada y veraz, y un incremento del 30 por ciento en el uso de los Mensajes Directos desde el 6 de marzo.

A mediados de marzo, la compañía actualizó sus políticas de seguridad, para permitir la eliminación de aquellos contenidos que podrían poner a los usuarios en riesgo de contraer el Covid-19, la enfermedad que causa el corononavirus.

En este sentido, los usuarios tendrán que eliminar contenidos que nieguen las directrices aportadas por expertos, que animen a otros usuarios a seguir técnicas de diagnóstico y tratamientos falsos o ineficaces, o que compartan contenidos engañosos supuestamente atribuidos a expertos o autoridades.

Desde su aplicación el 18 de marzo, se han eliminado más de 1,100 publicaciones de la plataforma, por tener contenido engañoso y potencialmente dañino. Además, los sistemas automatizados han desafiado a más de 1,5 millones de cuentas que estaban hablando sobre Covid-19 con comportamientos de manipulación o ‘spam’.

Estos sistemas automatizados permiten revisar los informes de manera más eficiente al mostrar el contenido que es más probable que cause daño y que debe revisarse primero. También ayudan a identificar de manera proactiva el contenido que viola las reglas de la plataforma antes de que se denuncie, si bien el equipo humano interviene cuando hay que revisar el contenido que requiere de contexto adicional, como en el caso de la información engañosa relacionada con el Covid-19.

Foto del avatar

Comments are closed.