Cómo la guerra en Ucrania creó confusión se creó en Facebook e Instagram

0
258

Meta, la compañía propietaria de Facebook e Instagram, tomó una medida inusual la semana pasada: suspendió algunos de los controles de calidad que garantizan que las publicaciones de los usuarios de Rusia, Ucrania y otros países de Europa del Este cumplan sus normas.

En virtud de este cambio, Meta dejó de controlar de manera temporal si los trabajadores que supervisan las publicaciones de Facebook e Instagram que provienen de esas zonas estaban aplicando con precisión sus directrices de contenido, según señalaron seis personas que conocen esa situación. Esas personas aseguraron que la decisión se debía a que los trabajadores no podían seguir el ritmo de las cambiantes normas sobre el tipo de publicaciones permitidas sobre la guerra en Ucrania.

También señalaron que Meta ha realizado más de media decena de revisiones de la política de contenidos desde que Rusia invadió Ucrania el mes pasado. La empresa ha permitido publicaciones sobre el conflicto que normalmente habrían retirado —incluyendo algunas que pedían la muerte del presidente ruso Vladimir Putin y la violencia contra los soldados rusos— antes de cambiar de opinión o elaborar nuevas directrices.

El resultado ha sido una confusión interna, sobre todo entre los moderadores de contenidos que monitorean Facebook e Instagram en busca de textos e imágenes con contenido sangriento, incitación al odio y a la violencia. En ocasiones, Meta ha cambiado sus normas a diario, lo cual ha provocado un efecto adverso, indicaron esas personas, que no están autorizadas para hablar públicamente.

El desconcierto sobre las directrices de contenido es solo una de las formas en que Meta se ha visto sacudida por la guerra en Ucrania. La empresa también ha tenido que enfrentar la presión de las autoridades rusas y ucranianas sobre la batalla informativa relacionada con el conflicto. Además, internamente, enfrenta el descontento por sus decisiones, incluyendo a los empleados rusos preocupados por su seguridad y los trabajadores ucranianos que quieren que la compañía sea más dura en línea con las organizaciones afiliadas al Kremlin, según afirmaron tres personas.

Dani Lever, una portavoz de Meta, se negó a referirse de manera directa a la forma en que la compañía estaba manejando las decisiones de contenido y las preocupaciones de los empleados durante la guerra.

Después de que Rusia invadió Ucrania, Meta señaló que estableció un equipo de operaciones especiales que trabaja las 24 horas del día con empleados que son hablantes nativos de ruso y ucraniano. También actualizó sus productos para ayudar a los civiles en la guerra, incluyendo funciones que dirigen a los ucranianos hacia información fiable y verificada para localizar alojamiento y ayuda para los refugiados.

Meta ha realizado más de media decena de revisiones de la política de contenidos desde que Rusia invadió Ucrania. El resultado ha sido una confusión interna en Facebook e Instagram. (Mikel Jaso/The New York Times)

Mark Zuckerberg, director ejecutivo de Meta, y Sheryl Sandberg, directora de operaciones, han participado activamente en la respuesta a la guerra, según dos personas familiarizadas con las iniciativas. Sin embargo, mientras Zuckerberg se enfoca en convertir Meta en una compañía que lidere los mundos digitales del llamado metaverso, muchas responsabilidades en torno al conflicto han recaído —al menos públicamente— en Nick Clegg, el presidente de asuntos globales.

El mes pasado, Clegg anunció que, tras las peticiones de Ucrania y otros gobiernos europeos, Meta restringiría el acceso a las páginas de Russia Today y Sputnik dentro de la Unión Europea, que son medios de comunicación controlados por el Estado ruso. Rusia tomó represalias cortando el acceso a Facebook dentro del país, alegando que la empresa discriminaba los medios de comunicación rusos, y luego bloqueó Instagram.

Este mes, el presidente de Ucrania, Volodímir Zelenski, elogió a Meta por actuar rápidamente para limitar la propaganda de guerra rusa en sus plataformas. Meta también actuó rápidamente para eliminar de sus plataformas un video ultrafalso editado en el que Zelenski aparecía engañosamente cediendo ante las fuerzas rusas.

La empresa también ha cometido errores de gran repercusión. Este mes permitió que un grupo llamado la Legión Ucraniana publicara anuncios en sus plataformas para reclutar “extranjeros” destinados al ejército ucraniano, lo que supone una violación de las leyes internacionales. Más tarde retiró los anuncios —que se mostraron a personas de Estados Unidos, Irlanda, Alemania y otros países— porque el grupo podría haber falseado sus vínculos con el gobierno ucraniano, según Meta.

Internamente, Meta también había empezado a cambiar sus políticas de contenido para hacer frente a la rapidez con que se publican los mensajes sobre la guerra. La empresa lleva mucho tiempo prohibiendo las publicaciones que puedan incitar a la violencia. No obstante, el 26 de febrero, dos días después de que Rusia invadiera Ucrania, Meta informó a sus moderadores de contenidos —que suelen ser contratistas— que permitiría los llamados a favor de la muerte de Putin y los “llamados a la violencia contra los rusos y los soldados rusos en el contexto de la invasión de Ucrania”, según los cambios de política, que fueron revisados por The New York Times.

Este mes, Reuters informó sobre los cambios de Meta con un titular que sugería que se tolerarían las publicaciones que llamaran a la violencia contra todos los rusos. En respuesta, las autoridades rusas calificaron las actividades de Meta como “extremistas”.

Poco después, Meta dio marcha atrás y dijo que no permitiría que sus usuarios hicieran llamados a favor de la muerte de jefes de Estado.

“Las circunstancias en Ucrania evolucionan rápidamente”, escribió Clegg en un memorando interno que fue revisado por The Times y del que informó primero Bloomberg. “Tratamos de pensar en todas las consecuencias, y mantenemos nuestras pautas en constante revisión porque el contexto siempre está cambiando”.

Meta modificó otras políticas. Este mes, hizo una excepción temporal a sus directrices de incitación al odio para que los usuarios pudieran publicar sobre la “remoción de rusos” y la “exclusión explícita contra los rusos” en doce países de Europa del Este, según documentos internos. No obstante, al cabo de una semana, Meta modificó la norma para señalar que solo debía aplicarse a los usuarios de Ucrania.

Los constantes ajustes dejaron confusos a los moderadores que supervisan a los usuarios de los países de Europa Central y Oriental, según dijeron las seis personas que saben de la situación.

Los cambios de política fueron onerosos porque los moderadores solían tener menos de 90 segundos para decidir si las imágenes de cadáveres, los videos de extremidades cercenadas o los llamados a favor de la violencia vulneraban las normas de Meta, explicaron. En algunos casos, añadieron, a los moderadores se les mostraban mensajes sobre la guerra en checheno, kazajo o kirguís, a pesar de no conocer esos idiomas.

Emerson T. Brooking, investigador principal del Laboratorio de Investigación Forense Digital del Atlantic Council, que estudia la difusión de la desinformación en línea, aseguró que Meta se enfrentaba a un dilema con los contenidos bélicos.

“Por lo general, la política de moderación de contenidos pretende limitar los contenidos violentos”, aseguró. “Pero la guerra es un ejercicio de violencia. No hay forma de sanear la guerra ni de pretender que sea otra cosa”.

Lever no quiso aclarar si Meta había contratado moderadores de contenidos especializados en esos idiomas.

Empleados de Russia Today trabajan en el estudio de la cadena financiada por el Kremlin en Londres, el 22 de febrero de 2017. (Sergey Ponomarev/The New York Times)

Comments are closed.