Activision sigue utilizando tecnología con IA para reducir la toxicidad en Call of Duty
Activision ha destacado el éxito de los sistemas de moderación de texto y voz implementados en la franquicia Call of Duty, que han ayudado a reducir la toxicidad en los chats y que estarán presents desde el primer día e la nueva entrega, Black Ops 6.
El sistema de moderación impulsado por inteligencia artificial ToxMod, desarrollado por Modulate, se incorporó a la franquicia Call of Duty el año pasado con el lanzamiento de Modern Warfare III, para reducir la exposición de los jugadores a las conversaciones tóxicas.
ToxMod actúa en tiempo real para identificar y tomar medidas contra aquellos usuarios que tienen un comportamiento inadecuado en los chats de voz, por utilizar un lenguaje discriminatorio, acosar a otros jugadores o promover el discurso del odio.
Tras su implementación, Activision ha comprobado que se ha reducido la exposición a los chats de voz tóxicos, que ha disminuido un 43 por ciento desde enero de 2024. En junio, además, se implementó una mejora para el sistema con la que han visto una reducción combinada del 67 por ciento en la reincidencia en infracciones relacionadas con el chat de voz en Modern Warfare III y Call of Duty: Warzone.
ToxMod estará presente en Call of Duty: Black Ops 6 en el primer día (25 de octubre) en inglés, español y portugués, y lo ampliará al francés y al alemán, como ha informado Activision en una actualización de sus sistemas de moderación.
Este nuevo juego de la franquicia contará también con la moderación basada en texto de los chats del juego, que se introdujo primero en Modern Warfare (2019) de la mano de Community Sift, y que actualmentesoporta 20 idiomas, incluido el español. Black Ops 6 también aplicará el sistema de análisis para los informes de nombres de usuario.
“Las herramientas de moderación basadas en voz y texto de Call of Duty no apuntan a nuestro espíritu competitivo, sino que se aplican contra el comportamiento identificado en el Código de conducta de la franquicia Call of Duty, que apunta al acoso y al lenguaje despectivo”, ha matizado la desarrolladora.
Desde Activision han indicado que el sistema de moderación también analiza el tráfico de chat de texto casi en tiempo real, lo que ha permitido bloquear más de 45 millones de mensajes de texto que violan el Código de conducta de Call of Duty desde noviembre de 2023