Call of Duty contará con moderación de chat de voz en tiempo real a nivel mundial con Modern Warfare 3 en noviembre

Call of Duty tendrá moderación de chat de voz en tiempo real en todo el mundo con Modern Warfare 3 en noviembre

Activision ha anunciado nuevas medidas para combatir la toxicidad dentro de Call of Duty, confirmando que introducirá lo que llama “moderación global en tiempo real del chat de voz” junto con el lanzamiento de Modern Warfare 3 el 10 de noviembre, con una prueba beta en Estados Unidos de la función que comienza hoy.

El nuevo sistema de moderación de chat de voz de Call of Duty empleará tecnología impulsada por inteligencia artificial de Modulate para identificar y actuar contra el discurso tóxico en tiempo real, con lenguaje señalado que incluye discurso de odio, discriminación y acoso.

Una beta inicial del nuevo sistema de moderación de voz de Call of Duty se está implementando en Warzone y Modern Warfare 2 a partir de hoy, 30 de agosto, en América del Norte, y su lanzamiento global coincidirá con la llegada de Modern Warfare 3 en noviembre. Activision señala que las herramientas solo admitirán inglés al principio, con otros idiomas que vendrán “en una fecha posterior”.

La moderación del chat de voz de Call of Duty se implementará globalmente con Modern Warfare 3 en noviembre.

En un Q&A que acompaña al anuncio de hoy, Activision explica que el sistema impulsado por IA solo será responsable de identificar y reportar las supuestas infracciones para una revisión posterior, adjuntando una categoría de comportamiento y un nivel de severidad clasificados a cada informe, y que el propio editor determinará cómo se aplican las sanciones según su Política de Seguridad y Cumplimiento.

Añade que el “trash-talk” será aceptable siempre y cuando no se enmarque dentro de la definición de lenguaje perjudicial descrita en su Código de Conducta, y señala que la única forma de excluirse del nuevo sistema de moderación es desactivar el chat de voz dentro del juego.

Activision afirma que las políticas actuales de moderación contra la toxicidad en Call of Duty hasta ahora han resultado en restricciones de chat de voz y/o texto en más de 1 millón de cuentas desde el lanzamiento de Modern Warfare 2, y que el 20 por ciento de los jugadores no reincidió después de recibir una primera advertencia.

El anuncio de hoy sigue a la introducción de medidas de moderación similares en otras partes de la industria. Microsoft, por ejemplo, lanzó una herramienta de grabación y reporte de chat de voz impulsada por los propios jugadores para Xbox en julio, que actualmente se encuentra en pruebas con los Insiders, mientras que Riot, el estudio de League of Legends, ha estado experimentando con la moderación del chat de voz durante algún tiempo.