Call of Duty Combate a Toxicidade com IA: 2 Milhões de Contas Investigadas

A nova ferramenta de moderação de voz da Call of Duty, alimentada por IA, já identificou mais de 2M de contas por comportamento tóxico.
Call of Duty – Warzone.
Call of Duty – Warzone.

A Activision deu um grande passo no combate à toxicidade no mundo dos jogos online com a introdução de um avançado sistema de moderação de voz por inteligência artificial (IA) em Call of Duty (CoD). Desde sua implementação, a ferramenta já impactou mais de dois milhões de contas, revelando a escala do desafio enfrentado pela indústria dos jogos no combate à linguagem tóxica e ao assédio online.

Iniciada como um teste beta na América do Norte em agosto de 2023, a ferramenta foi inicialmente aplicada somente em inglês nos jogos Call of Duty: Modern Warfare II e Warzone. Posteriormente, expandiu-se para incluir Call of Duty: Modern Warfare III, estendendo seu alcance para outras regiões (excluindo a Ásia) e adicionando suporte para espanhol e português​​​​​​.

Call of Duty Implementa Sistema de IA Anti-Toxicidade e Impacta 2 Milhões de Contas

O sistema, desenvolvido em colaboração com a Modulate e usando a tecnologia ToxMod, é projetado para identificar e intervir contra falas tóxicas em tempo real, incluindo discurso de ódio, linguagem discriminatória e assédio. Este desenvolvimento fortalece os sistemas de moderação existentes, que já incluem filtragem baseada em texto em 14 idiomas e um robusto sistema de relatórios de jogadores​​.

A Activision observou uma tendência “infeliz” em que apenas um em cada cinco jogadores relatava comportamento tóxico, apesar de seus sistemas detectarem tais casos. Embora a moderação por IA possa agir sem relatórios diretos dos jogadores, a empresa enfatiza que os relatórios ativos dos jogadores permanecem cruciais para o sucesso do sistema. Para incentivar mais denúncias, a Activision implementou mensagens de agradecimento aos jogadores que denunciam e planeja fornecer feedback adicional quando agirem com base nos relatórios​​.

Desde a introdução do sistema de moderação de voz, os jogos da franquia CoD que utilizam o programa observaram uma redução de 8% nos infratores reincidentes. Além disso, houve uma redução de 50% nos jogadores expostos a casos graves de chat tóxico desde o lançamento de Modern Warfare III em novembro de 2023​​.

As contas detectadas usando linguagem ofensiva podem ter o chat de voz silenciado, além de outras penalidades, como restrição de certos recursos sociais e incapacidade de usar o chat de texto. A Activision planeja continuar aprimorando o sistema de moderação anti-toxicidade, melhorando as ferramentas e adicionando suporte para mais idiomas.

A empresa reitera seu compromisso de trabalhar com a comunidade para garantir que Call of Duty seja justo e divertido para todos, compreendendo que este é um trabalho contínuo na luta contra o comportamento disruptivo, seja por voz ou texto​​.


Tópicos relacionados: Gamer, Call of Duty.

Não perca nenhuma novidade! Siga-nos agora mesmo nas redes sociais: FacebookTwitterInstagram e Pinterest.

Sobre o autor