Call of Duty Combate a Toxicidade com IA: 2 Milhões de Contas Investigadas

A nova ferramenta de moderação de voz da Call of Duty, alimentada por IA, já identificou mais de 2M de contas por comportamento tóxico.
Call of Duty – Warzone.
Call of Duty – Warzone.

A Activision deu um grande passo no combate à toxicidade no mundo dos jogos online com a introdução de um avançado sistema de moderação de voz por inteligência artificial (IA) em Call of Duty (CoD). Desde sua implementação, a ferramenta já impactou mais de dois milhões de contas, revelando a escala do desafio enfrentado pela indústria dos jogos no combate à linguagem tóxica e ao assédio online.

Iniciada como um teste beta na América do Norte em agosto de 2023, a ferramenta foi inicialmente aplicada somente em inglês nos jogos Call of Duty: Modern Warfare II e Warzone. Posteriormente, expandiu-se para incluir Call of Duty: Modern Warfare III, estendendo seu alcance para outras regiões (excluindo a Ásia) e adicionando suporte para espanhol e português​​​​​​.

Call of Duty Implementa Sistema de IA Anti-Toxicidade e Impacta 2 Milhões de Contas

O sistema, desenvolvido em colaboração com a Modulate e usando a tecnologia ToxMod, é projetado para identificar e intervir contra falas tóxicas em tempo real, incluindo discurso de ódio, linguagem discriminatória e assédio. Este desenvolvimento fortalece os sistemas de moderação existentes, que já incluem filtragem baseada em texto em 14 idiomas e um robusto sistema de relatórios de jogadores​​.

A Activision observou uma tendência “infeliz” em que apenas um em cada cinco jogadores relatava comportamento tóxico, apesar de seus sistemas detectarem tais casos. Embora a moderação por IA possa agir sem relatórios diretos dos jogadores, a empresa enfatiza que os relatórios ativos dos jogadores permanecem cruciais para o sucesso do sistema. Para incentivar mais denúncias, a Activision implementou mensagens de agradecimento aos jogadores que denunciam e planeja fornecer feedback adicional quando agirem com base nos relatórios​​.

Desde a introdução do sistema de moderação de voz, os jogos da franquia CoD que utilizam o programa observaram uma redução de 8% nos infratores reincidentes. Além disso, houve uma redução de 50% nos jogadores expostos a casos graves de chat tóxico desde o lançamento de Modern Warfare III em novembro de 2023​​.

As contas detectadas usando linguagem ofensiva podem ter o chat de voz silenciado, além de outras penalidades, como restrição de certos recursos sociais e incapacidade de usar o chat de texto. A Activision planeja continuar aprimorando o sistema de moderação anti-toxicidade, melhorando as ferramentas e adicionando suporte para mais idiomas.

A empresa reitera seu compromisso de trabalhar com a comunidade para garantir que Call of Duty seja justo e divertido para todos, compreendendo que este é um trabalho contínuo na luta contra o comportamento disruptivo, seja por voz ou texto​​.


Tópicos relacionados: Gamer, Call of Duty.

Não perca nenhuma novidade! Siga-nos agora mesmo nas redes sociais: FacebookTwitterInstagram e Pinterest.

Sobre o autor

Mais resultados

Generic selectors
Apenas pesquisas exatas
Pesquisar por titulo
Poesquisar por conteúdo
Post Type Selectors

Mais resultados

Generic selectors
Apenas pesquisas exatas
Pesquisar por titulo
Poesquisar por conteúdo
Post Type Selectors