Call of Duty: IA Detecta e Bane Jogadores Tóxicos em Tempo Real

No esforço contínuo para melhorar a comunidade do Call of Duty, a franquia lança moderação de chat de voz com IA; detecta e bane jogadores.
Call of Duty 2023 IA
Foto: Call of Duty – IA.

Resumo:

  • Call of Duty adota tecnologia de IA para identificar jogadores tóxicos.
  • Sistema de moderação de chat de voz em tempo real.
  • Lançamento beta nos EUA com atualização Season 5 Reloaded.
  • Parceria com a Modulate para desenvolver a tecnologia.
  • Monitoramento de discurso tóxico, sem tolerância para discurso de ódio.
  • Sistema avalia contexto antes de tomar medidas.
  • Ofensas ao Código de Conduta resultam em banimentos.

O Call of Duty deu um passo adiante na identificação e eliminação de jogadores tóxicos de seus jogos. Sua nova tecnologia de moderação de chat de voz com IA buscará banir jogadores que exibem comportamento disruptivo no Warzone 2.0, Modern Warfare 2, Modern Warfare 3 e futuros títulos.

Em 30 de agosto, a equipe do Call of Duty revelou que está trazendo uma nova tecnologia de moderação de chat de voz com IA para a franquia. Essa nova funcionalidade ajudará os desenvolvedores a identificar e subsequentemente banir jogadores que exibem comportamento tóxico.

A nova tecnologia de IA chega com a atualização Temporada 5 e estreará na América do Norte em um estado beta inicial, à medida que começa a moderar os chats de voz no Modern Warfare 2 e Warzone 2.0.

Posteriormente, está planejado o lançamento mundial da funcionalidade no Modern Warfare 3 em 10 de novembro.

Call of Duty Parceria com a Modulate IA

A Activision se uniu à empresa de software Modulate para criar esta tecnologia de moderação de chat de voz com IA em tempo real que eles trouxeram para seus títulos do Call of Duty.

A tecnologia identificará discursos tóxicos em tempo real, tornando-se mais uma ferramenta à disposição da equipe anti-toxicidade do Call of Duty.

As FAQs esclarecem como a denúncia de jogadores e a nova tecnologia se combinarão para fornecer os melhores resultados: “A denúncia de jogadores ainda é valiosa e está disponível no jogo para que os jogadores comuniquem casos de comportamento tóxico ou disruptivo que possam encontrar; no entanto, a moderação de chat de voz aumentará nossa capacidade de identificar e aplicar medidas contra comportamentos inadequados não denunciados.

Essencialmente, a tecnologia utiliza o Código de Conduta do Call of Duty para identificar linguagem tóxica. Os desenvolvedores explicaram o processo: “Violações detectadas do Código de Conduta podem exigir revisões adicionais das gravações associadas para identificar o contexto antes que a aplicação seja determinada. Portanto, as ações tomadas não serão instantâneas.

Enquanto o chat de voz nos jogos do Call of Duty será monitorado e gravado, a seção de FAQ também revelou que as brincadeiras e a troca amigável de palavras serão toleradas.

O que não será tolerado são casos de “discurso de ódio, discriminação, sexismo e outros tipos de linguagem prejudicial, conforme descrito no Código de Conduta.”


Tópicos relacionados: Call of Duty.

Não perca nenhuma novidade! Siga-nos agora mesmo nas redes sociais: FacebookTwitterInstagram e Pinterest.

Sobre o autor

[wpdreams_ajaxsearchlite]
[wpdreams_ajaxsearchlite]