Call of Duty agora apresenta um moderador ‘Anti-Toxicidade’ alimentado por IA
Cuidado com todos aqueles que gostam de falar mal durante um jogo Call of Duty – há um moderador totalmente novo com tecnologia de IA chamado ‘ToxMod’ que foi integrado ao Modern Warfare II e Warzone que tem como alvo jogadores que abusam de outros jogadores por meio de recursos de chat de voz. Foi confirmado que ele também chegará ao Modern Warfare III quando o jogo for lançado em 10 de novembro.
Este novo recurso chegou graças a uma parceria entre a Activision e a Modulate, criadora da novíssima ‘tecnologia de moderação de chat de voz’. Em tempo real, o ToxMod detectará jogadores falando de forma abusiva no jogo e agirá de acordo.
Se isso fosse introduzido nos lobbies Search and Destroy do MW2 em 2009, milhões de jogadores teriam sido banidos da noite para o dia.
Tenha cuidado com o que você diz
É uma tecnologia bastante abrangente, é certo.
Foi explicado que o ToxMod está atento a discursos de ódio, linguagem discriminatória, assédio e todas as outras formas de abuso. É um esforço para fortalecer a mecânica anti-toxicidade do Call of Duty, que agora também inclui filtragem baseada em texto que monitora o bate-papo do jogo e tenta detectar comportamentos maliciosos em 14 idiomas diferentes.
Foi relatado em uma postagem no blog Call of Duty que, desde o lançamento do Modern Warfare II, mais de um milhão de contas foram detectadas violando o Código de Conduta e foram tomadas medidas contra elas.
Nas últimas semanas, a Activision também introduziu uma nova cláusula projetada para evitar que jogadores façam denúncias falsas contra jogadores que não fizeram nada de errado, apelidada de ‘Relatórios Maliciosos’.
Em 30 de agosto, a tecnologia ToxMod foi lançada na América do Norte e está programada para lançamento mundial quando Modern Warfare III for lançado em novembro.