A publisher Activision, tomou uma iniciativa inovadora ao incorporar a moderação de chat por meio de inteligência artificial nos populares jogos da franquia Call of Duty. Com uma reputação de ter jogadores que frequentemente adotam comportamentos tóxicos, a franquia de tiro em primeira pessoa procura abordar essa questão com a ajuda da IA.
Introduzindo o recurso batizado de ToxMod, a Activision colaborou com a startup de inteligência artificial, Modulate, para implementar a funcionalidade. O ToxMod já está em funcionamento na América do Norte, integrado aos títulos Call of Duty: Modern Warfare II e Call of Duty: Warzone. Essa ferramenta emprega a IA para identificar e reagir instantaneamente a discursos prejudiciais, discurso de ódio, linguagem discriminatória e assédio, tudo em tempo real. A expansão global do ToxMod está programada para 10 de novembro, coincidindo com o lançamento do antecipado título Modern Warfare III, exceto para a região da Ásia.
Enquanto a franquia Call of Duty já dispõe de sistemas de moderação, incluindo a filtragem de texto em 14 idiomas e um sistema de denúncias de jogadores, a Activision destaca que, desde o lançamento de Call of Duty: Modern Warfare II, mais de 1 milhão de contas sofreram restrições devido a violações do código de conduta. A utilização prévia das ferramentas de filtragem já teve um impacto positivo na redução de discursos abusivos.
Apesar da implementação da IA, a Activision continua incentivando os jogadores a reportar comportamentos disruptivos. A empresa reconhece e valoriza o compromisso da comunidade em enfrentar esses problemas, enfatizando a importância dessa colaboração coletiva para manter um ambiente de jogo saudável e acolhedor.