A publisher Activision revelou os resultados iniciais de sua ferramenta de moderação de IA para seu jogo de tiro Call of Duty, chamada ToxMod, lançada no ano passado. Desde a implementação em agosto, mais de 2 milhões de contas enfrentaram medidas disciplinares devido a comportamento disruptivo no chat de voz.
Lançada durante o boom da IA em 2023, a ToxMod tornou-se uma peça fundamental na luta contra comportamentos tóxicos. Essa ferramenta pode identificar comentários “disruptivos” em 14 idiomas nos jogos Call of Duty: Modern Warfare II e III, e Warzone. Além disso, ela também impõe medidas, como silenciar globalmente no chat de voz e texto, além de restringir outras funcionalidades sociais.
Dessa forma, a IA permitiu à Activision evoluir sua abordagem de moderação, resultando em uma redução mensal de 8% em reincidentes desde sua introdução. Além disso, houve também uma redução significativa de 50% em “instâncias graves” de bate-papo de voz disruptivo desde o lançamento de Modern Warfare III.
Activision quer ambiente saudável em Call of Duty com IA
A empresa ainda reforçou seu compromisso com um ambiente de jogo saudável, atualizando o Código de Conduta do Call of Duty. Com isso, ela incluiu uma política de tolerância zero para discurso tóxico relacionado a raça, identidade de gênero, orientação sexual, entre outros.
Embora a IA ToxMod tenha sido uma solução eficaz, a Activision sublinhou a importância contínua da comunidade na denúncia de comportamentos prejudiciais. Assim, ela está comprometida em trabalhar em conjunto com os jogadores para garantir que Call of Duty seja um espaço justo e divertido para todos, continuando a evoluir sua tecnologia de moderação para combater comportamentos disruptivos, seja no chat de voz ou texto.
Leia mais:
- Tesla lança versão 12 do software de direção autônoma
- Token da Blockchain de Jogos Ronin em Alta
- Celulares com IA a Caminho com Samsung Galaxy S24
Assine nossas notícias para receber todas as novidades do mundo cripto!