Call of Duty vai usar IA para moderar chats de voz

Jogos de tiro em primeira pessoa como Call of Duty são famosos pela toxicidade de seus chats de voz. Pesquisas classificaram a base de fãs da franquia como a mais negativa em todos os jogos. A Activision vem tentando reprimir esse comportamento há anos - e parte da solução pode envolver inteligência artificial.

A Activision firmou uma parceria com uma empresa chamada Modulate para trazer “moderação de chat de voz” no Call of Duty. O novo sistema de moderação, usando uma tecnologia de IA chamada ToxMod, funcionará para identificar comportamentos como discurso de ódio, discriminação e assédio em tempo real.

PUBLICIDADE

O lançamento beta inicial do ToxMod na América do Norte começou na quarta-feira (30) e está ativo em Call of Duty: Modern Warfare II e Call of Duty: Warzone. Um lançamento mundial (com exceção da Ásia) deve acontecer em 10 de novembro, data em que será lançado o Call of Duty: Modern Warfare III.

O comunicado de imprensa do Modulate não inclui muitos detalhes sobre como exatamente o ToxMod funciona. Seu site observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada incidente, fornecendo um contexto relevante e preciso”. A ferramenta pretende ir além da mera transcrição, também considerando emoções e a voz do jogador para diferenciar declarações prejudiciais de momentos divertidos.

Vale ressaltar que a ferramenta (pelo menos por enquanto) não irá de fato tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision.

PUBLICIDADE

Veja também:

Rolar para cima