A Activision firmou uma parceria com uma empresa chamada Modulate para trazer “moderação de chat de voz” no Call of Duty. O novo sistema de moderação, usando uma tecnologia de IA chamada ToxMod, funcionará para identificar comportamentos como discurso de ódio, discriminação e assédio em tempo real.
PUBLICIDADE
O lançamento beta inicial do ToxMod na América do Norte começou na quarta-feira (30) e está ativo em Call of Duty: Modern Warfare II e Call of Duty: Warzone. Um lançamento mundial (com exceção da Ásia) deve acontecer em 10 de novembro, data em que será lançado o Call of Duty: Modern Warfare III.
O comunicado de imprensa do Modulate não inclui muitos detalhes sobre como exatamente o ToxMod funciona. Seu site observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada incidente, fornecendo um contexto relevante e preciso”. A ferramenta pretende ir além da mera transcrição, também considerando emoções e a voz do jogador para diferenciar declarações prejudiciais de momentos divertidos.
Vale ressaltar que a ferramenta (pelo menos por enquanto) não irá de fato tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision.
PUBLICIDADE