IA como mediadora: Ferramenta promete reduzir polarização em debates

IA como mediadora: Ferramenta promete reduzir polarização em debates

A inteligência artificial (IA) poderia ajudar a reduzir algumas das divisões mais contenciosas da guerra cultural por meio de um processo de mediação, afirmam pesquisadores.

PUBLICIDADE

Especialistas dizem que um sistema que pode criar declarações de grupo que reflitam as opiniões da maioria e da minoria é capaz de ajudar as pessoas a encontrar terreno comum.

O Prof. Chris Summerfield, co-autor da pesquisa da Universidade de Oxford, que trabalhou no Google DeepMind na época em que o estudo foi conduzido, disse que a ferramenta de IA poderia ter múltiplos propósitos.

“O que eu gostaria de ver usado é para dar aos líderes políticos no Reino Unido uma melhor ideia do que as pessoas no Reino Unido realmente pensam”, disse ele, observando que as pesquisas forneciam apenas insights limitados, enquanto fóruns conhecidos como assembleias de cidadãos eram frequentemente caros, logisticamente desafiadores e restritos em tamanho.

PUBLICIDADE

Escrevendo na revista Science, Summerfield e colegas do Google DeepMind relatam como construíram a “Habermas Machine” – um sistema de IA batizado em homenagem ao filósofo alemão Jürgen Habermas.

O sistema funciona tomando pontos de vista escritos de indivíduos dentro de um grupo e usando-os para gerar um conjunto de declarações de grupo projetadas para serem aceitáveis para todos. Os membros do grupo podem então avaliar essas declarações, um processo que não apenas treina o sistema, mas permite que a declaração com maior endosso seja selecionada.

Os participantes também podem enviar críticas a esta declaração inicial do grupo de volta à Habermas Machine para resultar em uma segunda coleção de declarações geradas por IA que podem ser novamente classificadas e um texto final revisado selecionado.

PUBLICIDADE

A equipe usou o sistema em uma série de experimentos envolvendo um total de mais de 5.000 participantes no Reino Unido, muitos dos quais foram recrutados por meio de uma plataforma online.

Em cada experimento, os pesquisadores pediram aos participantes que respondessem a tópicos, variando do papel dos macacos na pesquisa médica ao ensino religioso na educação pública.

Em um experimento, envolvendo cerca de 75 grupos de seis participantes, os pesquisadores descobriram que a declaração inicial do grupo da Habermas Machine foi preferida pelos participantes 56% das vezes em relação a uma declaração de grupo produzida por mediadores humanos. Os esforços baseados em IA também foram avaliados como de qualidade superior, mais claros e mais informativos entre outras características.

PUBLICIDADE

Outra série de experimentos descobriu que o processo completo de duas etapas com a Habermas Machine aumentou o nível de acordo do grupo em relação às opiniões iniciais dos participantes antes do início da mediação da IA. No geral, os pesquisadores descobriram que o acordo aumentou em oito pontos percentuais em média, o equivalente a quatro pessoas em 100 mudando de opinião sobre um tópico em que as opiniões eram originalmente divididas igualmente.

No entanto, os pesquisadores enfatizam que não foi o caso de os participantes sempre saírem da cerca ou mudarem de opinião para apoiar a visão da maioria.

A equipe encontrou resultados semelhantes quando usou a Habermas Machine em uma assembleia virtual de cidadãos em que 200 participantes, representativos da população do Reino Unido, foram convidados a deliberar sobre questões relacionadas a tópicos que vão do Brexit ao atendimento universal à infância.

PUBLICIDADE

Os pesquisadores dizem que análises adicionais, olhando para a maneira como o sistema de IA representa os textos que recebe numericamente, lançam luz sobre como ele gera declarações de grupo.

“O que Habermas Machine parece estar fazendo é respeitando amplamente a visão da maioria em cada um de nossos pequenos grupos, mas tentando escrever um pedaço de texto que não faça a minoria se sentir profundamente desfranqueada – então ele meio que reconhece a visão da minoria”, disse Summerfield.

No entanto, a própria Habermas Machine se mostrou controversa, com outros pesquisadores observando que o sistema não ajuda a traduzir deliberações democráticas em política.

A Dra. Melanie Garson, uma especialista em resolução de conflitos na UCL, acrescentou que, embora ela fosse uma otimista da tecnologia, uma preocupação era que algumas minorias pudessem ser muito pequenas para influenciar tais declarações de grupo, mas poderiam ser desproporcionalmente afetadas pelo resultado.

Ela também observou que a Habermas Machine não oferece aos participantes a chance de explicar seus sentimentos e, portanto, desenvolver empatia com aqueles de uma visão diferente.

Fundamentalmente, ela disse que, ao usar tecnologia, o contexto é fundamental.

“[Por exemplo] quanto valor isso entrega na percepção de que a mediação é mais do que apenas encontrar um acordo?” Garson disse. “Às vezes, se estiver no contexto de um relacionamento contínuo, trata-se de ensinar comportamentos.”

Leia também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima