Inteligência Artificial

IA como mediadora: Ferramenta promete reduzir polarização em debates

Publicado por
Isabella Caminoto

A inteligência artificial (IA) poderia ajudar a reduzir algumas das divisões mais contenciosas da guerra cultural por meio de um processo de mediação, afirmam pesquisadores.

Especialistas dizem que um sistema que pode criar declarações de grupo que reflitam as opiniões da maioria e da minoria é capaz de ajudar as pessoas a encontrar terreno comum.

O Prof. Chris Summerfield, co-autor da pesquisa da Universidade de Oxford, que trabalhou no Google DeepMind na época em que o estudo foi conduzido, disse que a ferramenta de IA poderia ter múltiplos propósitos.

“O que eu gostaria de ver usado é para dar aos líderes políticos no Reino Unido uma melhor ideia do que as pessoas no Reino Unido realmente pensam”, disse ele, observando que as pesquisas forneciam apenas insights limitados, enquanto fóruns conhecidos como assembleias de cidadãos eram frequentemente caros, logisticamente desafiadores e restritos em tamanho.

Escrevendo na revista Science, Summerfield e colegas do Google DeepMind relatam como construíram a “Habermas Machine” – um sistema de IA batizado em homenagem ao filósofo alemão Jürgen Habermas.

O sistema funciona tomando pontos de vista escritos de indivíduos dentro de um grupo e usando-os para gerar um conjunto de declarações de grupo projetadas para serem aceitáveis para todos. Os membros do grupo podem então avaliar essas declarações, um processo que não apenas treina o sistema, mas permite que a declaração com maior endosso seja selecionada.

Os participantes também podem enviar críticas a esta declaração inicial do grupo de volta à Habermas Machine para resultar em uma segunda coleção de declarações geradas por IA que podem ser novamente classificadas e um texto final revisado selecionado.

A equipe usou o sistema em uma série de experimentos envolvendo um total de mais de 5.000 participantes no Reino Unido, muitos dos quais foram recrutados por meio de uma plataforma online.

Em cada experimento, os pesquisadores pediram aos participantes que respondessem a tópicos, variando do papel dos macacos na pesquisa médica ao ensino religioso na educação pública.

Em um experimento, envolvendo cerca de 75 grupos de seis participantes, os pesquisadores descobriram que a declaração inicial do grupo da Habermas Machine foi preferida pelos participantes 56% das vezes em relação a uma declaração de grupo produzida por mediadores humanos. Os esforços baseados em IA também foram avaliados como de qualidade superior, mais claros e mais informativos entre outras características.

Outra série de experimentos descobriu que o processo completo de duas etapas com a Habermas Machine aumentou o nível de acordo do grupo em relação às opiniões iniciais dos participantes antes do início da mediação da IA. No geral, os pesquisadores descobriram que o acordo aumentou em oito pontos percentuais em média, o equivalente a quatro pessoas em 100 mudando de opinião sobre um tópico em que as opiniões eram originalmente divididas igualmente.

No entanto, os pesquisadores enfatizam que não foi o caso de os participantes sempre saírem da cerca ou mudarem de opinião para apoiar a visão da maioria.

A equipe encontrou resultados semelhantes quando usou a Habermas Machine em uma assembleia virtual de cidadãos em que 200 participantes, representativos da população do Reino Unido, foram convidados a deliberar sobre questões relacionadas a tópicos que vão do Brexit ao atendimento universal à infância.

Os pesquisadores dizem que análises adicionais, olhando para a maneira como o sistema de IA representa os textos que recebe numericamente, lançam luz sobre como ele gera declarações de grupo.

“O que Habermas Machine parece estar fazendo é respeitando amplamente a visão da maioria em cada um de nossos pequenos grupos, mas tentando escrever um pedaço de texto que não faça a minoria se sentir profundamente desfranqueada – então ele meio que reconhece a visão da minoria”, disse Summerfield.

No entanto, a própria Habermas Machine se mostrou controversa, com outros pesquisadores observando que o sistema não ajuda a traduzir deliberações democráticas em política.

A Dra. Melanie Garson, uma especialista em resolução de conflitos na UCL, acrescentou que, embora ela fosse uma otimista da tecnologia, uma preocupação era que algumas minorias pudessem ser muito pequenas para influenciar tais declarações de grupo, mas poderiam ser desproporcionalmente afetadas pelo resultado.

Ela também observou que a Habermas Machine não oferece aos participantes a chance de explicar seus sentimentos e, portanto, desenvolver empatia com aqueles de uma visão diferente.

Fundamentalmente, ela disse que, ao usar tecnologia, o contexto é fundamental.

“[Por exemplo] quanto valor isso entrega na percepção de que a mediação é mais do que apenas encontrar um acordo?” Garson disse. “Às vezes, se estiver no contexto de um relacionamento contínuo, trata-se de ensinar comportamentos.”

Leia também:

Este post foi modificado pela última vez em 17 de outubro de 2024 17:48

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

OpenAI revela vieses residuais em respostas do ChatGPT

Um novo estudo da OpenAI investigou a presença de vieses na linguagem usada pelo ChatGPT,…

17 de outubro de 2024

Boston Dynamics e Toyota se unem para desenvolver humanoides de IA

A Boston Dynamics e o Toyota Research Institute anunciaram recentemente uma nova parceria para acelerar…

17 de outubro de 2024

Mistral AI lança dois novos modelos compactos de linguagem

A startup francesa de inteligência artificial (IA), Mistral AI acaba de lançar dois novos modelos…

17 de outubro de 2024

Nemotron da Nvidia supera modelos líderes de IA

A Nvidia lançou silenciosamente um novo LLM de código aberto, ajustado, chamado Llama-3.1-Nemotron-70B-Instruct, que está…

17 de outubro de 2024

Gigantes da tecnologia reprovados: IA falha em cumprir novas regras da UE

Alguns dos modelos de inteligência artificial (IA) mais proeminentes estão ficando aquém dos regulamentos europeus…

16 de outubro de 2024

Meta desenvolve LLMs “pensantes”; confira

Pesquisadores da Meta apresentaram recentemente um novo método chamado Otimização de Preferência de Pensamento (TPO)…

16 de outubro de 2024