IA informa e desinforma melhor que seres humanos, aponta pesquisa; entenda

Um estudo realizado por pesquisadores da Universidade de Zurique comparou a persuasão de tuítes escritos por inteligência artificial e por humanos. O foco foi o modelo GPT-3 da OpenAI, com o objetivo de ver se as pessoas conseguem distinguir entre conteúdo gerado por IA e conteúdo escrito por humanos.

Publicado por
Uesley Durães

A pesquisa foi publicada na revista científica norte-americana Science Advances no último dia 28 de junho.

Os resultados mostraram que os participantes tiveram dificuldades em identificar os tuítes escritos por humanos e aqueles gerados pelo GPT-3. Especialmente em temas científicos, como vacinas e mudanças climáticas, os participantes tiveram problemas para verificar a veracidade das informações.

Os participantes tiveram menos sucesso em reconhecer informações falsas quando elas vinham de modelos de IA, em comparação com informações vindas de fontes humanas. Por outro lado, eles foram mais eficientes em identificar informações corretas quando geradas pelo GPT-3 ao invés de seres humanos.

Além disso, foi observado que o GPT-3 teve uma taxa de obediência alta ao produzir tweets precisos, mas uma taxa menor ao produzir desinformação. Isso sugere que o GPT-3 pode “recusar” a geração de desinformação e, em alguns casos raros, pode produzir desinformação quando instruído a gerar informações precisas.

Para realizar o estudo, os pesquisadores coletaram tuítes sobre temas científicos e pediram ao GPT-3 que produzisse novos tuítes contendo informações corretas e incorretas. Ao fim, foram analisadas respostas de 697 pessoas sobre suas percepções das informações.

IA informa e desinforma melhor que seres humanos, aponta pesquisa; entenda (reprodução traduzida com Google Tradutor)

Os participantes do estudo foram convidados a reconhecer se os tweets eram orgânicos (escritos por usuários reais) ou sintéticos (gerados pelo GPT-3) e se continham informações precisas ou desinformação. A maioria dos entrevistados era do Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda, com diferentes perfis de gênero, faixa etária e nível de escolaridade.

O estudo também observou que a avaliação de tuítes fora de contexto dificultou para os participantes verificarem a credibilidade do conteúdo. Acesso a informações adicionais, como o perfil do usuário, tuítes anteriores e imagem de perfil, pode ser útil para identificar contas enganosas.

As pessoas tiveram mais sucesso em identificar informações falsas quando elas vinham de usuários reais do Twitter. No entanto, os tuítes gerados pelo GPT-3 com informações incorretas conseguiram enganar os participantes em uma pequena medida. Os pesquisadores sugeriram melhorar os dados de treinamento para modelos de IA, a fim de reduzir o uso indevido dessas ferramentas para espalhar informações falsas.

O estudo concluiu que é importante promover o pensamento crítico como forma eficaz de combater a disseminação de informações falsas. Combinar o julgamento de pessoas experientes em verificação de fatos com tecnologias de IA pode aprimorar campanhas legítimas de informações públicas.

Os resultados completos podem ser consultados a partir da revista Science Advances.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:58

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024