Um estudo realizado por pesquisadores da Universidade de Zurique comparou a persuasão de tuítes escritos por inteligência artificial e por humanos. O foco foi o modelo GPT-3 da OpenAI, com o objetivo de ver se as pessoas conseguem distinguir entre conteúdo gerado por IA e conteúdo escrito por humanos.
A pesquisa foi publicada na revista científica norte-americana Science Advances no último dia 28 de junho.
Os resultados mostraram que os participantes tiveram dificuldades em identificar os tuítes escritos por humanos e aqueles gerados pelo GPT-3. Especialmente em temas científicos, como vacinas e mudanças climáticas, os participantes tiveram problemas para verificar a veracidade das informações.
Os participantes tiveram menos sucesso em reconhecer informações falsas quando elas vinham de modelos de IA, em comparação com informações vindas de fontes humanas. Por outro lado, eles foram mais eficientes em identificar informações corretas quando geradas pelo GPT-3 ao invés de seres humanos.
Além disso, foi observado que o GPT-3 teve uma taxa de obediência alta ao produzir tweets precisos, mas uma taxa menor ao produzir desinformação. Isso sugere que o GPT-3 pode “recusar” a geração de desinformação e, em alguns casos raros, pode produzir desinformação quando instruído a gerar informações precisas.
Para realizar o estudo, os pesquisadores coletaram tuítes sobre temas científicos e pediram ao GPT-3 que produzisse novos tuítes contendo informações corretas e incorretas. Ao fim, foram analisadas respostas de 697 pessoas sobre suas percepções das informações.
Os participantes do estudo foram convidados a reconhecer se os tweets eram orgânicos (escritos por usuários reais) ou sintéticos (gerados pelo GPT-3) e se continham informações precisas ou desinformação. A maioria dos entrevistados era do Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda, com diferentes perfis de gênero, faixa etária e nível de escolaridade.
O estudo também observou que a avaliação de tuítes fora de contexto dificultou para os participantes verificarem a credibilidade do conteúdo. Acesso a informações adicionais, como o perfil do usuário, tuítes anteriores e imagem de perfil, pode ser útil para identificar contas enganosas.
As pessoas tiveram mais sucesso em identificar informações falsas quando elas vinham de usuários reais do Twitter. No entanto, os tuítes gerados pelo GPT-3 com informações incorretas conseguiram enganar os participantes em uma pequena medida. Os pesquisadores sugeriram melhorar os dados de treinamento para modelos de IA, a fim de reduzir o uso indevido dessas ferramentas para espalhar informações falsas.
O estudo concluiu que é importante promover o pensamento crítico como forma eficaz de combater a disseminação de informações falsas. Combinar o julgamento de pessoas experientes em verificação de fatos com tecnologias de IA pode aprimorar campanhas legítimas de informações públicas.
Os resultados completos podem ser consultados a partir da revista Science Advances.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:58
O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…