Programas de computador usados para detectar redações, pedidos de emprego e outros trabalhos gerados por inteligência artificial (IA) podem discriminar pessoas que não são falantes nativos de inglês, diz a pesquisa.
Testes em sete populares detectores de texto de IA descobriram que artigos escritos por pessoas que não falam inglês como primeira língua eram frequentemente sinalizados erroneamente como gerados por IA, um viés que poderia ter um sério impacto em estudantes, acadêmicos e candidatos a empregos.
Com o surgimento do ChatGPT, muitos professores agora consideram a detecção de IA como uma “contramedida crítica para impedir uma forma de trapaça do século 21”, mas os pesquisadores alertam que a precisão de 99% reivindicada por alguns detectores é “na melhor das hipóteses enganosa”.
Cientistas liderados por James Zou, professor na Universidade de Stanford, executaram 91 testes em trabalhos escritos em inglês por falantes não nativos da língua, por meio de sete detectores populares de IA, para ver o desempenho dos programas.
Mais da metade das redações – que foram escritas para um teste de proficiência em inglês conhecido como Teste de Inglês como Língua Estrangeira, ou TOEFL – foram sinalizadas como geradas por IA, com um programa sinalizando 98% das redações como compostas por IA.
Por outro lado, quando foram analisados os trabalhos escritos por alunos norte-americanos, que tem a língua inglesa como nativa, os mesmos detectores de IA classificaram mais de 90% como gerados por humanos.
Escrevendo na revista Patterns, os cientistas expuseram a discriminação à maneira como os detectores avaliam o que é humano e o que é gerado por IA. Os programas analisam o que é chamado de “perplexidade do texto”, que é uma medida de quão “surpreso” ou “confuso” um modelo de linguagem generativa está ao tentar prever a próxima palavra em uma frase. Se o modelo puder prever a próxima palavra facilmente, a perplexidade do texto será classificada como baixa, mas se a próxima palavra for difícil de prever, a perplexidade do texto será classificada como alta.
O ChatGPT, tal como outros chatbots de inteligência artificial, são treinados para produzir texto de baixa perplexidade, mas isso significa que, se os humanos usarem muitas palavras comuns em um padrão familiar em sua escrita, seu trabalho corre o risco de ser confundido com texto gerado por IA. O risco é maior com falantes não nativos de inglês, dizem os pesquisadores, porque eles são mais propensos a adotar escolhas de palavras mais simples.
Os cientistas revelam, ainda, que voltaram ao ChatGPT e pediram para reescrever as redações do TOEFL usando uma linguagem mais sofisticada. Quando esses trabalhos editados passaram pelos detectores de IA, todos foram rotulados como escritos por humanos. “Paradoxalmente, os detectores GPT podem obrigar os escritores não nativos a usar mais o GPT para evitar a detecção”, disseram eles.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:21
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…
A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…
A OpenAI acabou de lançar uma série de atualizações para desenvolvedores no 9º dia do…
A startup de inteligência artificial (IA) Higgsfield acabou de apresentar o ReelMagic, uma plataforma multiagente…
A OpenAI acaba de anunciar uma expansão significativa do seu recurso de pesquisa ChatGPT no…
O Google acaba de anunciar o lançamento do Veo 2, um modelo de geração de…