Programas para detectar IA discriminam falantes não nativos de inglês, mostra estudo

Programas de computador usados ​​para detectar redações, pedidos de emprego e outros trabalhos gerados por inteligência artificial (IA) podem discriminar pessoas que não são falantes nativos de inglês, diz a pesquisa.

Publicado por
Isabella Caminoto

Testes em sete populares detectores de texto de IA descobriram que artigos escritos por pessoas que não falam inglês como primeira língua eram frequentemente sinalizados erroneamente como gerados por IA, um viés que poderia ter um sério impacto em estudantes, acadêmicos e candidatos a empregos.

Com o surgimento do ChatGPT, muitos professores agora consideram a detecção de IA como uma “contramedida crítica para impedir uma forma de trapaça do século 21”, mas os pesquisadores alertam que a precisão de 99% reivindicada por alguns detectores é “na melhor das hipóteses enganosa”.

Cientistas liderados por James Zou, professor na Universidade de Stanford, executaram 91 testes em trabalhos escritos em inglês por falantes não nativos da língua, por meio de sete detectores populares de IA, para ver o desempenho dos programas.

Mais da metade das redações – que foram escritas para um teste de proficiência em inglês conhecido como Teste de Inglês como Língua Estrangeira, ou TOEFL – foram sinalizadas como geradas por IA, com um programa sinalizando 98% das redações como compostas por IA. 

Por outro lado, quando foram analisados os trabalhos escritos por alunos norte-americanos, que tem a língua inglesa como nativa, os mesmos detectores de IA classificaram mais de 90% como gerados por humanos.

Escrevendo na revista Patterns, os cientistas expuseram a discriminação à maneira como os detectores avaliam o que é humano e o que é gerado por IA. Os programas analisam o que é chamado de “perplexidade do texto”, que é uma medida de quão “surpreso” ou “confuso” um modelo de linguagem generativa está ao tentar prever a próxima palavra em uma frase. Se o modelo puder prever a próxima palavra facilmente, a perplexidade do texto será classificada como baixa, mas se a próxima palavra for difícil de prever, a perplexidade do texto será classificada como alta.

O ChatGPT, tal como outros chatbots de inteligência artificial, são treinados para produzir texto de baixa perplexidade, mas isso significa que, se os humanos usarem muitas palavras comuns em um padrão familiar em sua escrita, seu trabalho corre o risco de ser confundido com texto gerado por IA. O risco é maior com falantes não nativos de inglês, dizem os pesquisadores, porque eles são mais propensos a adotar escolhas de palavras mais simples.

Os cientistas revelam, ainda, que voltaram ao ChatGPT e pediram para reescrever as redações do TOEFL usando uma linguagem mais sofisticada. Quando esses trabalhos editados passaram pelos detectores de IA, todos foram rotulados como escritos por humanos. “Paradoxalmente, os detectores GPT podem obrigar os escritores não nativos a usar mais o GPT para evitar a detecção”, disseram eles.

Leia também:

Este post foi modificado pela última vez em 10 de julho de 2023 14:21

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Órgão da ONU faz recomendações para governar a IA

Um órgão consultivo de inteligência artificial (IA) das Nações Unidas divulgou na quinta-feira (19) seu…

19 de setembro de 2024

YouTube usará IA para gerar ideias, títulos e até vídeos completos

A inteligência artificial (IA) está se espalhando por todo o portfólio de produtos do Google…

19 de setembro de 2024

LinkedIn está treinando modelos de IA com seus dados

O LinkedIn começou a usar os dados de seus usuários para treinar modelos de inteligência…

19 de setembro de 2024

Lionsgate fecha acordo com empresa de IA para explorar seu vasto catálogo de filmes e séries de TV

A startup de inteligência artificial (IA) Runway fez um nome para si mesma construindo modelos…

18 de setembro de 2024

Golpes com deepfake: sua voz pode ser clonada e usada contra você

Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em…

18 de setembro de 2024

Novo modelo da 1X ajuda robôs a agir no mundo; veja como

A 1X desenvolveu seu ‘World Model’, um simulador virtual alimentado por inteligência artificial (IA) para…

18 de setembro de 2024