Créditos da imagem: Curto News/Bing Image Creator

Relatório da OpenAI mostra uso de IA para campanhas de desinformação

A OpenAI divulgou na quinta-feira (30) seu primeiro relatório sobre como suas ferramentas de inteligência artificial (IA) estão sendo usadas para operações de influência indevida, revelando que a empresa interrompeu campanhas de desinformação originárias da Rússia, China, Israel e Irã.

PUBLICIDADE

Atores mal-intencionados usaram os modelos de IA generativa da empresa para criar e postar conteúdo de propaganda nas plataformas de mídia social, e para traduzir seu conteúdo para diferentes idiomas. Nenhuma das campanhas ganhou tração ou atingiu grandes audiências, de acordo com o relatório.

À medida que a IA generativa se tornou uma indústria em crescimento, houve uma preocupação generalizada entre pesquisadores e legisladores sobre seu potencial para aumentar a quantidade e a qualidade da desinformação online. Empresas de inteligência artificial, como a OpenAI, dona do ChatGPT, têm tentado, com resultados mistos, amenizar essas preocupações e colocar restrições em sua tecnologia.

O relatório de 39 páginas da OpenAI é um dos relatos mais detalhados de uma empresa de inteligência artificial sobre o uso de seu software para propaganda. A OpenAI afirmou que seus pesquisadores encontraram e baniram contas associadas a cinco operações de influência clandestina nos últimos três meses, que eram de uma mistura de atores estatais e privados.

PUBLICIDADE

Na Rússia, duas operações criaram e espalharam conteúdo criticando os EUA, a Ucrânia e várias nações bálticas. Uma das operações usou um modelo da OpenAI para depurar código e criar um bot que postou no Telegram. A operação de influência da China gerou textos em inglês, chinês, japonês e coreano, que os operativos então postaram no Twitter e no Medium.

Atores iranianos geraram artigos completos que atacavam os EUA e Israel, que eles traduziram para inglês e francês. Uma empresa política israelense chamada Stoic operava uma rede de contas falsas nas redes sociais que criavam uma variedade de conteúdo, incluindo postagens acusando os protestos estudantis nos EUA contra a guerra de Israel em Gaza de serem antissemitas.

Vários dos disseminadores de desinformação que a OpenAI baniu de sua plataforma já eram conhecidos por pesquisadores e autoridades. O Tesouro dos EUA sancionou dois russos em março que estavam supostamente por trás de uma das campanhas que a OpenAI detectou, enquanto a Meta também baniu a Stoic de sua plataforma este ano por violar suas políticas.

PUBLICIDADE

O relatório também destaca como a IA generativa está sendo incorporada em campanhas de desinformação como um meio de melhorar certos aspectos da geração de conteúdo, como fazer postagens em idiomas estrangeiros mais convincentes, mas que não é a única ferramenta para propaganda.

“Todas essas operações usaram IA até certo ponto, mas nenhuma a usou exclusivamente”, afirmou o relatório. “Em vez disso, material gerado por IA era apenas um dos muitos tipos de conteúdo que postavam, juntamente com formatos mais tradicionais, como textos escritos manualmente ou memes copiados da internet.”

Embora nenhuma das campanhas tenha resultado em qualquer impacto notável, o uso da tecnologia mostra como atores mal-intencionados estão descobrindo que a IA generativa permite que aumentem a produção de propaganda. Escrever, traduzir e postar conteúdo pode agora ser feito de forma mais eficiente através do uso de ferramentas de IA, reduzindo a barreira para criar campanhas de desinformação.

PUBLICIDADE

No último ano, atores mal-intencionados usaram IA generativa em países ao redor do mundo para tentar influenciar a política e a opinião pública. Áudio deepfake, imagens geradas por IA e campanhas baseadas em texto foram empregadas para perturbar campanhas eleitorais, levando a uma pressão crescente sobre empresas como a OpenAI para restringirem o uso de suas ferramentas.

A OpenAI afirmou que planeja divulgar periodicamente relatórios semelhantes sobre operações de influência clandestina, além de remover contas que violem suas políticas.

Leia também:

Rolar para cima