Inteligência Artificial

Relatório da OpenAI mostra uso de IA para campanhas de desinformação

Publicado por
Vinicius Siqueira

A OpenAI divulgou na quinta-feira (30) seu primeiro relatório sobre como suas ferramentas de inteligência artificial (IA) estão sendo usadas para operações de influência indevida, revelando que a empresa interrompeu campanhas de desinformação originárias da Rússia, China, Israel e Irã.

Atores mal-intencionados usaram os modelos de IA generativa da empresa para criar e postar conteúdo de propaganda nas plataformas de mídia social, e para traduzir seu conteúdo para diferentes idiomas. Nenhuma das campanhas ganhou tração ou atingiu grandes audiências, de acordo com o relatório.

À medida que a IA generativa se tornou uma indústria em crescimento, houve uma preocupação generalizada entre pesquisadores e legisladores sobre seu potencial para aumentar a quantidade e a qualidade da desinformação online. Empresas de inteligência artificial, como a OpenAI, dona do ChatGPT, têm tentado, com resultados mistos, amenizar essas preocupações e colocar restrições em sua tecnologia.

O relatório de 39 páginas da OpenAI é um dos relatos mais detalhados de uma empresa de inteligência artificial sobre o uso de seu software para propaganda. A OpenAI afirmou que seus pesquisadores encontraram e baniram contas associadas a cinco operações de influência clandestina nos últimos três meses, que eram de uma mistura de atores estatais e privados.

Na Rússia, duas operações criaram e espalharam conteúdo criticando os EUA, a Ucrânia e várias nações bálticas. Uma das operações usou um modelo da OpenAI para depurar código e criar um bot que postou no Telegram. A operação de influência da China gerou textos em inglês, chinês, japonês e coreano, que os operativos então postaram no Twitter e no Medium.

Atores iranianos geraram artigos completos que atacavam os EUA e Israel, que eles traduziram para inglês e francês. Uma empresa política israelense chamada Stoic operava uma rede de contas falsas nas redes sociais que criavam uma variedade de conteúdo, incluindo postagens acusando os protestos estudantis nos EUA contra a guerra de Israel em Gaza de serem antissemitas.

Vários dos disseminadores de desinformação que a OpenAI baniu de sua plataforma já eram conhecidos por pesquisadores e autoridades. O Tesouro dos EUA sancionou dois russos em março que estavam supostamente por trás de uma das campanhas que a OpenAI detectou, enquanto a Meta também baniu a Stoic de sua plataforma este ano por violar suas políticas.

O relatório também destaca como a IA generativa está sendo incorporada em campanhas de desinformação como um meio de melhorar certos aspectos da geração de conteúdo, como fazer postagens em idiomas estrangeiros mais convincentes, mas que não é a única ferramenta para propaganda.

“Todas essas operações usaram IA até certo ponto, mas nenhuma a usou exclusivamente”, afirmou o relatório. “Em vez disso, material gerado por IA era apenas um dos muitos tipos de conteúdo que postavam, juntamente com formatos mais tradicionais, como textos escritos manualmente ou memes copiados da internet.”

Embora nenhuma das campanhas tenha resultado em qualquer impacto notável, o uso da tecnologia mostra como atores mal-intencionados estão descobrindo que a IA generativa permite que aumentem a produção de propaganda. Escrever, traduzir e postar conteúdo pode agora ser feito de forma mais eficiente através do uso de ferramentas de IA, reduzindo a barreira para criar campanhas de desinformação.

No último ano, atores mal-intencionados usaram IA generativa em países ao redor do mundo para tentar influenciar a política e a opinião pública. Áudio deepfake, imagens geradas por IA e campanhas baseadas em texto foram empregadas para perturbar campanhas eleitorais, levando a uma pressão crescente sobre empresas como a OpenAI para restringirem o uso de suas ferramentas.

A OpenAI afirmou que planeja divulgar periodicamente relatórios semelhantes sobre operações de influência clandestina, além de remover contas que violem suas políticas.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 16:38

Vinicius Siqueira

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024