O uso de IA para interferir na integridade eleitoral tem sido uma preocupação desde que a empresa apoiada pela Microsoft lançou dois produtos: o ChatGPT, que pode imitar a escrita humana de forma convincente, e DALL-E, cuja tecnologia pode ser usada para criar imagens “deepfakes“.
PUBLICIDADE
OpenAI seeks to curb election meddling fears as 2024 presidential race heats up https://t.co/7hStPq99iq pic.twitter.com/Nsm16SevDS
— New York Post (@nypost) January 15, 2024
Os preocupados incluem o próprio CEO da OpenAI, Sam Altman, que em maio do ano passado disse que estava “nervoso” com a capacidade da IA generativa de comprometer a integridade eleitoral através de “desinformação interativa individual”.
A OpenAI disse está trabalhando com a Associação Nacional de Secretários de Estado, uma organização que se concentra na promoção de processos democráticos eficazes – como as eleições – para resguardar as eleições presidenciais que acontecerão este ano nos Estados Unidos.
O ChatGPT direcionará os usuários para o CanIVote.org quando forem feitas certas perguntas relacionadas às eleições, disse a OpenAI.
PUBLICIDADE
A empresa também afirmou que está trabalhando para tornar mais óbvio quando as imagens são geradas por IA usando DALL-E, e está planejando colocar um ícone “cr” nas imagens para indicar que foram geradas pela tecnologia.
Em sua postagem no blog, a OpenAI enfatizou que suas políticas proíbem que sua tecnologia seja usada de maneiras que ela identificou como potencialmente abusivas, como criar chatbots fingindo ser pessoas reais ou desencorajar a votação. Também proíbe o DALL-E de criar imagens de pessoas reais, incluindo candidatos políticos, relatou.
Leia também: