Uma empresa que enviou ligações enganosas para eleitores de New Hampshire, usando inteligência artificial (IA) para imitar a voz de Joe Biden, concordou na quarta-feira (22) em pagar uma multa de US$ 1 milhão e melhorar seus recursos de identificação e autenticação de chamadas, disseram reguladores dos EUA.
A Lingo Telecom, a fornecedora de serviços de voz que transmitiu as chamadas automáticas, aceitou o acordo para resolver uma ação de fiscalização movida pela Comissão Federal de Comunicações (FCC), que inicialmente havia solicitado uma multa de US$ 2 milhões.
Enquanto isso, Steve Kramer, um consultor político que orquestrou as chamadas, ainda enfrenta uma multa proposta de US$ 6 milhões pela FCC, além de acusações criminais estaduais. O caso é visto por muitos como um exemplo preocupante de como a IA pode ser usada para influenciar grupos de eleitores e a democracia como um todo.
As mensagens de voz foram enviadas a milhares de eleitores de New Hampshire em 21 de janeiro. Elas continham uma voz semelhante à de Biden, sugerindo falsamente que votar nas primárias presidenciais do estado impediria os eleitores de votar nas eleições gerais de novembro.
A FCC afirmou que, além de concordar com a multa civil, a Lingo Telecom aceitou regras estritas de autenticação de identificação de chamadas e exigências para verificar com mais rigor a precisão das informações fornecidas por seus clientes e provedores a montante.
“Cada um de nós merece saber que a voz na linha é exatamente quem ela diz ser”, disse Jessica Rosenworcel, presidente da FCC, em um comunicado. “Se a IA está sendo usada, isso deve ser claramente informado a qualquer consumidor, cidadão e eleitor que a encontre. A FCC tomará medidas quando a confiança em nossas redes de comunicação estiver em jogo.”
A Lingo Telecom não respondeu imediatamente a um pedido de comentário. A empresa havia dito anteriormente que discordava fortemente da ação da FCC, chamando-a de uma tentativa de impor novas regras retroativamente.
Kramer, que pagou um mágico e autoproclamado “nômade digital” para criar a gravação, disse no início deste ano que não estava tentando influenciar o resultado das primárias, mas sim destacar os perigos potenciais da IA e incentivar os legisladores a agir.
Se condenado, Kramer pode enfrentar uma sentença de prisão de até sete anos por uma acusação de supressão de eleitores e uma sentença de até um ano por uma acusação de personificação de candidato.
O grupo de defesa do consumidor sem fins lucrativos Public Citizen elogiou a ação da FCC. Robert Weissman, co-presidente do grupo, disse que Rosenworcel estava “completamente certa” ao dizer que os consumidores têm o direito de saber quando estão recebendo conteúdo autêntico e quando estão recebendo deepfakes gerados por IA. Weissman afirmou que o caso ilustra como esses deepfakes representam “uma ameaça existencial à nossa democracia”.
Loyaan Egal, chefe do bureau de fiscalização da FCC, disse que a combinação de falsificação de identificação de chamadas e tecnologia de clonagem de voz gerada por IA representa uma ameaça significativa, “seja nas mãos de operativos domésticos buscando vantagem política ou de adversários estrangeiros sofisticados conduzindo atividades de influência maligna ou interferência eleitoral”.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:20
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…