Inteligência Artificial

Microsoft pede proibição de fraudes por deepfakes gerados por IA

Publicado por
Vinicius Siqueira

A Microsoft está pedindo ao Congresso dos Estados Unidos que regule o uso de deepfakes gerados por inteligência artificial (IA) para proteger contra fraudes, abusos e manipulação. O vice-presidente da Microsoft, Brad Smith, está fazendo um apelo urgente aos legisladores para proteger as eleições, os idosos de fraudes e as crianças de abusos.

“Embora o setor de tecnologia e grupos sem fins lucrativos tenham tomado medidas recentes para resolver esse problema, ficou evidente que nossas leis também precisarão evoluir para combater fraudes com deepfakes”, diz Smith em um post no blog. “Uma das coisas mais importantes que os EUA podem fazer é aprovar uma legislação abrangente contra fraudes com deepfakes para impedir que cibercriminosos usem essa tecnologia para roubar de americanos comuns.”

A Microsoft quer uma “legislação contra fraudes com deepfakes” que forneça às autoridades policiais uma estrutura legal para processar golpes e fraudes gerados por IA. Smith também pede aos legisladores que “garantam que nossas leis federais e estaduais sobre exploração e abuso sexual infantil e imagens íntimas não consensuais sejam atualizadas para incluir conteúdo gerado por IA.”

O Senado aprovou recentemente um projeto de lei que reprime os deepfakes sexualmente explícitos, permitindo que vítimas de deepfakes sexualmente explícitos não consensuais processem seus criadores por danos. O projeto foi aprovado meses depois que estudantes de ensino médio foram descobertos fabricando imagens explícitas de colegas de classe femininas e trolls inundaram o X com deepfakes gráficos gerados por IA de Taylor Swift.

A Microsoft teve que implementar mais controles de segurança para seus próprios produtos de IA depois que uma brecha no criador de imagens AI Designer da empresa permitiu que pessoas criassem imagens explícitas de celebridades como Swift. “O setor privado tem a responsabilidade de inovar e implementar salvaguardas que impeçam o uso indevido da IA”, diz Smith.

Enquanto a FCC já proibiu ligações automáticas com vozes geradas por IA, a IA generativa facilita a criação de áudio, imagens e vídeos falsos — algo que já estamos vendo no período que antecede a eleição presidencial de 2024. Elon Musk compartilhou um vídeo deepfake satirizando a vice-presidente Kamala Harris no X no início desta semana, em uma postagem que parece violar as próprias políticas do X contra mídia sintética e manipulada.

A Microsoft quer que postagens como a de Musk sejam claramente rotuladas como deepfakes. “O Congresso deve exigir que os provedores de sistemas de IA usem ferramentas de procedência de última geração para rotular conteúdo sintético”, diz Smith. “Isso é essencial para construir confiança no ecossistema de informações e ajudará o público a entender melhor se o conteúdo é gerado ou manipulado por IA.”

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:59

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024