Créditos da imagem: Curto News/Bing Image Creator

Microsoft pede proibição de fraudes por deepfakes gerados por IA

A Microsoft está pedindo ao Congresso dos Estados Unidos que regule o uso de deepfakes gerados por inteligência artificial (IA) para proteger contra fraudes, abusos e manipulação. O vice-presidente da Microsoft, Brad Smith, está fazendo um apelo urgente aos legisladores para proteger as eleições, os idosos de fraudes e as crianças de abusos.

PUBLICIDADE

“Embora o setor de tecnologia e grupos sem fins lucrativos tenham tomado medidas recentes para resolver esse problema, ficou evidente que nossas leis também precisarão evoluir para combater fraudes com deepfakes”, diz Smith em um post no blog. “Uma das coisas mais importantes que os EUA podem fazer é aprovar uma legislação abrangente contra fraudes com deepfakes para impedir que cibercriminosos usem essa tecnologia para roubar de americanos comuns.”

A Microsoft quer uma “legislação contra fraudes com deepfakes” que forneça às autoridades policiais uma estrutura legal para processar golpes e fraudes gerados por IA. Smith também pede aos legisladores que “garantam que nossas leis federais e estaduais sobre exploração e abuso sexual infantil e imagens íntimas não consensuais sejam atualizadas para incluir conteúdo gerado por IA.”

O Senado aprovou recentemente um projeto de lei que reprime os deepfakes sexualmente explícitos, permitindo que vítimas de deepfakes sexualmente explícitos não consensuais processem seus criadores por danos. O projeto foi aprovado meses depois que estudantes de ensino médio foram descobertos fabricando imagens explícitas de colegas de classe femininas e trolls inundaram o X com deepfakes gráficos gerados por IA de Taylor Swift.

PUBLICIDADE

A Microsoft teve que implementar mais controles de segurança para seus próprios produtos de IA depois que uma brecha no criador de imagens AI Designer da empresa permitiu que pessoas criassem imagens explícitas de celebridades como Swift. “O setor privado tem a responsabilidade de inovar e implementar salvaguardas que impeçam o uso indevido da IA”, diz Smith.

Enquanto a FCC já proibiu ligações automáticas com vozes geradas por IA, a IA generativa facilita a criação de áudio, imagens e vídeos falsos — algo que já estamos vendo no período que antecede a eleição presidencial de 2024. Elon Musk compartilhou um vídeo deepfake satirizando a vice-presidente Kamala Harris no X no início desta semana, em uma postagem que parece violar as próprias políticas do X contra mídia sintética e manipulada.

A Microsoft quer que postagens como a de Musk sejam claramente rotuladas como deepfakes. “O Congresso deve exigir que os provedores de sistemas de IA usem ferramentas de procedência de última geração para rotular conteúdo sintético”, diz Smith. “Isso é essencial para construir confiança no ecossistema de informações e ajudará o público a entender melhor se o conteúdo é gerado ou manipulado por IA.”

PUBLICIDADE

Leia também:

Rolar para cima