Pesquisadores do MIT desenvolvem técnica para proteger imagens contra manipulação por IA

Pesquisadores do Massachusetts Institute of Technology (MIT) desenvolveram uma nova técnica chamada PhotoGuard que pode ser usada para proteger imagens contra manipulação por modelos de inteligência artificial (IA).

Publicado por
Uesley Durães

A técnica usa pequenos ajustes invisíveis aos olhos humanos para confundir os modelos de IA, tornando impossível para eles manipular as imagens. A técnica foi apresentada oficialmente na segunda (31).

Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes. A técnica já foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles.

O desenvolvimento do PhotoGuard é uma resposta aos crescentes riscos de manipulação de imagens por IA. À medida que os modelos de IA se tornam mais poderosos, eles são capazes de manipular imagens de forma mais realista e indistinguível de imagens reais. Isso pode ser usado para fins maliciosos, como espalhar desinformação ou chantagear pessoas.

No vídeo conseguimos entender como a ferramenta funciona:

O PhotoGuard é uma técnica que adiciona pequenas alterações invisíveis aos olhos humanos a uma imagem. Essas alterações são projetadas para confundir os modelos de IA, tornando impossível para eles manipular a imagem.

A ferramenta funciona usando dois métodos diferentes:

  • O ataque de codificador introduz pequenos ajustes na representação matemática da imagem. Isso faz com que o modelo de IA perceba a imagem como uma entidade aleatória.
  • O ataque de difusão introduz pequenos ajustes na imagem real. Isso faz com que a imagem pareça distorcida para o modelo de IA, tornando impossível manipulá-la.

A solução foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles, de acordo com a comunidade do MIT. Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes.

Os pesquisadores do MIT estão atualmente trabalhando para tornar o PhotoGuard disponível ao público. Detalhes sobre lançamento ao público e licença de uso não foram divulgados. 

Veja mais:

Este post foi modificado pela última vez em %s = human-readable time difference 16:03

Uesley Durães

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024