Pesquisadores do MIT desenvolvem técnica para proteger imagens contra manipulação por IA

Pesquisadores do Massachusetts Institute of Technology (MIT) desenvolveram uma nova técnica chamada PhotoGuard que pode ser usada para proteger imagens contra manipulação por modelos de inteligência artificial (IA).

Publicado por
Uesley Durães

A técnica usa pequenos ajustes invisíveis aos olhos humanos para confundir os modelos de IA, tornando impossível para eles manipular as imagens. A técnica foi apresentada oficialmente na segunda (31).

Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes. A técnica já foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles.

O desenvolvimento do PhotoGuard é uma resposta aos crescentes riscos de manipulação de imagens por IA. À medida que os modelos de IA se tornam mais poderosos, eles são capazes de manipular imagens de forma mais realista e indistinguível de imagens reais. Isso pode ser usado para fins maliciosos, como espalhar desinformação ou chantagear pessoas.

No vídeo conseguimos entender como a ferramenta funciona:

O PhotoGuard é uma técnica que adiciona pequenas alterações invisíveis aos olhos humanos a uma imagem. Essas alterações são projetadas para confundir os modelos de IA, tornando impossível para eles manipular a imagem.

A ferramenta funciona usando dois métodos diferentes:

  • O ataque de codificador introduz pequenos ajustes na representação matemática da imagem. Isso faz com que o modelo de IA perceba a imagem como uma entidade aleatória.
  • O ataque de difusão introduz pequenos ajustes na imagem real. Isso faz com que a imagem pareça distorcida para o modelo de IA, tornando impossível manipulá-la.

A solução foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles, de acordo com a comunidade do MIT. Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes.

Os pesquisadores do MIT estão atualmente trabalhando para tornar o PhotoGuard disponível ao público. Detalhes sobre lançamento ao público e licença de uso não foram divulgados. 

Veja mais:

Este post foi modificado pela última vez em %s = human-readable time difference 16:03

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024