A técnica usa pequenos ajustes invisíveis aos olhos humanos para confundir os modelos de IA, tornando impossível para eles manipular as imagens. A técnica foi apresentada oficialmente na segunda (31).
PUBLICIDADE
Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes. A técnica já foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles.
O desenvolvimento do PhotoGuard é uma resposta aos crescentes riscos de manipulação de imagens por IA. À medida que os modelos de IA se tornam mais poderosos, eles são capazes de manipular imagens de forma mais realista e indistinguível de imagens reais. Isso pode ser usado para fins maliciosos, como espalhar desinformação ou chantagear pessoas.
No vídeo conseguimos entender como a ferramenta funciona:
O PhotoGuard é uma técnica que adiciona pequenas alterações invisíveis aos olhos humanos a uma imagem. Essas alterações são projetadas para confundir os modelos de IA, tornando impossível para eles manipular a imagem.
PUBLICIDADE
A ferramenta funciona usando dois métodos diferentes:
- O ataque de codificador introduz pequenos ajustes na representação matemática da imagem. Isso faz com que o modelo de IA perceba a imagem como uma entidade aleatória.
- O ataque de difusão introduz pequenos ajustes na imagem real. Isso faz com que a imagem pareça distorcida para o modelo de IA, tornando impossível manipulá-la.
A solução foi testada em vários modelos de IA diferentes e se mostrou eficaz na proteção contra manipulação em todos eles, de acordo com a comunidade do MIT. Os pesquisadores acreditam que o PhotoGuard pode ser usado para proteger uma ampla gama de imagens, incluindo fotos pessoais, imagens de notícias e evidências de crimes.
Os pesquisadores do MIT estão atualmente trabalhando para tornar o PhotoGuard disponível ao público. Detalhes sobre lançamento ao público e licença de uso não foram divulgados.
Veja mais: