Ferramentas que detectam deepfake devem funcionar em todos os tons de pele para evitar vieses, alertam especialistas

As ferramentas de detecção, que estão sendo desenvolvidas para combater a crescente ameaça de deepfakes, – conteúdo falso de aparência realista – devem usar conjuntos de dados de treinamento que incluam todos os tons de pele para evitar vieses, alertaram especialistas.

Publicado por
Isabella Caminoto

A maioria dos detectores de deepfake é baseada em uma estratégia de aprendizado que depende muito do conjunto de dados usado para seu treinamento. Em seguida, eles usam IA para detectar sinais que podem não ser claros ao olho humano.

Isso pode incluir o monitoramento do fluxo sanguíneo e da frequência cardíaca. No entanto, esses métodos de detecção nem sempre funcionam em pessoas com tons de pele mais escuros e, se os conjuntos de treinamento não contiverem todas as etnias, sotaques, gêneros, idades e tons de pele, eles estão sujeitos a vieses, alertaram os especialistas.

Viés sendo construído

Nos últimos dois anos, preocupações foram levantadas por especialistas em IA e detecção de deepfake, que dizem que o viés está sendo construído nesses sistemas.

Rijul Gupta, especialista em mídia sintética e cofundador e CEO da DeepMedia, que usa IA e aprendizado de máquina para avaliar pistas visuais e de áudio para sinais de manipulação sintética, disse: “Os conjuntos de dados são sempre fortemente distorcidos para homens brancos de meia-idade, e isso tipo de tecnologia sempre afeta negativamente as comunidades marginalizadas”.

Escala de Tom de Pele Monk

Ellis Monk, professor de sociologia na Universidade de Harvard e pesquisador visitante do Google, desenvolveu a Escala de Tom de Pele Monk

É uma escala mais inclusiva do que o padrão da indústria de tecnologia e fornecerá um espectro mais amplo de tons de pele que pode ser usado para conjuntos de dados e modelos de aprendizado de máquina.

Monk disse: “As pessoas de pele mais escura foram excluídas de como essas diferentes formas de tecnologia foram desenvolvidas desde o início. É preciso construir novos conjuntos de dados que tenham mais cobertura, mais representatividade em termos de tom de pele e isso significa que você precisa de algum tipo de medida que seja padronizada, consistente e mais representativa do que as escalas anteriores”.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:38

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

OpenAI mira no Chrome com planos de desenvolver seu próprio navegador

A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…

22 de novembro de 2024

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024