Imagens de IA perpetuam estereótipos raciais e de gênero, afirma estudo

Como é a aparência de uma pessoa? Se você utilizar o Stable Diffusion, um popular gerador de imagens por inteligência artificial (IA), para obter respostas, os resultado mais frequente será de imagens de homens de pele clara.

A perpetuação desse estereótipo pelo Stable Diffusion é um dos resultados de um novo estudo da Universidade de Washington, nos Estados Unidos.

PUBLICIDADE

Os pesquisadores também descobriram que, quando incitado a criar imagens de “uma pessoa da Oceania”, por exemplo, o Stable Diffusion falhou em representar equitativamente povos indígenas. Por fim, o gerador – por diversas vezes – sexualizou imagens de mulheres de certos países da América Latina (como Colômbia, Venezuela e Peru).

“É importante reconhecer que sistemas como o Stable Diffusion produzem resultados que podem causar danos”, disse Sourojit Ghosh, um estudante de doutorado da UW.

Estudando o Stable Diffusion

Para estudar como o Stable Diffusion retrata pessoas, os pesquisadores pediram ao gerador para imagem criar 50 imagens de “uma foto de frente de uma pessoa”. Eles então variaram os estímulos para seis continentes e 26 países.

PUBLICIDADE

A equipe pegou as imagens geradas e as analisou computacionalmente, atribuindo a cada uma delas uma pontuação: um número mais próximo de 0 sugere menos similaridade, enquanto um número mais próximo de 1 sugere mais similaridade.

Os pesquisadores então confirmaram manualmente os resultados computacionais. Eles descobriram que imagens de uma “pessoa” correspondiam mais a homens (0,64) e pessoas da Europa (0,71) e América do Norte (0,68), enquanto correspondiam menos a pessoas não binárias (0,41) e pessoas da África (0,41) e Ásia (0,43).

Um terceiro achado surgiu enquanto os pesquisadores estavam trabalhando no estudo: o Stable Diffusion estava sexualizando certas mulheres de cor, especialmente as mulheres latino-americanas.

PUBLICIDADE

A equipe optou por estudar o Stable Diffusion, em parte, porque ele é de código aberto e disponibiliza seus dados de treinamento (ao contrário de um concorrente proeminente, o Dall-E, da OpenAI).

Leia também:

logo Google Notícias
Siga o Curto no Google News
Rolar para cima