Ferramentas de IA e racismo: Um estudo preocupante
Créditos da imagem: Curto News/Bing AI

Ferramentas de IA e racismo: Um estudo preocupante

Um novo estudo revela que ferramentas populares de IA, como ChatGPT da OpenAI e Gemini do Google, perpetuam estereótipos racistas contra falantes do dialeto AAVE (inglês vernacular afro-americano).

A pesquisa demonstra que os modelos de IA discriminam falantes do AAVE, associando-os a menor inteligência e empregabilidade. Isso reforça o racismo estrutural presente na sociedade.

PUBLICIDADE

Evidências

O estudo de Valentin Hoffman e seus colegas demonstra que os modelos de inteligência artificial:

  • Descrevem falantes do AAVE como “estúpidos” e “preguiçosos”.
  • Atribuem falantes do AAVE a empregos com salários mais baixos.
  • São mais propensos a recomendar a pena de morte para réus que usam AAVE.
Causas
  • Modelos de IA aprendem com dados da internet, que podem conter estereótipos racistas.
  • “Guardrails” éticos não eliminam o problema, apenas ensinam os modelos a serem mais discretos em seus preconceitos.
Consequências
  • Discriminação no mercado de trabalho.
  • Perpetuação de estereótipos raciais.
  • Decisões injustas no sistema de justiça criminal.
Soluções
  • Regulamentação federal para o uso de IA em áreas sensíveis.
  • Desenvolvimento de modelos de IA mais justos e equitativos.
  • Conscientização sobre os riscos da IA discriminatória.

O desenvolvimento de ferramentas de IA exige atenção redobrada ao potencial de perpetuação de vieses e discriminações. A regulamentação e o desenvolvimento responsável são essenciais para garantir que a IA seja utilizada de forma justa e ética.

Leia também:

Rolar para cima