Trauma psicológico, baixo salário e demissões abruptas: moderadores de conteúdo quenianos criticam o treinamento de modelos de IA

Moderadores de conteúdo que alimentam programas de inteligência artificial (IA) entraram com uma petição ao governo queniano pedindo uma investigação sobre o que eles descrevem como condições de exploração.

A petição apresentada pelos moderadores refere-se a um contrato entre a OpenAI e a Sama – uma empresa de serviços de anotação de dados, com sede na Califórnia, que emprega moderadores de conteúdo em todo o mundo. 

PUBLICIDADE

Os moderadores de conteúdo alegam que, enquanto trabalhavam para a Sama em 2021 e 2022 em Nairóbi, sofreram trauma psicológico, baixo salário e demissão abrupta ao revisar o conteúdo da OpenAI.

Os 51 moderadores que trabalhavam na conta da OpenAI, foram encarregados de revisar textos e algumas imagens, muitas retratando cenas gráficas de violência, automutilação, assassinato, estupro, necrofilia, abuso infantil, bestialidade e incesto, dizem os demandantes.

Os moderadores afirmam que não foram adequadamente avisados ​​sobre a brutalidade de alguns dos textos e imagens que seriam encarregados de revisar, bem como não receberam nenhum apoio psicológico. Os trabalhadores ganhavam entre US$ 1,46 e US$ 3,74 por hora, de acordo com um porta-voz da Sama.

PUBLICIDADE

O que dizem as contratantes

A OpenAI se recusou a comentar esta história.

A Sama, por sua vez, disse que os moderadores tinham acesso a terapeutas de saúde mental licenciados 24 horas por dia, sete dias por semana, e recebiam benefícios médicos para reembolsar psiquiatras.

Em relação às alegações de demissão abrupta, o porta-voz da Sama afirmou que a empresa avisou plenamente aos funcionários que estava se desvinculando do projeto do ChatGPT.

O trabalho humano impulsionando o boom da IA

Bots como o ChatGPT são exemplos de grandes modelos de linguagem, um tipo de algoritmo de IA que ensina os computadores a aprender pelo exemplo. Para ensinar Bard, Bing ou ChatGPT a reconhecer comandos que gerariam materiais nocivos, os algoritmos devem ser alimentados com exemplos de discurso de ódio, violência e abuso sexual. 

PUBLICIDADE

O trabalho de alimentar os exemplos de algoritmos é um negócio em crescimento, e a indústria de coleta e rotulagem de dados deve crescer para mais de US$ 14 bilhões até 2030, de acordo com a GlobalData, uma empresa de análise e consultoria de dados.

Grande parte desse trabalho de rotulagem é realizado a milhares de quilômetros do Vale do Silício, no leste da África, Índia, Filipinas e até mesmo por refugiados que vivem no Quênia e no Líbano. Nos últimos anos, devido a uma crise econômica em andamento, Nairóbi tornou-se um ponto de acesso global para esse tipo de serviço.

A tarefa de rotulagem de dados é, na melhor das hipóteses, monótona e, na pior, traumatizante, disseram os peticionários. 

PUBLICIDADE

As empresas têm uma responsabilidade significativa

Os ex-moderadores do ChatGPT estão pedindo uma nova legislação para regular como o “trabalho de tecnologia prejudicial e perigoso” é terceirizado no Quênia e para que as leis existentes “incluam a exposição a conteúdo nocivo como um risco ocupacional”, de acordo com a petição. Eles também querem investigar como o Ministério do Trabalho do país falhou em proteger os jovens quenianos de empresas terceirizadas.

O Ministério do Trabalho do Quênia se recusou a comentar a petição.

Mas empresas como a OpenAI também têm uma responsabilidade significativa, disse Cori Crider, diretora da Foxglove, uma ONG legal sem fins lucrativos que está apoiando o caso. “Os moderadores de conteúdo trabalham para empresas de tecnologia como OpenAI e Facebook em tudo, menos no nome”, disse Crider em um comunicado. “A terceirização desses trabalhadores é uma tática das empresas de tecnologia para se distanciar das péssimas condições de trabalho que os moderadores de conteúdo suportam.”

PUBLICIDADE

Leia também:

Rolar para cima