A petição apresentada pelos moderadores refere-se a um contrato entre a OpenAI e a Sama – uma empresa de serviços de anotação de dados, com sede na Califórnia, que emprega moderadores de conteúdo em todo o mundo.
PUBLICIDADE
Os moderadores de conteúdo alegam que, enquanto trabalhavam para a Sama em 2021 e 2022 em Nairóbi, sofreram trauma psicológico, baixo salário e demissão abrupta ao revisar o conteúdo da OpenAI.
Os 51 moderadores que trabalhavam na conta da OpenAI, foram encarregados de revisar textos e algumas imagens, muitas retratando cenas gráficas de violência, automutilação, assassinato, estupro, necrofilia, abuso infantil, bestialidade e incesto, dizem os demandantes.
Os moderadores afirmam que não foram adequadamente avisados sobre a brutalidade de alguns dos textos e imagens que seriam encarregados de revisar, bem como não receberam nenhum apoio psicológico. Os trabalhadores ganhavam entre US$ 1,46 e US$ 3,74 por hora, de acordo com um porta-voz da Sama.
PUBLICIDADE
O que dizem as contratantes
A OpenAI se recusou a comentar esta história.
A Sama, por sua vez, disse que os moderadores tinham acesso a terapeutas de saúde mental licenciados 24 horas por dia, sete dias por semana, e recebiam benefícios médicos para reembolsar psiquiatras.
Em relação às alegações de demissão abrupta, o porta-voz da Sama afirmou que a empresa avisou plenamente aos funcionários que estava se desvinculando do projeto do ChatGPT.
O trabalho humano impulsionando o boom da IA
Bots como o ChatGPT são exemplos de grandes modelos de linguagem, um tipo de algoritmo de IA que ensina os computadores a aprender pelo exemplo. Para ensinar Bard, Bing ou ChatGPT a reconhecer comandos que gerariam materiais nocivos, os algoritmos devem ser alimentados com exemplos de discurso de ódio, violência e abuso sexual.
PUBLICIDADE
O trabalho de alimentar os exemplos de algoritmos é um negócio em crescimento, e a indústria de coleta e rotulagem de dados deve crescer para mais de US$ 14 bilhões até 2030, de acordo com a GlobalData, uma empresa de análise e consultoria de dados.
Grande parte desse trabalho de rotulagem é realizado a milhares de quilômetros do Vale do Silício, no leste da África, Índia, Filipinas e até mesmo por refugiados que vivem no Quênia e no Líbano. Nos últimos anos, devido a uma crise econômica em andamento, Nairóbi tornou-se um ponto de acesso global para esse tipo de serviço.
A tarefa de rotulagem de dados é, na melhor das hipóteses, monótona e, na pior, traumatizante, disseram os peticionários.
PUBLICIDADE
As empresas têm uma responsabilidade significativa
Os ex-moderadores do ChatGPT estão pedindo uma nova legislação para regular como o “trabalho de tecnologia prejudicial e perigoso” é terceirizado no Quênia e para que as leis existentes “incluam a exposição a conteúdo nocivo como um risco ocupacional”, de acordo com a petição. Eles também querem investigar como o Ministério do Trabalho do país falhou em proteger os jovens quenianos de empresas terceirizadas.
O Ministério do Trabalho do Quênia se recusou a comentar a petição.
Mas empresas como a OpenAI também têm uma responsabilidade significativa, disse Cori Crider, diretora da Foxglove, uma ONG legal sem fins lucrativos que está apoiando o caso. “Os moderadores de conteúdo trabalham para empresas de tecnologia como OpenAI e Facebook em tudo, menos no nome”, disse Crider em um comunicado. “A terceirização desses trabalhadores é uma tática das empresas de tecnologia para se distanciar das péssimas condições de trabalho que os moderadores de conteúdo suportam.”
PUBLICIDADE
‘It’s destroyed me completely’: Kenyan moderators decry toll of training of AI models https://t.co/Adbihx16Ry
— Guardian Tech (@guardiantech) August 2, 2023
Leia também: