Trauma psicológico, baixo salário e demissões abruptas: moderadores de conteúdo quenianos criticam o treinamento de modelos de IA

Moderadores de conteúdo que alimentam programas de inteligência artificial (IA) entraram com uma petição ao governo queniano pedindo uma investigação sobre o que eles descrevem como condições de exploração.

Publicado por
Isabella Caminoto

A petição apresentada pelos moderadores refere-se a um contrato entre a OpenAI e a Sama – uma empresa de serviços de anotação de dados, com sede na Califórnia, que emprega moderadores de conteúdo em todo o mundo. 

Os moderadores de conteúdo alegam que, enquanto trabalhavam para a Sama em 2021 e 2022 em Nairóbi, sofreram trauma psicológico, baixo salário e demissão abrupta ao revisar o conteúdo da OpenAI.

Os 51 moderadores que trabalhavam na conta da OpenAI, foram encarregados de revisar textos e algumas imagens, muitas retratando cenas gráficas de violência, automutilação, assassinato, estupro, necrofilia, abuso infantil, bestialidade e incesto, dizem os demandantes.

Os moderadores afirmam que não foram adequadamente avisados ​​sobre a brutalidade de alguns dos textos e imagens que seriam encarregados de revisar, bem como não receberam nenhum apoio psicológico. Os trabalhadores ganhavam entre US$ 1,46 e US$ 3,74 por hora, de acordo com um porta-voz da Sama.

O que dizem as contratantes

A OpenAI se recusou a comentar esta história.

A Sama, por sua vez, disse que os moderadores tinham acesso a terapeutas de saúde mental licenciados 24 horas por dia, sete dias por semana, e recebiam benefícios médicos para reembolsar psiquiatras.

Em relação às alegações de demissão abrupta, o porta-voz da Sama afirmou que a empresa avisou plenamente aos funcionários que estava se desvinculando do projeto do ChatGPT.

O trabalho humano impulsionando o boom da IA

Bots como o ChatGPT são exemplos de grandes modelos de linguagem, um tipo de algoritmo de IA que ensina os computadores a aprender pelo exemplo. Para ensinar Bard, Bing ou ChatGPT a reconhecer comandos que gerariam materiais nocivos, os algoritmos devem ser alimentados com exemplos de discurso de ódio, violência e abuso sexual. 

O trabalho de alimentar os exemplos de algoritmos é um negócio em crescimento, e a indústria de coleta e rotulagem de dados deve crescer para mais de US$ 14 bilhões até 2030, de acordo com a GlobalData, uma empresa de análise e consultoria de dados.

Grande parte desse trabalho de rotulagem é realizado a milhares de quilômetros do Vale do Silício, no leste da África, Índia, Filipinas e até mesmo por refugiados que vivem no Quênia e no Líbano. Nos últimos anos, devido a uma crise econômica em andamento, Nairóbi tornou-se um ponto de acesso global para esse tipo de serviço.

A tarefa de rotulagem de dados é, na melhor das hipóteses, monótona e, na pior, traumatizante, disseram os peticionários. 

As empresas têm uma responsabilidade significativa

Os ex-moderadores do ChatGPT estão pedindo uma nova legislação para regular como o “trabalho de tecnologia prejudicial e perigoso” é terceirizado no Quênia e para que as leis existentes “incluam a exposição a conteúdo nocivo como um risco ocupacional”, de acordo com a petição. Eles também querem investigar como o Ministério do Trabalho do país falhou em proteger os jovens quenianos de empresas terceirizadas.

O Ministério do Trabalho do Quênia se recusou a comentar a petição.

Mas empresas como a OpenAI também têm uma responsabilidade significativa, disse Cori Crider, diretora da Foxglove, uma ONG legal sem fins lucrativos que está apoiando o caso. “Os moderadores de conteúdo trabalham para empresas de tecnologia como OpenAI e Facebook em tudo, menos no nome”, disse Crider em um comunicado. “A terceirização desses trabalhadores é uma tática das empresas de tecnologia para se distanciar das péssimas condições de trabalho que os moderadores de conteúdo suportam.”

Leia também:

* O texto desta matéria foi parcialmente gerado por ferramentas de inteligência artificial, modelos de linguagem de última geração que auxiliam na elaboração, revisão, tradução e resumos de textos. As entradas de texto foram criadas pela equipe do Curto News e as respostas das ferramentas de IA foram utilizadas para aprimorar o conteúdo final.
É importante destacar que as ferramentas de IA são apenas ferramentas, e a responsabilidade final pelo conteúdo publicado é do Curto News. Ao utilizarmos essas ferramentas de forma responsável e ética, nosso objetivo é ampliar as possibilidades da comunicação e democratizar o acesso à informação de qualidade.
🤖

Este post foi modificado pela última vez em 8 de agosto de 2023 22:30

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

EUA consideram restrições ao acesso da China a softwares de IA por trás de aplicativos como ChatGPT

A administração Biden está pronta para abrir uma nova frente em seu esforço para proteger…

8 de maio de 2024

Google DeepMind revela próxima geração de IA para medicamentos

O Google DeepMind revelou a terceira versão principal de seu modelo de inteligência artificial (IA)…

8 de maio de 2024

AICUT: IA transforma suas palavras em vídeos em minutos

AICUT é uma ferramenta que utiliza inteligência artificial (IA) para gerar automaticamente vídeos curtos a…

8 de maio de 2024

Temperaturas globais atingem recorde em abril

Um novo relatório divulgado pelo serviço de monitoramento climático da União Europeia, Copernicus, informou que…

8 de maio de 2024

Como surgiu a inteligência artificial (IA)? De sci-fi até o futuro

A inteligência artificial (IA) já não é mais um conceito futurista de filmes de ficção…

7 de maio de 2024

Beautiful.ai: Crie apresentações de slides conjuntas com IA

O Beautiful.ai é um software de apresentações online que utiliza inteligência artificial (IA) para criar…

7 de maio de 2024