Inteligência Artificial

Chefe de IA renuncia por polêmica ‘exploratória’ de direitos autorais

Um executivo sênior na empresa de tecnologia Stability AI renunciou. O motivo? A visão da empresa de que é aceitável usar obras protegidas por direitos autorais sem permissão para treinar suas ferramentas.

Publicado por
Juliana Caminoto

Ed Newton-Rex era o chefe de áudio na empresa, sediada no Reino Unido e nos EUA.

Segundo o relato do profissional, ele considerava “exploratório” para qualquer desenvolvedor de inteligência artificial (IA) usar trabalhos criativos sem consentimento.

No entanto, muitas das grandes empresas de IA – incluindo a Stability AI – argumentam que usar conteúdo protegido por direitos autorais é “fair use“.

A isenção de “fair use” das regras de direitos autorais significa que não é necessária a permissão dos proprietários do conteúdo original.

Newton-Rex enfatizou que estava falando sobre todas as empresas de IA que compartilham essa visão – e a maioria delas o faz.

As ferramentas de IA são treinadas usando grandes quantidades de dados, muitos dos quais são frequentemente obtidos, ou “raspados”, da internet sem consentimento.

Ainda, acrescentou que muitas pessoas criam conteúdo “muitas vezes literalmente sem dinheiro, na esperança de que um dia aquele direito autoral valha alguma coisa”. No entanto, sem consentimento, o trabalho delas está sendo usado para criar seus próprios concorrentes e até mesmo potencialmente substituí-las completamente.

Newton-Rex construiu um criador de áudio de IA para seu ex-empregador, chamado Stability Audio, mas disse que optou por licenciar os dados usados para treiná-lo e compartilhar a receita com os detentores dos direitos. Ele reconheceu que esse modelo não funcionaria para todos.

Alguns artistas, incluindo a comediante norte-americana Sarah Silverman e o escritor de Game of Thrones, George RR Martin , iniciaram ações legais contra empresas de IA, argumentando que pegaram no seu trabalho sem permissão e depois usaram-no para treinar produtos que podem recriar conteúdo no seu estilo.

No início deste ano, a Stability AI enfrentou uma ação legal proposta pelo arquivo de imagens Getty, que alegou ter tido 12 milhões de suas imagens copiadas e usadas no treinamento do gerador de imagens de IA, Stable Diffusion.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:43

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024