Inteligência Artificial

Chefe de IA renuncia por polêmica ‘exploratória’ de direitos autorais

Um executivo sênior na empresa de tecnologia Stability AI renunciou. O motivo? A visão da empresa de que é aceitável usar obras protegidas por direitos autorais sem permissão para treinar suas ferramentas.

Publicado por
Juliana Caminoto

Ed Newton-Rex era o chefe de áudio na empresa, sediada no Reino Unido e nos EUA.

Segundo o relato do profissional, ele considerava “exploratório” para qualquer desenvolvedor de inteligência artificial (IA) usar trabalhos criativos sem consentimento.

No entanto, muitas das grandes empresas de IA – incluindo a Stability AI – argumentam que usar conteúdo protegido por direitos autorais é “fair use“.

A isenção de “fair use” das regras de direitos autorais significa que não é necessária a permissão dos proprietários do conteúdo original.

Newton-Rex enfatizou que estava falando sobre todas as empresas de IA que compartilham essa visão – e a maioria delas o faz.

As ferramentas de IA são treinadas usando grandes quantidades de dados, muitos dos quais são frequentemente obtidos, ou “raspados”, da internet sem consentimento.

Ainda, acrescentou que muitas pessoas criam conteúdo “muitas vezes literalmente sem dinheiro, na esperança de que um dia aquele direito autoral valha alguma coisa”. No entanto, sem consentimento, o trabalho delas está sendo usado para criar seus próprios concorrentes e até mesmo potencialmente substituí-las completamente.

Newton-Rex construiu um criador de áudio de IA para seu ex-empregador, chamado Stability Audio, mas disse que optou por licenciar os dados usados para treiná-lo e compartilhar a receita com os detentores dos direitos. Ele reconheceu que esse modelo não funcionaria para todos.

Alguns artistas, incluindo a comediante norte-americana Sarah Silverman e o escritor de Game of Thrones, George RR Martin , iniciaram ações legais contra empresas de IA, argumentando que pegaram no seu trabalho sem permissão e depois usaram-no para treinar produtos que podem recriar conteúdo no seu estilo.

No início deste ano, a Stability AI enfrentou uma ação legal proposta pelo arquivo de imagens Getty, que alegou ter tido 12 milhões de suas imagens copiadas e usadas no treinamento do gerador de imagens de IA, Stable Diffusion.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:43

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024