Inteligência Artificial

Chefe de IA renuncia por polêmica ‘exploratória’ de direitos autorais

Um executivo sênior na empresa de tecnologia Stability AI renunciou. O motivo? A visão da empresa de que é aceitável usar obras protegidas por direitos autorais sem permissão para treinar suas ferramentas.

Publicado por
Juliana Caminoto

Ed Newton-Rex era o chefe de áudio na empresa, sediada no Reino Unido e nos EUA.

Segundo o relato do profissional, ele considerava “exploratório” para qualquer desenvolvedor de inteligência artificial (IA) usar trabalhos criativos sem consentimento.

No entanto, muitas das grandes empresas de IA – incluindo a Stability AI – argumentam que usar conteúdo protegido por direitos autorais é “fair use“.

A isenção de “fair use” das regras de direitos autorais significa que não é necessária a permissão dos proprietários do conteúdo original.

Newton-Rex enfatizou que estava falando sobre todas as empresas de IA que compartilham essa visão – e a maioria delas o faz.

As ferramentas de IA são treinadas usando grandes quantidades de dados, muitos dos quais são frequentemente obtidos, ou “raspados”, da internet sem consentimento.

Ainda, acrescentou que muitas pessoas criam conteúdo “muitas vezes literalmente sem dinheiro, na esperança de que um dia aquele direito autoral valha alguma coisa”. No entanto, sem consentimento, o trabalho delas está sendo usado para criar seus próprios concorrentes e até mesmo potencialmente substituí-las completamente.

Newton-Rex construiu um criador de áudio de IA para seu ex-empregador, chamado Stability Audio, mas disse que optou por licenciar os dados usados para treiná-lo e compartilhar a receita com os detentores dos direitos. Ele reconheceu que esse modelo não funcionaria para todos.

Alguns artistas, incluindo a comediante norte-americana Sarah Silverman e o escritor de Game of Thrones, George RR Martin , iniciaram ações legais contra empresas de IA, argumentando que pegaram no seu trabalho sem permissão e depois usaram-no para treinar produtos que podem recriar conteúdo no seu estilo.

No início deste ano, a Stability AI enfrentou uma ação legal proposta pelo arquivo de imagens Getty, que alegou ter tido 12 milhões de suas imagens copiadas e usadas no treinamento do gerador de imagens de IA, Stable Diffusion.

Leia também:

Este post foi modificado pela última vez em 17 de novembro de 2023 14:43

Juliana Caminoto

Advogada com especialização em compliance e auditoria, estou sempre conectada às redes sociais e em busca de novos desafios. Sou mãe de pet e amo viajar.

Posts recentes

IA e os Relatórios Policiais: Acelerando o processo ou comprometendo a justiça?

O uso de inteligência artificial (IA) em áreas como segurança pública está cada vez mais…

3 de outubro de 2024

OpenAI garante crédito bilionário após grande rodada de financiamento

A OpenAI garantiu uma nova linha de crédito rotativa de US$ 4 bilhões, anunciou a…

3 de outubro de 2024

‘Future You’: IA do MIT que permite conversar com versão mais velha de si mesmo

Pesquisadores do MIT desenvolveram um sistema de inteligência artificial (IA) chamado "Future You" que permite…

3 de outubro de 2024

Google desenvolve IA de raciocínio para rivalizar com a OpenAI

O Google está supostamente avançando no desenvolvimento de modelos de inteligência artificial (IA) com capacidades…

3 de outubro de 2024

OpenAI garante financiamento recorde de US$ 6,6 bilhões

A OpenAI acabou de fechar uma rodada de financiamento massiva de US$ 6,6 bilhões, valorizando…

3 de outubro de 2024

Modelos de IA evitam admitir que não sabem a resposta, revela estudo

Um estudo publicado na revista Nature revelou que, à medida que os modelos de linguagem…

2 de outubro de 2024