Chefe de IA renuncia por polêmica ‘exploratória’ de direitos autorais

Um executivo sênior na empresa de tecnologia Stability AI renunciou. O motivo? A visão da empresa de que é aceitável usar obras protegidas por direitos autorais sem permissão para treinar suas ferramentas.

Ed Newton-Rex era o chefe de áudio na empresa, sediada no Reino Unido e nos EUA.

PUBLICIDADE

Segundo o relato do profissional, ele considerava “exploratório” para qualquer desenvolvedor de inteligência artificial (IA) usar trabalhos criativos sem consentimento.

No entanto, muitas das grandes empresas de IA – incluindo a Stability AI – argumentam que usar conteúdo protegido por direitos autorais é “fair use“.

A isenção de “fair use” das regras de direitos autorais significa que não é necessária a permissão dos proprietários do conteúdo original.

PUBLICIDADE

Newton-Rex enfatizou que estava falando sobre todas as empresas de IA que compartilham essa visão – e a maioria delas o faz.

As ferramentas de IA são treinadas usando grandes quantidades de dados, muitos dos quais são frequentemente obtidos, ou “raspados”, da internet sem consentimento.

Ainda, acrescentou que muitas pessoas criam conteúdo “muitas vezes literalmente sem dinheiro, na esperança de que um dia aquele direito autoral valha alguma coisa”. No entanto, sem consentimento, o trabalho delas está sendo usado para criar seus próprios concorrentes e até mesmo potencialmente substituí-las completamente.

PUBLICIDADE

Newton-Rex construiu um criador de áudio de IA para seu ex-empregador, chamado Stability Audio, mas disse que optou por licenciar os dados usados para treiná-lo e compartilhar a receita com os detentores dos direitos. Ele reconheceu que esse modelo não funcionaria para todos.

Alguns artistas, incluindo a comediante norte-americana Sarah Silverman e o escritor de Game of Thrones, George RR Martin , iniciaram ações legais contra empresas de IA, argumentando que pegaram no seu trabalho sem permissão e depois usaram-no para treinar produtos que podem recriar conteúdo no seu estilo.

No início deste ano, a Stability AI enfrentou uma ação legal proposta pelo arquivo de imagens Getty, que alegou ter tido 12 milhões de suas imagens copiadas e usadas no treinamento do gerador de imagens de IA, Stable Diffusion.

PUBLICIDADE

Leia também:

Rolar para cima