As maiores empresas de inteligência artificial (IA) não estão interessadas em pagar para usar material protegido por direitos autorais como dados de treinamento. Entenda os motivos.
As tecnologias de IA generativa têm enfrentado críticas intensas de escritores, artistas, desenvolvedores e outros profissionais em relação aos direitos autorais.
Essa preocupação é tão significativa que a autoridade dos Estados Unidos nesta área está considerando implementar novas regulamentações para empresas que utilizam conteúdo protegido.
Recentemente, diversos processos judiciais têm sido movidos por autores e outros criadores de conteúdo contra o uso não autorizado de suas obras no treinamento de ferramentas de IA. Por outro lado, gigantes corporativas como Meta, Google e Microsoft têm argumentado contra a obrigatoriedade de pagamento de direitos autorais para o treinamento de modelos de IA.
O site The Verge compilou diversos desses argumentos, com destaque para aqueles que ressaltam os desafios de realizar análises individuais do conteúdo já existente nas tecnologias e o potencial risco de criar barreiras que prejudiquem a inovação no campo da IA.
De acordo com a Meta, realizar uma análise minuciosa para determinar a propriedade de conteúdos e garantir o pagamento correto dos direitos autorais seria uma tarefa impraticável. Além disso, a empresa argumenta que os valores envolvidos seriam tão reduzidos que tal abordagem não traria benefícios substanciais aos autores.
O Google, por sua vez, sustenta que o treinamento de tecnologias de IA generativa é análogo a “ler um livro”. Portanto, segundo essa perspectiva, assim como em qualquer outra forma de aquisição de conhecimento por meio da leitura, o uso dessas ferramentas não constituiria uma violação de direitos autorais.
No caso da Microsoft, a abordagem é mais voltada para o apoio aos pequenos desenvolvedores. A empresa argumenta que a imposição de pagamentos aos autores representaria um desafio considerável para startups e outras empresas de menor porte, o que, por sua vez, criaria obstáculos substanciais para a inovação no campo da IA.
A Anthropic, responsável pelo chatbot Claude, considera que o processo de treinamento de IA é uma etapa intermediária na criação de uma tecnologia, abrangendo apenas partes insignificantes de uma obra protegida.
Por outro lado, a Adobe faz uma comparação, associando esse treinamento à prática de engenharia reversa, uma técnica que permitiu grandes inovações em áreas como a indústria de jogos, por exemplo.
Já a Apple sustenta que, em situações em que um desenvolvedor humano mantém o controle sobre os aspectos expressivos da saída e toma decisões para modificar, adicionar, aprimorar ou até mesmo rejeitar o código gerado pelas ferramentas de IA, o resultado final da interação do desenvolvedor com as ferramentas detém autoria humana suficiente para ser passível de proteção por direitos autorais.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 07:54
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…