As tecnologias de IA generativa têm enfrentado críticas intensas de escritores, artistas, desenvolvedores e outros profissionais em relação aos direitos autorais.
PUBLICIDADE
Essa preocupação é tão significativa que a autoridade dos Estados Unidos nesta área está considerando implementar novas regulamentações para empresas que utilizam conteúdo protegido.
Recentemente, diversos processos judiciais têm sido movidos por autores e outros criadores de conteúdo contra o uso não autorizado de suas obras no treinamento de ferramentas de IA. Por outro lado, gigantes corporativas como Meta, Google e Microsoft têm argumentado contra a obrigatoriedade de pagamento de direitos autorais para o treinamento de modelos de IA.
O site The Verge compilou diversos desses argumentos, com destaque para aqueles que ressaltam os desafios de realizar análises individuais do conteúdo já existente nas tecnologias e o potencial risco de criar barreiras que prejudiquem a inovação no campo da IA.
PUBLICIDADE
AI companies have all kinds of arguments against paying for copyrighted content https://t.co/KDdMrFVQHP
— The Verge (@verge) November 4, 2023
Muita burocracia e pouco retorno
De acordo com a Meta, realizar uma análise minuciosa para determinar a propriedade de conteúdos e garantir o pagamento correto dos direitos autorais seria uma tarefa impraticável. Além disso, a empresa argumenta que os valores envolvidos seriam tão reduzidos que tal abordagem não traria benefícios substanciais aos autores.
O Google, por sua vez, sustenta que o treinamento de tecnologias de IA generativa é análogo a “ler um livro”. Portanto, segundo essa perspectiva, assim como em qualquer outra forma de aquisição de conhecimento por meio da leitura, o uso dessas ferramentas não constituiria uma violação de direitos autorais.
Pensando nos pequenos desenvolvedores de IA
No caso da Microsoft, a abordagem é mais voltada para o apoio aos pequenos desenvolvedores. A empresa argumenta que a imposição de pagamentos aos autores representaria um desafio considerável para startups e outras empresas de menor porte, o que, por sua vez, criaria obstáculos substanciais para a inovação no campo da IA.
PUBLICIDADE
A Anthropic, responsável pelo chatbot Claude, considera que o processo de treinamento de IA é uma etapa intermediária na criação de uma tecnologia, abrangendo apenas partes insignificantes de uma obra protegida.
Por outro lado, a Adobe faz uma comparação, associando esse treinamento à prática de engenharia reversa, uma técnica que permitiu grandes inovações em áreas como a indústria de jogos, por exemplo.
Código feito por IA
Já a Apple sustenta que, em situações em que um desenvolvedor humano mantém o controle sobre os aspectos expressivos da saída e toma decisões para modificar, adicionar, aprimorar ou até mesmo rejeitar o código gerado pelas ferramentas de IA, o resultado final da interação do desenvolvedor com as ferramentas detém autoria humana suficiente para ser passível de proteção por direitos autorais.
PUBLICIDADE
Leia também: