As maiores empresas de inteligência artificial (IA) não estão interessadas em pagar para usar material protegido por direitos autorais como dados de treinamento. Entenda os motivos.
IA e direitos autorais
As tecnologias de IA generativa têm enfrentado críticas intensas de escritores, artistas, desenvolvedores e outros profissionais em relação aos direitos autorais.
Essa preocupação é tão significativa que a autoridade dos Estados Unidos nesta área está considerando implementar novas regulamentações para empresas que utilizam conteúdo protegido.
Recentemente, diversos processos judiciais têm sido movidos por autores e outros criadores de conteúdo contra o uso não autorizado de suas obras no treinamento de ferramentas de IA. Por outro lado, gigantes corporativas como Meta, Google e Microsoft têm argumentado contra a obrigatoriedade de pagamento de direitos autorais para o treinamento de modelos de IA.
O site The Verge compilou diversos desses argumentos, com destaque para aqueles que ressaltam os desafios de realizar análises individuais do conteúdo já existente nas tecnologias e o potencial risco de criar barreiras que prejudiquem a inovação no campo da IA.
De acordo com a Meta, realizar uma análise minuciosa para determinar a propriedade de conteúdos e garantir o pagamento correto dos direitos autorais seria uma tarefa impraticável. Além disso, a empresa argumenta que os valores envolvidos seriam tão reduzidos que tal abordagem não traria benefícios substanciais aos autores.
O Google, por sua vez, sustenta que o treinamento de tecnologias de IA generativa é análogo a “ler um livro”. Portanto, segundo essa perspectiva, assim como em qualquer outra forma de aquisição de conhecimento por meio da leitura, o uso dessas ferramentas não constituiria uma violação de direitos autorais.
No caso da Microsoft, a abordagem é mais voltada para o apoio aos pequenos desenvolvedores. A empresa argumenta que a imposição de pagamentos aos autores representaria um desafio considerável para startups e outras empresas de menor porte, o que, por sua vez, criaria obstáculos substanciais para a inovação no campo da IA.
A Anthropic, responsável pelo chatbot Claude, considera que o processo de treinamento de IA é uma etapa intermediária na criação de uma tecnologia, abrangendo apenas partes insignificantes de uma obra protegida.
Por outro lado, a Adobe faz uma comparação, associando esse treinamento à prática de engenharia reversa, uma técnica que permitiu grandes inovações em áreas como a indústria de jogos, por exemplo.
Já a Apple sustenta que, em situações em que um desenvolvedor humano mantém o controle sobre os aspectos expressivos da saída e toma decisões para modificar, adicionar, aprimorar ou até mesmo rejeitar o código gerado pelas ferramentas de IA, o resultado final da interação do desenvolvedor com as ferramentas detém autoria humana suficiente para ser passível de proteção por direitos autorais.
Leia também:
Este post foi modificado pela última vez em 7 de novembro de 2023 07:54
A startup francesa Kyutai acaba de apresentar o Moshi, um novo assistente de voz inteligência…
O mundo dos investimentos está em polvorosa com a ascensão da inteligência artificial (IA). Empresas…
Este atalho personalizado para iPhone permite que você crie um assistente de voz ultrarrápido -…
A Meta planeja injetar uma dose de IA generativa em seus jogos, especificamente em VR,…
Cansado de perder prints importantes na galeria do seu celular? O Google pode ter a…
Até a última sexta-feira (28), o aplicativo ChatGPT para macOS recém-lançado pela OpenAI apresentava um…