As maiores empresas de inteligência artificial (IA) não estão interessadas em pagar para usar material protegido por direitos autorais como dados de treinamento. Entenda os motivos.
As tecnologias de IA generativa têm enfrentado críticas intensas de escritores, artistas, desenvolvedores e outros profissionais em relação aos direitos autorais.
Essa preocupação é tão significativa que a autoridade dos Estados Unidos nesta área está considerando implementar novas regulamentações para empresas que utilizam conteúdo protegido.
Recentemente, diversos processos judiciais têm sido movidos por autores e outros criadores de conteúdo contra o uso não autorizado de suas obras no treinamento de ferramentas de IA. Por outro lado, gigantes corporativas como Meta, Google e Microsoft têm argumentado contra a obrigatoriedade de pagamento de direitos autorais para o treinamento de modelos de IA.
O site The Verge compilou diversos desses argumentos, com destaque para aqueles que ressaltam os desafios de realizar análises individuais do conteúdo já existente nas tecnologias e o potencial risco de criar barreiras que prejudiquem a inovação no campo da IA.
De acordo com a Meta, realizar uma análise minuciosa para determinar a propriedade de conteúdos e garantir o pagamento correto dos direitos autorais seria uma tarefa impraticável. Além disso, a empresa argumenta que os valores envolvidos seriam tão reduzidos que tal abordagem não traria benefícios substanciais aos autores.
O Google, por sua vez, sustenta que o treinamento de tecnologias de IA generativa é análogo a “ler um livro”. Portanto, segundo essa perspectiva, assim como em qualquer outra forma de aquisição de conhecimento por meio da leitura, o uso dessas ferramentas não constituiria uma violação de direitos autorais.
No caso da Microsoft, a abordagem é mais voltada para o apoio aos pequenos desenvolvedores. A empresa argumenta que a imposição de pagamentos aos autores representaria um desafio considerável para startups e outras empresas de menor porte, o que, por sua vez, criaria obstáculos substanciais para a inovação no campo da IA.
A Anthropic, responsável pelo chatbot Claude, considera que o processo de treinamento de IA é uma etapa intermediária na criação de uma tecnologia, abrangendo apenas partes insignificantes de uma obra protegida.
Por outro lado, a Adobe faz uma comparação, associando esse treinamento à prática de engenharia reversa, uma técnica que permitiu grandes inovações em áreas como a indústria de jogos, por exemplo.
Já a Apple sustenta que, em situações em que um desenvolvedor humano mantém o controle sobre os aspectos expressivos da saída e toma decisões para modificar, adicionar, aprimorar ou até mesmo rejeitar o código gerado pelas ferramentas de IA, o resultado final da interação do desenvolvedor com as ferramentas detém autoria humana suficiente para ser passível de proteção por direitos autorais.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 07:54
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…
A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…
Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…