A empresa de inteligência artificial (IA) Anthropic foi alvo de uma ação coletiva em um tribunal federal da Califórnia, nos EUA, por três autores que afirmam que a empresa usou indevidamente seus livros e centenas de milhares de outros para treinar seu chatbot alimentado por IA, o Claude.
PUBLICIDADE
A queixa, apresentada pelos escritores e jornalistas Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, alegou que a Anthropic usou versões piratas de suas obras e de outros para ensinar o Claude a responder a prompts humanos.
A Anthropic não respondeu imediatamente a um pedido de comentário na terça-feira (20). Um advogado dos autores declinou comentar.
O processo se junta a várias outras reclamações de alto risco apresentadas por detentores de direitos autorais, incluindo artistas visuais, veículos de notícias e gravadoras, sobre o material usado por empresas de tecnologia para treinar seus sistemas de IA generativa.
PUBLICIDADE
Grupos separados de autores processaram a OpenAI e a Meta Platforms por suposto uso indevido de seu trabalho para treinar os grandes modelos de linguagem subjacentes a seus chatbots.
O caso apresentado na segunda-feira é o segundo contra a Anthropic após uma ação judicial movida por editoras de música no ano passado por suposto uso indevido de letras de músicas protegidas por direitos autorais para treinar o Claude.
Os autores afirmaram em sua queixa que a Anthropic “construiu um negócio multibilionário roubando centenas de milhares de livros protegidos por direitos autorais”. A Anthropic recebeu apoio financeiro de fontes como Amazon, Google e o ex-bilionário da criptomoeda Sam Bankman-Fried.
PUBLICIDADE
De acordo com a queixa, as obras dos autores foram incluídas em um conjunto de dados de livros piratas que a Anthropic usou para treinar o Claude.
O processo solicitou uma quantia não especificada de danos monetários e uma ordem proibindo permanentemente a Anthropic de usar indevidamente o trabalho dos autores.
Leia também: