A startup de inteligência artificial (IA) Anthropic, avaliada em US$ 18,4 bilhões (cerca de R$ 92 bilhões), está sendo acusada por líderes de empresas, como Matt Barrie, CEO do marketplace de freelancers Freelancer.com (listada na ASX), de coletar dados agressivamente de sites para treinar seus sistemas. Esse processo pode violar os termos de serviço dos sites afetados.
Desenvolvedores de IA precisam de grandes quantidades de dados de diversas fontes para criar modelos de linguagem avançados, a tecnologia por trás de chatbots como o ChatGPT da OpenAI.
A Anthropic foi fundada por ex-pesquisadores da OpenAI com a promessa de desenvolver sistemas de IA “responsáveis”.
No entanto, Barrie acusa a empresa sediada em San Francisco de ser “a scraper mais agressiva de longe” em seu portal para freelancers, que tem milhões de visitas diárias.
Outras editoras web ecoaram as preocupações de Barrie, afirmando que a Anthropic está sobrecarregando seus sites e ignorando suas instruções para parar de coletar conteúdo para treinar seus modelos.
O Freelancer.com recebeu 3,5 milhões de visitas de um “rastreador” da web ligado à Anthropic em apenas quatro horas, de acordo com dados compartilhados com o Financial Times. Isso torna a Anthropic “provavelmente cerca de cinco vezes o volume do segundo” rastreador de IA, disse Barrie.
As visitas de seu bot continuaram a aumentar mesmo depois que o Freelancer.com tentou recusar seus pedidos de acesso, usando protocolos padrão da web para orientar rastreadores. Depois disso, Barrie decidiu bloquear completamente o tráfego dos endereços de internet da Anthropic.
“Tivemos que bloqueá-los porque eles não obedecem às regras da internet”, disse Barrie. “Isso é uma raspagem absurda que torna o site mais lento para todos que operam nele e acaba afetando nossa receita.”
A Anthropic disse estar investigando o caso e que respeita os pedidos dos editores, buscando não ser “intrusiva ou disruptiva”.
Coletar dados publicamente disponíveis na web geralmente é legal. Porém, a prática é controversa, pode violar os termos de serviço dos sites e ser onerosa para os provedores de hospedagem.
Sites usam um protocolo conhecido como “robots.txt” para tentar impedir rastreadores e outros robôs da web de acessar partes de seus sites. No entanto, ele depende da conformidade voluntária.
A raspagem de dados não é uma prática nova, mas aumentou drasticamente nos últimos dois anos como resultado da corrida armamentista da IA. Isso impôs novos custos aos sites.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:54
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…