A startup de inteligência artificial (IA) Anthropic, avaliada em US$ 18,4 bilhões (cerca de R$ 92 bilhões), está sendo acusada por líderes de empresas, como Matt Barrie, CEO do marketplace de freelancers Freelancer.com (listada na ASX), de coletar dados agressivamente de sites para treinar seus sistemas. Esse processo pode violar os termos de serviço dos sites afetados.
Desenvolvedores de IA precisam de grandes quantidades de dados de diversas fontes para criar modelos de linguagem avançados, a tecnologia por trás de chatbots como o ChatGPT da OpenAI.
A Anthropic foi fundada por ex-pesquisadores da OpenAI com a promessa de desenvolver sistemas de IA “responsáveis”.
No entanto, Barrie acusa a empresa sediada em San Francisco de ser “a scraper mais agressiva de longe” em seu portal para freelancers, que tem milhões de visitas diárias.
Outras editoras web ecoaram as preocupações de Barrie, afirmando que a Anthropic está sobrecarregando seus sites e ignorando suas instruções para parar de coletar conteúdo para treinar seus modelos.
O Freelancer.com recebeu 3,5 milhões de visitas de um “rastreador” da web ligado à Anthropic em apenas quatro horas, de acordo com dados compartilhados com o Financial Times. Isso torna a Anthropic “provavelmente cerca de cinco vezes o volume do segundo” rastreador de IA, disse Barrie.
As visitas de seu bot continuaram a aumentar mesmo depois que o Freelancer.com tentou recusar seus pedidos de acesso, usando protocolos padrão da web para orientar rastreadores. Depois disso, Barrie decidiu bloquear completamente o tráfego dos endereços de internet da Anthropic.
“Tivemos que bloqueá-los porque eles não obedecem às regras da internet”, disse Barrie. “Isso é uma raspagem absurda que torna o site mais lento para todos que operam nele e acaba afetando nossa receita.”
A Anthropic disse estar investigando o caso e que respeita os pedidos dos editores, buscando não ser “intrusiva ou disruptiva”.
Coletar dados publicamente disponíveis na web geralmente é legal. Porém, a prática é controversa, pode violar os termos de serviço dos sites e ser onerosa para os provedores de hospedagem.
Sites usam um protocolo conhecido como “robots.txt” para tentar impedir rastreadores e outros robôs da web de acessar partes de seus sites. No entanto, ele depende da conformidade voluntária.
A raspagem de dados não é uma prática nova, mas aumentou drasticamente nos últimos dois anos como resultado da corrida armamentista da IA. Isso impôs novos custos aos sites.
Leia também:
Este post foi modificado pela última vez em 29 de julho de 2024 11:54
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…
A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…