Inteligência Artificial

Startup de IA Anthropic é acusada de coleta de dados; entenda

Publicado por
Isabella Caminoto

A startup de inteligência artificial (IA) Anthropic, avaliada em US$ 18,4 bilhões (cerca de R$ 92 bilhões), está sendo acusada por líderes de empresas, como Matt Barrie, CEO do marketplace de freelancers Freelancer.com (listada na ASX), de coletar dados agressivamente de sites para treinar seus sistemas. Esse processo pode violar os termos de serviço dos sites afetados.

Desenvolvedores de IA precisam de grandes quantidades de dados de diversas fontes para criar modelos de linguagem avançados, a tecnologia por trás de chatbots como o ChatGPT da OpenAI.

A Anthropic foi fundada por ex-pesquisadores da OpenAI com a promessa de desenvolver sistemas de IA “responsáveis”.

No entanto, Barrie acusa a empresa sediada em San Francisco de ser “a scraper mais agressiva de longe” em seu portal para freelancers, que tem milhões de visitas diárias.

Outras editoras web ecoaram as preocupações de Barrie, afirmando que a Anthropic está sobrecarregando seus sites e ignorando suas instruções para parar de coletar conteúdo para treinar seus modelos.

O Freelancer.com recebeu 3,5 milhões de visitas de um “rastreador” da web ligado à Anthropic em apenas quatro horas, de acordo com dados compartilhados com o Financial Times. Isso torna a Anthropic “provavelmente cerca de cinco vezes o volume do segundo” rastreador de IA, disse Barrie.

As visitas de seu bot continuaram a aumentar mesmo depois que o Freelancer.com tentou recusar seus pedidos de acesso, usando protocolos padrão da web para orientar rastreadores. Depois disso, Barrie decidiu bloquear completamente o tráfego dos endereços de internet da Anthropic.

“Tivemos que bloqueá-los porque eles não obedecem às regras da internet”, disse Barrie. “Isso é uma raspagem absurda que torna o site mais lento para todos que operam nele e acaba afetando nossa receita.”

A Anthropic disse estar investigando o caso e que respeita os pedidos dos editores, buscando não ser “intrusiva ou disruptiva”.

Coletar dados publicamente disponíveis na web geralmente é legal. Porém, a prática é controversa, pode violar os termos de serviço dos sites e ser onerosa para os provedores de hospedagem.

Sites usam um protocolo conhecido como “robots.txt” para tentar impedir rastreadores e outros robôs da web de acessar partes de seus sites. No entanto, ele depende da conformidade voluntária.

A raspagem de dados não é uma prática nova, mas aumentou drasticamente nos últimos dois anos como resultado da corrida armamentista da IA. Isso impôs novos custos aos sites.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 11:54

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024