Inteligência Artificial

Empresas de IA burlam protocolo para coletar dados de sites jornalísticos, alerta startup de licenciamento

Publicado por
Vinicius Siqueira

Várias empresas de inteligência artificial (IA) estão contornando um padrão web comum usado por editores para bloquear a extração de seus conteúdos para uso em sistemas de IA generativa, informou a startup de licenciamento de conteúdo TollBit aos editores.

Uma carta aos editores vista pela Reuters nesta sexta-feira (21), que não menciona as empresas de IA nem os editores afetados, surge em meio a uma disputa pública entre a startup de busca em IA Perplexity e o veículo de mídia Forbes envolvendo o mesmo padrão web e um debate mais amplo entre empresas de tecnologia e mídia sobre o valor do conteúdo na era da IA generativa.

O editor de mídia empresarial acusou publicamente a Perplexity de plagiar suas reportagens investigativas em resumos gerados por IA sem citar o Forbes ou solicitar permissão.

Uma investigação da Wired publicada nesta semana descobriu que a Perplexity provavelmente está contornando os esforços para bloquear seu rastreador web através do Protocolo de Exclusão de Robôs, ou “robots.txt”, um padrão amplamente aceito destinado a determinar quais partes de um site podem ser rastreadas.

A TollBit, uma startup em estágio inicial, se posiciona como uma intermediária entre empresas de IA ávidas por conteúdo e editores dispostos a fazer acordos de licenciamento com elas.

A empresa monitora o tráfego de IA nos sites dos editores e utiliza análises para ajudar ambos os lados a concordar com as taxas a serem pagas pelo uso de diferentes tipos de conteúdo.

Por exemplo, os editores podem optar por estabelecer taxas mais altas para “conteúdos premium, como as últimas notícias ou insights exclusivos”, conforme afirmado no site da empresa.

Segundo a carta da TollBit, a Perplexity não é a única infratora que parece estar ignorando o robots.txt. A TollBit afirmou que suas análises indicam que “numerosos” agentes de IA estão contornando o protocolo, uma ferramenta padrão usada pelos editores para indicar quais partes de seu site podem ser rastreadas.

“O que isso significa em termos práticos é que agentes de IA de múltiplas fontes (não apenas uma empresa) estão optando por contornar o protocolo robots.txt para recuperar conteúdo dos sites”, escreveu a TollBit. “Quanto mais logs de editor nós processamos, mais esse padrão emerge.”

O protocolo robots.txt foi criado em meados da década de 1990 como uma maneira de evitar sobrecarregar sites com rastreadores web. Embora não haja um mecanismo de aplicação legal, historicamente houve ampla conformidade na web.

Recentemente, o robots.txt se tornou uma ferramenta fundamental que os editores têm usado para bloquear empresas de tecnologia de ingestão gratuita de seus conteúdos para uso em sistemas de IA generativa que podem imitar a criatividade humana e resumir instantaneamente artigos.

As empresas de IA usam o conteúdo tanto para treinar seus algoritmos quanto para gerar resumos de informações em tempo real.

Alguns editores, incluindo o New York Times, processaram empresas de IA por violação de direitos autorais por esses usos. Outros estão assinando acordos de licenciamento com as empresas de IA dispostas a pagar pelo conteúdo, embora frequentemente haja discordâncias sobre o valor dos materiais. Muitos desenvolvedores de IA argumentam que não quebraram nenhuma lei ao acessá-los gratuitamente.

A Thomson Reuters, proprietária da Reuters News, está entre aquelas que firmaram acordos para licenciar conteúdo de notícias para uso por modelos de IA.

Os editores têm levantado alertas especialmente sobre resumos de notícias desde que o Google lançou um produto no ano passado que usa IA para criar resumos em resposta a algumas consultas de busca.

Se os editores desejam impedir que seu conteúdo seja usado pelo Google para ajudar a gerar esses resumos, eles devem usar a mesma ferramenta que também os impediria de aparecer nos resultados de busca do Google, tornando-os virtualmente invisíveis na web.

Leia também:

Este post foi modificado pela última vez em 21 de junho de 2024 14:09

Vinicius Siqueira

Posts recentes

Atualização do Open LLM Leaderboard: Hugging Face aumenta o desafio para grandes modelos de linguagem

A Hugging Face acaba de lançar uma grande atualização para o Open LLM Leaderboard, trazendo…

27 de junho de 2024

Paris 2024: Cobertura da NBC nas Olimpíadas terá IA e celebridades

A NBCUniversal anunciou na quarta-feira (26) que a cobertura televisiva das Olimpíadas de Paris, que…

27 de junho de 2024

Claude ganha nova atualização: “Projetos” para organizar e personalizar a IA

A Anthropic acaba de lançar um novo recurso para o seu assistente de IA Claude…

27 de junho de 2024

scite: Impulsione sua pesquisa acadêmica com IA

A scite é uma plataforma inovadora, projetada para ajudar pesquisadores a descobrir e avaliar artigos…

26 de junho de 2024

Empresas de licenciamento de dados para IA criam associação para ética e direitos autorais

Sete empresas vendedoras de licenciamento de conteúdo - música, imagens, vídeos e outros tipos de…

26 de junho de 2024

Rede de brinquedos Toys ‘R’ Us usa Sora da OpenAI para reanimar a marca

A rede de lojas norte-americana Toys "R" Us lançou recentemente um vídeo parcialmente gerado por…

26 de junho de 2024