Inteligência Artificial

Gigantes da tecnologia reprovados: IA falha em cumprir novas regras da UE

Publicado por
Isabella Caminoto

Alguns dos modelos de inteligência artificial (IA) mais proeminentes estão ficando aquém dos regulamentos europeus em áreas-chave, como resiliência de cibersegurança e saída discriminatória, de acordo com dados vistos pela Reuters.

A União Europeia (UE) debatia há muito tempo novos regulamentos de IA antes que a OpenAI lançasse o ChatGPT para o público no final de 2022. A popularidade recorde e o debate público subsequente sobre os supostos riscos existenciais de tais modelos incentivaram os legisladores a elaborar regras específicas em torno de “propósito geral” IAs (GPAI).

Agora, uma nova ferramenta, que foi bem-vinda por funcionários da União Europeia, testou modelos de IA generativa desenvolvidos por grandes empresas de tecnologia como Meta e OpenAI em dezenas de categorias, em linha com a ampla lei de IA do bloco, que está entrando em vigor em etapas ao longo dos próximos dois anos.

Projetada pela startup suíça LatticeFlow AI e seus parceiros em dois institutos de pesquisa, ETH Zurich e INSAIT da Bulgária, a ferramenta premia modelos de IA com uma pontuação entre 0 e 1 em dezenas de categorias, incluindo robustez técnica e segurança.

Um ranking publicado pela LatticeFlow na quarta-feira (16) mostrou que modelos desenvolvidos por Alibaba, Anthropic, OpenAI, Meta e Mistral receberam pontuações médias de 0,75 ou superiores.

No entanto, o “Verificador de Grande Modelo de Linguagem (LLM)” da empresa descobriu algumas deficiências dos modelos em áreas-chave, destacando onde as empresas podem precisar direcionar recursos para garantir a conformidade.

As empresas que não cumprirem a Lei de IA enfrentarão multas de 35 milhões de euros (US$ 38 milhões) ou 7% do faturamento anual global.

Resultados mistos

Atualmente, a UE ainda está tentando estabelecer como as regras da Lei de IA em torno de ferramentas de IA generativa como o ChatGPT serão aplicadas, convocando especialistas para elaborar um código de prática que regule a tecnologia até a primavera de 2025.

Mas o teste oferece um indicador inicial de áreas específicas onde as empresas de tecnologia correm o risco de ficar aquém da lei.

Por exemplo, a saída discriminatória tem sido um problema persistente no desenvolvimento de modelos de IA generativa, refletindo vieses humanos em torno de gênero, raça e outras áreas quando solicitados.

Ao testar a saída discriminatória, o LLM Checker da LatticeFlow deu ao “GPT-3.5 Turbo” da OpenAI uma pontuação relativamente baixa de 0,46. Para a mesma categoria, o modelo “Qwen1.5 72B Chat” da Alibaba Cloud recebeu apenas 0,37.

Testando para “sequestro de prompt”, um tipo de ataque cibernético em que hackers disfarçam um prompt malicioso como legítimo para extrair informações sensíveis, o LLM Checker concedeu ao modelo “Llama 2 13B Chat” da Meta uma pontuação de 0,42. Na mesma categoria, o modelo “8x7B Instruct” da startup francesa Mistral recebeu 0,38.

“Claude 3 Opus”, um modelo desenvolvido pela Anthropic, apoiada pelo Google, recebeu a pontuação média mais alta, 0,89.

O teste foi projetado de acordo com o texto da Lei de IA e será estendido para incluir outras medidas de aplicação da lei à medida que forem introduzidas. A LatticeFlow disse que o LLM Checker estará disponível gratuitamente para desenvolvedores testarem a conformidade de seus modelos online.

Embora a Comissão Europeia não possa verificar ferramentas externas, o órgão foi informado ao longo do desenvolvimento do LLM Checker e o descreveu como um “primeiro passo” na implementação das novas leis.

Um porta-voz da Comissão Europeia disse: “A Comissão saúda este estudo e plataforma de avaliação de modelos de IA como um primeiro passo na tradução da Lei de IA da UE em requisitos técnicos.”

Leia também:

Este post foi modificado pela última vez em 16 de outubro de 2024 16:49

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Meta desenvolve LLMs “pensantes”; confira

Pesquisadores da Meta apresentaram recentemente um novo método chamado Otimização de Preferência de Pensamento (TPO)…

16 de outubro de 2024

Anthropic revela atualização importante para política de segurança de IA

A Anthropic acaba de publicar uma atualização significativa em sua Política de Escalabilidade Responsável (Responsible…

16 de outubro de 2024

Apple lança novo iPad mini com recursos de IA

A Apple lançou na terça-feira (15) sua nova geração do iPad mini repleto de recursos…

15 de outubro de 2024

Google aposta em energia nuclear para alimentar a IA

O Google assinou um acordo inédito para comprar energia de uma frota de mini reatores…

15 de outubro de 2024

The New York Times alerta o mecanismo de busca de IA Perplexity para parar de usar seu conteúdo

O New York Times enviou à Perplexity um aviso de "cessar e desistir", exigindo que…

15 de outubro de 2024

IA aprimora alertas de inundações, mas não pode eliminar o risco de desastre

A inteligência artificial (IA) tem revolucionado diversos setores, e a meteorologia não é exceção. Modelos…

15 de outubro de 2024