Global

Lei Europeia de Inteligência Artificial entra em vigor; saiba mais

Publicado por
Vinicius Siqueira

A Lei Europeia de Inteligência Artificial (AI Act), a primeira regulação abrangente sobre inteligência artificial (IA) do mundo, entrou em vigor. A AI Act é projetada para garantir que a IA desenvolvida e usada na UE seja confiável, com salvaguardas para proteger os direitos fundamentais das pessoas. A regulamentação visa estabelecer um mercado interno harmonizado para a IA na UE, incentivando a adoção dessa tecnologia e criando um ambiente favorável à inovação e ao investimento.

A AI Act introduz uma definição prospectiva de IA, baseada em uma abordagem de segurança do produto e risco na UE:

  • Risco mínimo: A maioria dos sistemas de IA, como sistemas de recomendação habilitados por IA e filtros de spam, enquadra-se nessa categoria. Esses sistemas não enfrentam obrigações sob a AI Act devido ao seu risco mínimo para os direitos e segurança dos cidadãos. As empresas podem adotar voluntariamente códigos de conduta adicionais.
  • Risco específico de transparência: Sistemas de IA como chatbots devem informar claramente aos usuários que estão interagindo com uma máquina. Certos conteúdos gerados por IA, incluindo deep fakes, devem ser rotulados como tal, e os usuários precisam ser informados quando sistemas de categorização biométrica ou reconhecimento de emoções estão sendo usados. Além disso, os provedores terão que projetar sistemas de forma que conteúdo de áudio, vídeo, texto e imagens sintéticas seja marcado em um formato legível por máquina e detectável como artificialmente gerado ou manipulado.
  • Alto risco: Sistemas de IA identificados como de alto risco terão que cumprir requisitos rigorosos, incluindo sistemas de mitigação de riscos, alta qualidade dos conjuntos de dados, registro de atividades, documentação detalhada, informações claras para os usuários, supervisão humana e um alto nível de robustez, precisão e cibersegurança. Sandboxes regulatórios facilitarão a inovação responsável e o desenvolvimento de sistemas de IA em conformidade. Esses sistemas de IA de alto risco incluem, por exemplo, sistemas de IA usados para recrutamento, ou para avaliar se alguém tem direito a um empréstimo, ou para operar robôs autônomos.
  • Risco inaceitável: Sistemas de IA considerados uma ameaça clara aos direitos fundamentais das pessoas serão banidos. Isso inclui sistemas de IA ou aplicativos que manipulam o comportamento humano para contornar a vontade livre dos usuários, como brinquedos que usam assistência por voz para encorajar comportamentos perigosos de menores, sistemas que permitem ‘pontuação social’ por governos ou empresas e certas aplicações de policiamento preditivo. Além disso, alguns usos de sistemas biométricos serão proibidos, como sistemas de reconhecimento de emoções usados no local de trabalho e alguns sistemas para categorização de pessoas ou identificação biométrica remota em tempo real para fins de aplicação da lei em espaços publicamente acessíveis (com exceções restritas).

Para complementar este sistema, a AI Act também introduz regras para os chamados modelos de IA de uso geral, que são modelos de IA altamente capazes, projetados para realizar uma ampla variedade de tarefas, como gerar texto semelhante ao humano. Modelos de IA de uso geral são cada vez mais usados como componentes de aplicações de IA. A AI Act garantirá transparência ao longo da cadeia de valor e abordará possíveis riscos sistêmicos dos modelos mais capazes.

Aplicação e fiscalização das regras de IA Os Estados Membros têm até 2 de agosto de 2025 para designar autoridades nacionais competentes, que supervisionarão a aplicação das regras para sistemas de IA e realizarão atividades de vigilância do mercado. O Escritório de IA da Comissão será o principal órgão de implementação da AI Act a nível da UE, bem como o responsável pela aplicação das regras para modelos de IA de uso geral.

Três órgãos consultivos apoiarão a implementação das regras. O Conselho Europeu de Inteligência Artificial garantirá uma aplicação uniforme da AI Act em todos os Estados Membros da UE e atuará como principal órgão de cooperação entre a Comissão e os Estados Membros. Um painel científico de especialistas independentes oferecerá conselhos técnicos e input sobre a aplicação. Em particular, este painel pode emitir alertas para o Escritório de IA sobre riscos associados aos modelos de IA de uso geral. O Escritório de IA também pode receber orientação de um fórum consultivo, composto por um conjunto diversificado de partes interessadas.

Empresas que não cumprirem as regras serão multadas. As multas podem chegar a até 7% do faturamento anual global por violações de aplicações de IA banidas, até 3% por violações de outras obrigações e até 1,5% por fornecer informações incorretas.

Próximos passos A maioria das regras da AI Act começará a ser aplicada em 2 de agosto de 2026. No entanto, as proibições de sistemas de IA considerados de risco inaceitável já se aplicarão após seis meses, enquanto as regras para os chamados modelos de IA de Uso Geral serão aplicadas após 12 meses.

Para cobrir o período de transição antes da implementação completa, a Comissão lançou o AI Pact. Esta iniciativa convida os desenvolvedores de IA a adotar voluntariamente obrigações-chave da AI Act antes dos prazos legais.

A Comissão também está desenvolvendo diretrizes para definir e detalhar como a AI Act deve ser implementada e facilitando instrumentos de co-regulação, como padrões e códigos de prática. A Comissão abriu uma chamada para manifestação de interesse para participar da elaboração do primeiro Código de Prática de IA de Uso Geral, bem como uma consulta multissetorial, dando a oportunidade a todas as partes interessadas de se manifestarem sobre o primeiro Código de Prática sob a AI Act.

Antecedentes Em 9 de dezembro de 2023, a Comissão acolheu o acordo político sobre a AI Act. Em 24 de janeiro de 2024, a Comissão lançou um pacote de medidas para apoiar startups e PMEs europeias no desenvolvimento de IA confiável. Em 29 de maio de 2024, a Comissão revelou o Escritório de IA. Em 9 de julho de 2024, o Regulamento alterado da EuroHPC JU entrou em vigor, permitindo assim a criação de fábricas de IA. Isso permite que supercomputadores dedicados à IA sejam usados para o treinamento de modelos de IA de Uso Geral (GPAI).

Pesquisas independentes e baseadas em evidências, produzidas pelo Centro Comum de Pesquisa (JRC), foram fundamentais para moldar as políticas de IA da UE e garantir sua implementação eficaz.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 16:50

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024