Coalizão de organizações científicas independentes pede para que UE proteja a inovação de código aberto no AI Act

Uma coalizão de organizações interessadas em inteligência artificial de código aberto, incluindo Hugging Face, GitHub, EleutherAI, Creative Commons, LAION e Open Future, está pedindo aos formuladores de políticas da União Europeia que protejam a inovação de código aberto enquanto finalizam a Lei de IA da UE, chamada de AI Act.

Publicado por
Uesley Durães

A Lei de IA da UE, que deve sair até o fim de 2023, é a primeira lei de IA abrangente do mundo e está destinada a garantir que os sistemas na UE sejam seguros, justos e confiáveis.

A coalizão de organizações de IA de código aberto está preocupada que a Lei de IA da UE possa prejudicar a inovação de código aberto, pois exige que os sistemas de IA sejam auditados e que os dados usados para treiná-los sejam transparentes. 

De acordo com o documento enviado pelas empresas, publicado no último dia 26, exigências excessivas podem ser difíceis de atender para os projetos de código aberto, que geralmente são desenvolvidos por comunidades voluntárias e não têm os mesmos recursos que as empresas.

Lei da IA: União Europeia bate martelo sobre primeira regulação da inteligência artificial

No apelo, intitulado “Apoiando o Código Aberto e a Ciência aberta na Lei de IA da UE”, a coalizão de organizações de IA está pedindo aos formuladores de políticas da UE que façam as seguintes alterações à Lei de IA da UE para proteger a inovação de código aberto e os cientistas independentes:

  • Dispensar projetos de código aberto da exigência de auditoria
  • Permitir que projetos de código aberto usem dados não transparentes, desde que sejam justos e confiáveis
  • Apoiar projetos de código aberto fornecendo-lhes financiamento e recursos

As organizações acreditam que essas alterações ajudarão a garantir que a Lei de IA da UE proteja a inovação de código aberto e incentive o desenvolvimento de sistemas de IA seguros, justos e confiáveis, que fogem da hegemonia das grandes empresas de tecnologia.

A coalizão ainda argumenta que a IA de código aberto é essencial para o desenvolvimento de uma tecnologia segura, justa e confiável. Eles dizem que o código aberto é mais transparente e auditável do que a IA tocada por uma grande firma. Eles defendem também que o código aberto possibilita uma comunidade mais diversa de pessoas desenvolvendo projetos.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:09

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024