Coalizão de organizações científicas independentes pede para que UE proteja a inovação de código aberto no AI Act

Uma coalizão de organizações interessadas em inteligência artificial de código aberto, incluindo Hugging Face, GitHub, EleutherAI, Creative Commons, LAION e Open Future, está pedindo aos formuladores de políticas da União Europeia que protejam a inovação de código aberto enquanto finalizam a Lei de IA da UE, chamada de AI Act.

A Lei de IA da UE, que deve sair até o fim de 2023, é a primeira lei de IA abrangente do mundo e está destinada a garantir que os sistemas na UE sejam seguros, justos e confiáveis.

PUBLICIDADE

A coalizão de organizações de IA de código aberto está preocupada que a Lei de IA da UE possa prejudicar a inovação de código aberto, pois exige que os sistemas de IA sejam auditados e que os dados usados para treiná-los sejam transparentes. 

De acordo com o documento enviado pelas empresas, publicado no último dia 26, exigências excessivas podem ser difíceis de atender para os projetos de código aberto, que geralmente são desenvolvidos por comunidades voluntárias e não têm os mesmos recursos que as empresas.

União Europeia
Lei da IA: União Europeia bate martelo sobre primeira regulação da inteligência artificial

No apelo, intitulado “Apoiando o Código Aberto e a Ciência aberta na Lei de IA da UE”, a coalizão de organizações de IA está pedindo aos formuladores de políticas da UE que façam as seguintes alterações à Lei de IA da UE para proteger a inovação de código aberto e os cientistas independentes:

PUBLICIDADE

  • Dispensar projetos de código aberto da exigência de auditoria
  • Permitir que projetos de código aberto usem dados não transparentes, desde que sejam justos e confiáveis
  • Apoiar projetos de código aberto fornecendo-lhes financiamento e recursos

As organizações acreditam que essas alterações ajudarão a garantir que a Lei de IA da UE proteja a inovação de código aberto e incentive o desenvolvimento de sistemas de IA seguros, justos e confiáveis, que fogem da hegemonia das grandes empresas de tecnologia.

A coalizão ainda argumenta que a IA de código aberto é essencial para o desenvolvimento de uma tecnologia segura, justa e confiável. Eles dizem que o código aberto é mais transparente e auditável do que a IA tocada por uma grande firma. Eles defendem também que o código aberto possibilita uma comunidade mais diversa de pessoas desenvolvendo projetos.

Veja também:

Rolar para cima