Coalizão de organizações científicas independentes pede para que UE proteja a inovação de código aberto no AI Act

Uma coalizão de organizações interessadas em inteligência artificial de código aberto, incluindo Hugging Face, GitHub, EleutherAI, Creative Commons, LAION e Open Future, está pedindo aos formuladores de políticas da União Europeia que protejam a inovação de código aberto enquanto finalizam a Lei de IA da UE, chamada de AI Act.

Publicado por
Uesley Durães

A Lei de IA da UE, que deve sair até o fim de 2023, é a primeira lei de IA abrangente do mundo e está destinada a garantir que os sistemas na UE sejam seguros, justos e confiáveis.

A coalizão de organizações de IA de código aberto está preocupada que a Lei de IA da UE possa prejudicar a inovação de código aberto, pois exige que os sistemas de IA sejam auditados e que os dados usados para treiná-los sejam transparentes. 

De acordo com o documento enviado pelas empresas, publicado no último dia 26, exigências excessivas podem ser difíceis de atender para os projetos de código aberto, que geralmente são desenvolvidos por comunidades voluntárias e não têm os mesmos recursos que as empresas.

Lei da IA: União Europeia bate martelo sobre primeira regulação da inteligência artificial

No apelo, intitulado “Apoiando o Código Aberto e a Ciência aberta na Lei de IA da UE”, a coalizão de organizações de IA está pedindo aos formuladores de políticas da UE que façam as seguintes alterações à Lei de IA da UE para proteger a inovação de código aberto e os cientistas independentes:

  • Dispensar projetos de código aberto da exigência de auditoria
  • Permitir que projetos de código aberto usem dados não transparentes, desde que sejam justos e confiáveis
  • Apoiar projetos de código aberto fornecendo-lhes financiamento e recursos

As organizações acreditam que essas alterações ajudarão a garantir que a Lei de IA da UE proteja a inovação de código aberto e incentive o desenvolvimento de sistemas de IA seguros, justos e confiáveis, que fogem da hegemonia das grandes empresas de tecnologia.

A coalizão ainda argumenta que a IA de código aberto é essencial para o desenvolvimento de uma tecnologia segura, justa e confiável. Eles dizem que o código aberto é mais transparente e auditável do que a IA tocada por uma grande firma. Eles defendem também que o código aberto possibilita uma comunidade mais diversa de pessoas desenvolvendo projetos.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 14:09

Uesley Durães

Posts recentes

OpenAI mira no Chrome com planos de desenvolver seu próprio navegador

A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…

22 de novembro de 2024

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024