A Lei de IA da UE, que deve sair até o fim de 2023, é a primeira lei de IA abrangente do mundo e está destinada a garantir que os sistemas na UE sejam seguros, justos e confiáveis.
PUBLICIDADE
A coalizão de organizações de IA de código aberto está preocupada que a Lei de IA da UE possa prejudicar a inovação de código aberto, pois exige que os sistemas de IA sejam auditados e que os dados usados para treiná-los sejam transparentes.
De acordo com o documento enviado pelas empresas, publicado no último dia 26, exigências excessivas podem ser difíceis de atender para os projetos de código aberto, que geralmente são desenvolvidos por comunidades voluntárias e não têm os mesmos recursos que as empresas.
No apelo, intitulado “Apoiando o Código Aberto e a Ciência aberta na Lei de IA da UE”, a coalizão de organizações de IA está pedindo aos formuladores de políticas da UE que façam as seguintes alterações à Lei de IA da UE para proteger a inovação de código aberto e os cientistas independentes:
PUBLICIDADE
- Dispensar projetos de código aberto da exigência de auditoria
- Permitir que projetos de código aberto usem dados não transparentes, desde que sejam justos e confiáveis
- Apoiar projetos de código aberto fornecendo-lhes financiamento e recursos
As organizações acreditam que essas alterações ajudarão a garantir que a Lei de IA da UE proteja a inovação de código aberto e incentive o desenvolvimento de sistemas de IA seguros, justos e confiáveis, que fogem da hegemonia das grandes empresas de tecnologia.
A coalizão ainda argumenta que a IA de código aberto é essencial para o desenvolvimento de uma tecnologia segura, justa e confiável. Eles dizem que o código aberto é mais transparente e auditável do que a IA tocada por uma grande firma. Eles defendem também que o código aberto possibilita uma comunidade mais diversa de pessoas desenvolvendo projetos.
Veja também: