A União Europeia (UE) selecionou um grupo de especialistas em inteligência artificial (IA) para definir o nível de rigor que as empresas terão que adotar para cumprir as novas regulamentações sobre a tecnologia.
Na segunda-feira (30), a Comissão Europeia realizará a primeira reunião plenária dos grupos de trabalho — formados por especialistas externos — encarregados de elaborar o “código de conduta” do Ato de IA (‘AI Act‘), que definirá como as empresas poderão cumprir esse conjunto abrangente de leis.
Há quatro grupos de trabalho, focados em temas como direitos autorais e mitigação de riscos. Entre os especialistas escolhidos para supervisionar os grupos estão o cientista canadense e “padrinho da IA” Yoshua Bengio, o ex-consultor de políticas do governo britânico Nitarshan Rajkumar e Marietje Schaake, pesquisadora do Centro de Políticas Cibernéticas da Universidade de Stanford.
Grandes empresas de tecnologia como Google e Microsoft estarão representadas nos grupos de trabalho, assim como diversas organizações sem fins lucrativos e especialistas acadêmicos.
Embora o código de conduta não seja legalmente vinculativo quando entrar em vigor em 2024, ele fornecerá às empresas uma lista de verificação para demonstrar sua conformidade. Qualquer empresa que alegar seguir a lei, mas ignorar o código, poderá enfrentar desafios legais.
As empresas de IA são fortemente resistentes a divulgar o conteúdo usado para treinar seus modelos, descrevendo essa informação como segredo comercial que poderia dar vantagem aos concorrentes caso fosse tornada pública.
Embora o texto do Ato de IA estabeleça que algumas empresas terão que fornecer resumos detalhados dos dados usados para treinar seus modelos, o código de conduta deve esclarecer o quão detalhados esses resumos precisam ser.
Um dos quatro grupos de trabalho da UE se concentrará especificamente em questões relacionadas à transparência e direitos autorais, o que pode resultar na exigência de que as empresas publiquem conjuntos de dados completos, deixando-as vulneráveis a desafios legais ainda não testados.
Nos últimos meses, várias empresas de tecnologia proeminentes, incluindo Google e OpenAI, enfrentaram processos judiciais de criadores que alegam que seu conteúdo foi utilizado de maneira inadequada para treinar modelos de IA.
Após a reunião de segunda-feira, os grupos de trabalho se reunirão mais três vezes antes de um encontro final em abril, quando espera-se que apresentem o código de conduta à Comissão Europeia.
Se aceito, os esforços de conformidade das empresas serão medidos em relação ao código de conduta a partir de agosto de 2025.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 11:59
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…