A União Europeia (UE) selecionou um grupo de especialistas em inteligência artificial (IA) para definir o nível de rigor que as empresas terão que adotar para cumprir as novas regulamentações sobre a tecnologia.
Na segunda-feira (30), a Comissão Europeia realizará a primeira reunião plenária dos grupos de trabalho — formados por especialistas externos — encarregados de elaborar o “código de conduta” do Ato de IA (‘AI Act‘), que definirá como as empresas poderão cumprir esse conjunto abrangente de leis.
Há quatro grupos de trabalho, focados em temas como direitos autorais e mitigação de riscos. Entre os especialistas escolhidos para supervisionar os grupos estão o cientista canadense e “padrinho da IA” Yoshua Bengio, o ex-consultor de políticas do governo britânico Nitarshan Rajkumar e Marietje Schaake, pesquisadora do Centro de Políticas Cibernéticas da Universidade de Stanford.
Grandes empresas de tecnologia como Google e Microsoft estarão representadas nos grupos de trabalho, assim como diversas organizações sem fins lucrativos e especialistas acadêmicos.
Embora o código de conduta não seja legalmente vinculativo quando entrar em vigor em 2024, ele fornecerá às empresas uma lista de verificação para demonstrar sua conformidade. Qualquer empresa que alegar seguir a lei, mas ignorar o código, poderá enfrentar desafios legais.
As empresas de IA são fortemente resistentes a divulgar o conteúdo usado para treinar seus modelos, descrevendo essa informação como segredo comercial que poderia dar vantagem aos concorrentes caso fosse tornada pública.
Embora o texto do Ato de IA estabeleça que algumas empresas terão que fornecer resumos detalhados dos dados usados para treinar seus modelos, o código de conduta deve esclarecer o quão detalhados esses resumos precisam ser.
Um dos quatro grupos de trabalho da UE se concentrará especificamente em questões relacionadas à transparência e direitos autorais, o que pode resultar na exigência de que as empresas publiquem conjuntos de dados completos, deixando-as vulneráveis a desafios legais ainda não testados.
Nos últimos meses, várias empresas de tecnologia proeminentes, incluindo Google e OpenAI, enfrentaram processos judiciais de criadores que alegam que seu conteúdo foi utilizado de maneira inadequada para treinar modelos de IA.
Após a reunião de segunda-feira, os grupos de trabalho se reunirão mais três vezes antes de um encontro final em abril, quando espera-se que apresentem o código de conduta à Comissão Europeia.
Se aceito, os esforços de conformidade das empresas serão medidos em relação ao código de conduta a partir de agosto de 2025.
Leia também:
Este post foi modificado pela última vez em 30 de setembro de 2024 11:59
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…
A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…