A União Europeia (UE) selecionou um grupo de especialistas em inteligência artificial (IA) para definir o nível de rigor que as empresas terão que adotar para cumprir as novas regulamentações sobre a tecnologia.
PUBLICIDADE
Por que isso é importante
Na segunda-feira (30), a Comissão Europeia realizará a primeira reunião plenária dos grupos de trabalho — formados por especialistas externos — encarregados de elaborar o “código de conduta” do Ato de IA (‘AI Act‘), que definirá como as empresas poderão cumprir esse conjunto abrangente de leis.
Há quatro grupos de trabalho, focados em temas como direitos autorais e mitigação de riscos. Entre os especialistas escolhidos para supervisionar os grupos estão o cientista canadense e “padrinho da IA” Yoshua Bengio, o ex-consultor de políticas do governo britânico Nitarshan Rajkumar e Marietje Schaake, pesquisadora do Centro de Políticas Cibernéticas da Universidade de Stanford.
Grandes empresas de tecnologia como Google e Microsoft estarão representadas nos grupos de trabalho, assim como diversas organizações sem fins lucrativos e especialistas acadêmicos.
PUBLICIDADE
Embora o código de conduta não seja legalmente vinculativo quando entrar em vigor em 2024, ele fornecerá às empresas uma lista de verificação para demonstrar sua conformidade. Qualquer empresa que alegar seguir a lei, mas ignorar o código, poderá enfrentar desafios legais.
Contexto
As empresas de IA são fortemente resistentes a divulgar o conteúdo usado para treinar seus modelos, descrevendo essa informação como segredo comercial que poderia dar vantagem aos concorrentes caso fosse tornada pública.
Embora o texto do Ato de IA estabeleça que algumas empresas terão que fornecer resumos detalhados dos dados usados para treinar seus modelos, o código de conduta deve esclarecer o quão detalhados esses resumos precisam ser.
PUBLICIDADE
Um dos quatro grupos de trabalho da UE se concentrará especificamente em questões relacionadas à transparência e direitos autorais, o que pode resultar na exigência de que as empresas publiquem conjuntos de dados completos, deixando-as vulneráveis a desafios legais ainda não testados.
Nos últimos meses, várias empresas de tecnologia proeminentes, incluindo Google e OpenAI, enfrentaram processos judiciais de criadores que alegam que seu conteúdo foi utilizado de maneira inadequada para treinar modelos de IA.
Próximos Passos
Após a reunião de segunda-feira, os grupos de trabalho se reunirão mais três vezes antes de um encontro final em abril, quando espera-se que apresentem o código de conduta à Comissão Europeia.
PUBLICIDADE
Se aceito, os esforços de conformidade das empresas serão medidos em relação ao código de conduta a partir de agosto de 2025.
Leia também: