Os três governos expressaram apoio à “autorregulação obrigatória através de códigos de conduta” para os modelos básicos de IA. O objetivo principal recai sobre a aplicação dos sistemas de IA, priorizando sua implementação e impacto prático em vez de focar exclusivamente na própria tecnologia.
PUBLICIDADE
Exclusive: Germany, France and Italy reach agreement on future AI regulation https://t.co/7rtb98HyQH pic.twitter.com/ikeuAUT7I0
— Reuters (@Reuters) November 18, 2023
Em um documento conjunto, esses países explicaram que os desenvolvedores dos modelos básicos da IA teriam que definir “cartões modelo” detalhados, contendo informações cruciais sobre o sistema de aprendizado de máquina utilizado. Esses cartões visam oferecer transparência e esclarecimento sobre o funcionamento desses sistemas para garantir uma adoção responsável e ética da IA.
“Juntos sublinhamos que a Lei da IA regula a aplicação da IA e não a tecnologia como tal”, afirmou o documento conjunto. “Os riscos inerentes residem na aplicação de sistemas de IA e não na própria tecnologia.”
Segundo Volker Wissing, Ministro de Assuntos Digitais da Alemanha, o acordo não deve regular a IA em si, mas sim a sua aplicação. “Precisamos regular as aplicações e não a tecnologia se quisermos jogar na principal liga de IA do mundo.”
PUBLICIDADE
Leia também: