O SB 1047 da Califórnia, um projeto de lei rigoroso focado na segurança da inteligência artificial (IA) e na prevenção de desastres relacionados, passou por revisões significativas para atender às preocupações levantadas por empresas de IA como a Anthropic e por desenvolvedores de código aberto.
PUBLICIDADE
Os principais pontos revisados:
- O projeto de lei não permite mais que o procurador-geral da Califórnia processe empresas de IA por práticas de segurança negligentes antes que um evento catastrófico ocorra.
- Os laboratórios de IA agora são obrigados apenas a apresentar “declarações” públicas sobre suas práticas de segurança, em vez de certificações “sob pena de perjúrio”.
- Da mesma forma, os desenvolvedores devem agora demonstrar “cuidado razoável” em vez de “garantia razoável” de que os modelos de IA não representam riscos significativos.
- O projeto de lei está agora a caminho da votação final na Assembleia da Califórnia.
Por que isso é importante:
Há uma linha tênue entre o avanço tecnológico e a mitigação de riscos existenciais que os governos estão tentando equilibrar — e a Califórnia está mostrando que a regulamentação pode ser prática e adaptável. Essas mudanças representam um grande passo em direção ao desenvolvimento responsável de IA por meio de uma governança colaborativa.
Leia também: