A Assembleia Estadual da Califórnia aprovou a Lei de Inovação Segura e Segura para Modelos de Inteligência Artificial de Fronteira (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act – SB 1047), informou a Reuters. O projeto de lei é uma das primeiras regulamentações significativas de inteligência artificial (IA) nos EUA.
O projeto de lei, que tem sido um ponto focal de debate no Vale do Silício e além, obrigaria as empresas de IA operando na Califórnia a implementar uma série de precauções antes de treinarem um modelo de base sofisticado. Isso inclui tornar possível desligar o modelo rapidamente e completamente, garantir que o modelo seja protegido contra “modificações pós-treinamento inseguras” e manter um procedimento de teste para avaliar se um modelo ou seus derivados correm um risco especial de “causar ou permitir um dano crítico”.
O senador Scott Wiener, principal autor do projeto de lei, disse que o SB 1047 é um projeto de lei altamente razoável que pede a grandes laboratórios de IA que façam o que já se comprometeram a fazer: testar seus grandes modelos para avaliar o risco de segurança catastrófica. “Trabalhamos muito durante todo o ano, com defensores de código aberto, Anthropic e outros, para refinar e melhorar o projeto de lei. O SB 1047 está bem calibrado para o que sabemos sobre riscos previsíveis de IA e merece ser promulgado.”
Críticos do SB 1047 – incluindo OpenAI e Anthropic, os políticos Zoe Lofgren e Nancy Pelosi e a Câmara de Comércio da Califórnia – argumentaram que ele é excessivamente focado em danos catastróficos e poderia prejudicar indevidamente pequenos desenvolvedores de IA de código aberto.
O projeto de lei foi emendado em resposta, substituindo potenciais penalidades criminais por civis, restringindo os poderes de aplicação concedidos ao procurador-geral da Califórnia e ajustando os requisitos para se juntar a um “Conselho de Modelos de Fronteira” criado pelo projeto de lei.
Após o Senado Estadual votar no projeto de lei alterado – um voto que se espera que seja aprovado – o projeto de lei de segurança de IA seguirá para o governador Gavin Newsom, que terá até o final de setembro para decidir seu destino, de acordo com o The New York Times.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 23:18
A OpenAI divulgou um plano para reformular sua estrutura corporativa no próximo ano, afirmando que…
A Apple está se aproximando de uma marca histórica de US$ 4 trilhões de valor…
Na versão mais recente do aplicativo Arquivos do Google, invocar o Gemini enquanto olha para…
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…