Inteligência Artificial

Califórnia aprova lei que obriga empresas de IA a adotarem medidas de segurança; entenda

Publicado por
Isabella Caminoto

A Assembleia Estadual da Califórnia aprovou a Lei de Inovação Segura e Segura para Modelos de Inteligência Artificial de Fronteira (Safe and Secure Innovation for Frontier Artificial Intelligence Models ActSB 1047), informou a Reuters. O projeto de lei é uma das primeiras regulamentações significativas de inteligência artificial (IA) nos EUA.

O projeto de lei, que tem sido um ponto focal de debate no Vale do Silício e além, obrigaria as empresas de IA operando na Califórnia a implementar uma série de precauções antes de treinarem um modelo de base sofisticado. Isso inclui tornar possível desligar o modelo rapidamente e completamente, garantir que o modelo seja protegido contra “modificações pós-treinamento inseguras” e manter um procedimento de teste para avaliar se um modelo ou seus derivados correm um risco especial de “causar ou permitir um dano crítico”.

O senador Scott Wiener, principal autor do projeto de lei, disse que o SB 1047 é um projeto de lei altamente razoável que pede a grandes laboratórios de IA que façam o que já se comprometeram a fazer: testar seus grandes modelos para avaliar o risco de segurança catastrófica. “Trabalhamos muito durante todo o ano, com defensores de código aberto, Anthropic e outros, para refinar e melhorar o projeto de lei. O SB 1047 está bem calibrado para o que sabemos sobre riscos previsíveis de IA e merece ser promulgado.”

Críticos do SB 1047 – incluindo OpenAI e Anthropic, os políticos Zoe Lofgren e Nancy Pelosi e a Câmara de Comércio da Califórnia – argumentaram que ele é excessivamente focado em danos catastróficos e poderia prejudicar indevidamente pequenos desenvolvedores de IA de código aberto.

O projeto de lei foi emendado em resposta, substituindo potenciais penalidades criminais por civis, restringindo os poderes de aplicação concedidos ao procurador-geral da Califórnia e ajustando os requisitos para se juntar a um “Conselho de Modelos de Fronteira” criado pelo projeto de lei.

Após o Senado Estadual votar no projeto de lei alterado – um voto que se espera que seja aprovado – o projeto de lei de segurança de IA seguirá para o governador Gavin Newsom, que terá até o final de setembro para decidir seu destino, de acordo com o The New York Times.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 23:18

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

OpenAI apresenta plano para se tornar uma empresa com fins lucrativos

A OpenAI divulgou um plano para reformular sua estrutura corporativa no próximo ano, afirmando que…

27 de dezembro de 2024

Apple se aproxima de US$ 4 trilhões de valor de mercado impulsionada pela IA

A Apple está se aproximando de uma marca histórica de US$ 4 trilhões de valor…

26 de dezembro de 2024

Gemini agora entende seus PDFs: Google integra IA ao aplicativo Arquivos

Na versão mais recente do aplicativo Arquivos do Google, invocar o Gemini enquanto olha para…

26 de dezembro de 2024

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024