A Anthropic acaba de publicar uma atualização significativa em sua Política de Escalabilidade Responsável (Responsible Scaling Policy), apresentando novos salvaguardas e medidas de governança para sistemas avançados de inteligência artificial (IA) e destacando benchmarks futuros que requerem protocolos de segurança adicionais.
PUBLICIDADE
Os detalhes
- A política introduz “Limiares de Capacidade” e “Limiares Requeridos” para acionar medidas de segurança aprimoradas quando os modelos de IA atingirem certos níveis de risco.
- Os dois novos limiares se concentram em capacidades de IA relacionadas a bioarmas e pesquisa autônoma de IA.
- A Anthropic enfatizou a necessidade de a abordagem de risco ser “exportável”, esperando que se torne um padrão do setor e ajude a moldar a regulamentação.
- A Anthropic avaliará regularmente seus modelos de IA, enquanto um “Responsável de Escalabilidade” supervisionará a implementação e conformidade da política.
- A empresa também se comprometeu com maior transparência, incluindo divulgação pública de relatórios de capacidade e contribuição de especialistas externos.
Por que isso importa
A atualização da Anthropic representa um dos frameworks mais abrangentes até agora para o desenvolvimento responsável de IA avançada e continua a cimentar a posição da empresa como o laboratório “focado em segurança”. A medida também pode antecipar uma grande aceleração iminente com novos lançamentos no futuro próximo.
Leia também: