O governo dos EUA também estabelecerá diretrizes de teste rigorosas, antes da cúpula histórica de segurança de IA, que acontecerá nos dias 1 e 2 de novembro no Reino Unido.
PUBLICIDADE
As diretivas de IA emitidas pela Casa Branca incluem:
- As empresas que desenvolvem modelos de IA que representam uma ameaça à segurança nacional, à segurança econômica ou à saúde e segurança devem partilhar os resultados dos seus testes de segurança com o governo;
- O governo estabelecerá diretrizes para os chamados ‘testes de equipe vermelha’, onde os avaliadores imitam atores desonestos nos seus procedimentos de teste;
- Serão emitidas orientações oficiais sobre marcas d’água em conteúdo criado por IA para lidar com o risco de danos causados por fraude e deepfakes;
- Serão desenvolvidos novos padrões para a triagem de síntese biológica para mitigar a ameaça dos sistemas de IA que ajudam a criar armas biológicas.
A Casa Branca disse que o compartilhamento dos resultados dos testes de modelos poderosos “garantiria que os sistemas de IA sejam seguros e confiáveis antes que as empresas os tornem públicos”.
A ordem também abrange áreas como privacidade, direitos civis, proteção ao consumidor e direitos dos trabalhadores.
As obrigações determinadas pela ordem serão implementadas e cumpridas no intervalo de 90 a 365 dias, com os itens de segurança e proteção enfrentando os prazos mais curtos.
PUBLICIDADE
Biden orders tech firms to share AI safety test results with US government https://t.co/2Ir59YtiE1
— Guardian news (@guardiannews) October 30, 2023
Leia também: