OpenAI and Google will be required to notify the government about AI models https://t.co/UbJrrRJXGy
— Mashable (@mashable) January 29, 2024
Supervisão Regulatória
O governo dos EUA está estabelecendo um quadro para pesquisar e rever o desenvolvimento de novos grandes modelos de linguagem pelas empresas de inteligência artificial, centrando-se nos seus processos de formação e resultados de segurança.
PUBLICIDADE
Ordem Executiva da IA
A iniciativa faz parte de uma ordem executiva que obriga as empresas a notificar o governo federal sobre qualquer desenvolvimento de modelo de fundação que represente riscos significativos para a segurança nacional, a segurança econômica ou a saúde e segurança públicas.
Foco em modelos básicos
O regulamento visa modelos básicos, como o GPT-4 da OpenAI e o Gemini do Google, especialmente aqueles com poder de computação sem precedentes devido aos seus potenciais riscos à segurança nacional.
As implicações para a indústria de IA
- Maior transparência: As empresas de IA serão obrigadas a ser mais transparentes sobre os seus processos de desenvolvimento, especialmente quando treinam novos modelos de linguagem de grande dimensão, partilhando detalhes com o governo.
- Ênfase na Segurança e Proteção: Haverá uma maior ênfase nos aspectos de segurança e proteção do desenvolvimento da IA, com as empresas compartilhando os resultados dos testes de segurança para análise do governo.
- Considerações internacionais: Os fornecedores de computação em nuvem dos EUA terão de divulgar quando entidades não norte-americanas utilizam os seus serviços para treinar grandes modelos linguísticos, acrescentando uma dimensão internacional à supervisão regulamentar.
Leia também: