OpenAI e Google serão obrigados a notificar o governo dos EUA sobre modelos de IA

O governo dos EUA está implementando novas regras para monitorizar a criação de modelos fundamentais de inteligência artificial (IA). Empresas como a OpenAI e o Google devem agora reportar ao governo sobre o seu progresso no desenvolvimento de novos modelos de linguagem extensivos e fornecer informações de segurança.

Supervisão Regulatória

O governo dos EUA está estabelecendo um quadro para pesquisar e rever o desenvolvimento de novos grandes modelos de linguagem pelas empresas de inteligência artificial, centrando-se nos seus processos de formação e resultados de segurança.

PUBLICIDADE

Ordem Executiva da IA

A iniciativa faz parte de uma ordem executiva que obriga as empresas a notificar o governo federal sobre qualquer desenvolvimento de modelo de fundação que represente riscos significativos para a segurança nacional, a segurança econômica ou a saúde e segurança públicas.

Foco em modelos básicos

O regulamento visa modelos básicos, como o GPT-4 da OpenAI e o Gemini do Google, especialmente aqueles com poder de computação sem precedentes devido aos seus potenciais riscos à segurança nacional.

As implicações para a indústria de IA

  • Maior transparência: As empresas de IA serão obrigadas a ser mais transparentes sobre os seus processos de desenvolvimento, especialmente quando treinam novos modelos de linguagem de grande dimensão, partilhando detalhes com o governo.
  • Ênfase na Segurança e Proteção: Haverá uma maior ênfase nos aspectos de segurança e proteção do desenvolvimento da IA, com as empresas compartilhando os resultados dos testes de segurança para análise do governo.
  • Considerações internacionais: Os fornecedores de computação em nuvem dos EUA terão de divulgar quando entidades não norte-americanas utilizam os seus serviços para treinar grandes modelos linguísticos, acrescentando uma dimensão internacional à supervisão regulamentar.

Leia também:

Rolar para cima