O governo dos EUA está implementando novas regras para monitorizar a criação de modelos fundamentais de inteligência artificial (IA). Empresas como a OpenAI e o Google devem agora reportar ao governo sobre o seu progresso no desenvolvimento de novos modelos de linguagem extensivos e fornecer informações de segurança.
O governo dos EUA está estabelecendo um quadro para pesquisar e rever o desenvolvimento de novos grandes modelos de linguagem pelas empresas de inteligência artificial, centrando-se nos seus processos de formação e resultados de segurança.
A iniciativa faz parte de uma ordem executiva que obriga as empresas a notificar o governo federal sobre qualquer desenvolvimento de modelo de fundação que represente riscos significativos para a segurança nacional, a segurança econômica ou a saúde e segurança públicas.
O regulamento visa modelos básicos, como o GPT-4 da OpenAI e o Gemini do Google, especialmente aqueles com poder de computação sem precedentes devido aos seus potenciais riscos à segurança nacional.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:04
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…