Inteligência Artificial

OpenAI e Anthropic assinam acordos com o governo dos EUA para pesquisa e testes de IA

Publicado por
Isabella Caminoto

As startups de IA OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de inteligência artificial, anunciou o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira (29).

Os acordos inéditos ocorrem em um momento em que as empresas enfrentam escrutínio regulatório sobre o uso seguro e ético de tecnologias de IA.

Legisladores da Califórnia estão prestes a votar em um projeto de lei ainda esta semana para regular amplamente como a IA é desenvolvida e implantada no estado.

“Uma IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, co-fundador e chefe de política da Anthropic, apoiada pela Amazon e Alphabet.

Sob os acordos, o Instituto de Segurança de IA dos EUA terá acesso a novos modelos importantes da OpenAI e da Anthropic antes e após seu lançamento público.

Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.

“Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que nosso trabalho conjunto ofereça uma estrutura que o resto do mundo possa construir”, disse Jason Kwon, diretor de estratégia do ChatGPT.

“Esses acordos são apenas o começo, mas são um marco importante enquanto trabalhamos para ajudar a administrar responsavelmente o futuro da IA”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA.

O instituto, parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de um decreto presidencial da administração do presidente Joe Biden para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024