Inteligência Artificial

OpenAI e Anthropic assinam acordos com o governo dos EUA para pesquisa e testes de IA

Publicado por
Isabella Caminoto

As startups de IA OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de inteligência artificial, anunciou o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira (29).

Os acordos inéditos ocorrem em um momento em que as empresas enfrentam escrutínio regulatório sobre o uso seguro e ético de tecnologias de IA.

Legisladores da Califórnia estão prestes a votar em um projeto de lei ainda esta semana para regular amplamente como a IA é desenvolvida e implantada no estado.

“Uma IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, co-fundador e chefe de política da Anthropic, apoiada pela Amazon e Alphabet.

Sob os acordos, o Instituto de Segurança de IA dos EUA terá acesso a novos modelos importantes da OpenAI e da Anthropic antes e após seu lançamento público.

Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.

“Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que nosso trabalho conjunto ofereça uma estrutura que o resto do mundo possa construir”, disse Jason Kwon, diretor de estratégia do ChatGPT.

“Esses acordos são apenas o começo, mas são um marco importante enquanto trabalhamos para ajudar a administrar responsavelmente o futuro da IA”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA.

O instituto, parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de um decreto presidencial da administração do presidente Joe Biden para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024