Inteligência Artificial

OpenAI e Anthropic assinam acordos com o governo dos EUA para pesquisa e testes de IA

Publicado por
Isabella Caminoto

As startups de IA OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de inteligência artificial, anunciou o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira (29).

Os acordos inéditos ocorrem em um momento em que as empresas enfrentam escrutínio regulatório sobre o uso seguro e ético de tecnologias de IA.

Legisladores da Califórnia estão prestes a votar em um projeto de lei ainda esta semana para regular amplamente como a IA é desenvolvida e implantada no estado.

“Uma IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, co-fundador e chefe de política da Anthropic, apoiada pela Amazon e Alphabet.

Sob os acordos, o Instituto de Segurança de IA dos EUA terá acesso a novos modelos importantes da OpenAI e da Anthropic antes e após seu lançamento público.

Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.

“Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que nosso trabalho conjunto ofereça uma estrutura que o resto do mundo possa construir”, disse Jason Kwon, diretor de estratégia do ChatGPT.

“Esses acordos são apenas o começo, mas são um marco importante enquanto trabalhamos para ajudar a administrar responsavelmente o futuro da IA”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA.

O instituto, parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de um decreto presidencial da administração do presidente Joe Biden para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

Leia também:

Este post foi modificado pela última vez em 29 de agosto de 2024 15:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Walt Disney forma unidade de negócios para coordenar o uso de IA e realidade aumentada

A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…

1 de novembro de 2024

HOVER: Modelo de IA compacto domina o controle de humanoides

A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…

1 de novembro de 2024

O ChatGPT agora é um mecanismo de busca com IA

O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…

31 de outubro de 2024

Ucrânia lança dezenas de sistemas de IA para ajudar seus drones a atingir alvos

A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…

31 de outubro de 2024

Google Maps usará IA para responder suas perguntas; entenda

A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…

31 de outubro de 2024

Mistério resolvido: líder em geração de imagens de IA revela sua identidade

A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…

31 de outubro de 2024