Inteligência Artificial

OpenAI e Anthropic assinam acordos com o governo dos EUA para pesquisa e testes de IA

Publicado por
Isabella Caminoto

As startups de IA OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de inteligência artificial, anunciou o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira (29).

Os acordos inéditos ocorrem em um momento em que as empresas enfrentam escrutínio regulatório sobre o uso seguro e ético de tecnologias de IA.

Legisladores da Califórnia estão prestes a votar em um projeto de lei ainda esta semana para regular amplamente como a IA é desenvolvida e implantada no estado.

“Uma IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o Instituto de Segurança de IA dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, co-fundador e chefe de política da Anthropic, apoiada pela Amazon e Alphabet.

Sob os acordos, o Instituto de Segurança de IA dos EUA terá acesso a novos modelos importantes da OpenAI e da Anthropic antes e após seu lançamento público.

Os acordos também permitirão pesquisas colaborativas para avaliar as capacidades dos modelos de IA e os riscos associados a eles.

“Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que nosso trabalho conjunto ofereça uma estrutura que o resto do mundo possa construir”, disse Jason Kwon, diretor de estratégia do ChatGPT.

“Esses acordos são apenas o começo, mas são um marco importante enquanto trabalhamos para ajudar a administrar responsavelmente o futuro da IA”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA.

O instituto, parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de um decreto presidencial da administração do presidente Joe Biden para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

Leia também:

Este post foi modificado pela última vez em 29 de agosto de 2024 15:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Meta admite usar dados de australianos para treinar IA

A Meta confirmou que está usando dados de usuários australianos, incluindo fotos de crianças, para…

11 de setembro de 2024

Adobe lançará ferramenta de criação de vídeo com IA Generativa

A Adobe apresentará uma nova ferramenta de criação e edição de vídeo baseada em IA…

11 de setembro de 2024

IA gera ideias mais originais que humanos; revela estudo

Pesquisadores descobriram que ideias de inteligência artificial (IA) são consideradas mais originais, embora ligeiramente menos…

11 de setembro de 2024

Apple deve pagar mais de 14 bilhões de dólares à Irlanda; saiba o motivo

A decisão da Corte Europeia de Justiça (CEJ) em favor da Comissão Europeia marca um…

11 de setembro de 2024

Projeto de Lei sobre IA da Califórnia causa divisão; entenda

O novo projeto de lei de regulamentação de inteligência artificial (IA) da Califórnia, o Projeto…

11 de setembro de 2024

Carros autônomos da Waymo superam humanos

Um novo estudo aprofundado sobre os novos dados de acidentes da Waymo sugere que os…

11 de setembro de 2024