Inteligência Artificial

OpenAI colabora com militares dos EUA em ferramentas de segurança cibernética

A OpenAI está colaborando com o Pentágono em diversos projetos, incluindo capacidades de cibersegurança, após a alteração recente na sua política sobre fornecer inteligência artificial (IA) para militares.

Publicado por
Vinicius Siqueira

A OpenAI, criadora do ChatGPT, está desenvolvendo ferramentas com o Departamento de Defesa dos Estados Unidos em software de cibersegurança de código aberto, colaborando em seu Desafio de IA para Cibersegurança.

Além disso, a empresa teve conversas iniciais com o governo dos EUA sobre métodos para auxiliar na prevenção do suicídio de veteranos, conforme afirmou Anna Makanju, vice-presidente de assuntos globais da empresa, em uma entrevista na Bloomberg House no Fórum Econômico Mundial em Davos na última terça-feira (16).

A OpenAI recentemente removeu a diretriz em seus termos de serviço que proibia o uso de sua IA em aplicações “militares e de guerra”. Makanju descreveu a decisão como parte de uma atualização mais ampla de suas políticas para se ajustar aos novos usos do ChatGPT e de suas outras ferramentas.

“Porque anteriormente tínhamos essencialmente uma proibição geral para uso militar, muitas pessoas achavam que isso proibiria muitos desses casos de uso, que as pessoas pensam estar muito alinhados com o que queremos ver no mundo”, disse ela. Mas a OpenAI manteve uma proibição de usar sua tecnologia para desenvolver armas, destruir propriedades ou prejudicar pessoas, disse Makanju.

A Microsoft Corp., maior investidora da OpenAI, fornece vários contratos de software para as forças armadas dos EUA e outros órgãos do governo. OpenAI, Anthropic, Google e Microsoft estão auxiliando a Agência de Pesquisa Avançada de Projetos de Defesa dos EUA (DARPA, na sigla em inglês) com seu Desafio de IA Cibernética para encontrar software que corrija automaticamente vulnerabilidades e defenda infraestruturas contra ciberataques.

A OpenAI também afirmou que está acelerando seu trabalho em segurança de eleições, dedicando recursos para garantir que suas ferramentas de IA generativa não sejam usadas para espalhar desinformação política.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 17:07

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024