Inteligência Artificial

OpenAI colabora com militares dos EUA em ferramentas de segurança cibernética

A OpenAI está colaborando com o Pentágono em diversos projetos, incluindo capacidades de cibersegurança, após a alteração recente na sua política sobre fornecer inteligência artificial (IA) para militares.

Publicado por
Vinicius Siqueira

A OpenAI, criadora do ChatGPT, está desenvolvendo ferramentas com o Departamento de Defesa dos Estados Unidos em software de cibersegurança de código aberto, colaborando em seu Desafio de IA para Cibersegurança.

Além disso, a empresa teve conversas iniciais com o governo dos EUA sobre métodos para auxiliar na prevenção do suicídio de veteranos, conforme afirmou Anna Makanju, vice-presidente de assuntos globais da empresa, em uma entrevista na Bloomberg House no Fórum Econômico Mundial em Davos na última terça-feira (16).

A OpenAI recentemente removeu a diretriz em seus termos de serviço que proibia o uso de sua IA em aplicações “militares e de guerra”. Makanju descreveu a decisão como parte de uma atualização mais ampla de suas políticas para se ajustar aos novos usos do ChatGPT e de suas outras ferramentas.

“Porque anteriormente tínhamos essencialmente uma proibição geral para uso militar, muitas pessoas achavam que isso proibiria muitos desses casos de uso, que as pessoas pensam estar muito alinhados com o que queremos ver no mundo”, disse ela. Mas a OpenAI manteve uma proibição de usar sua tecnologia para desenvolver armas, destruir propriedades ou prejudicar pessoas, disse Makanju.

A Microsoft Corp., maior investidora da OpenAI, fornece vários contratos de software para as forças armadas dos EUA e outros órgãos do governo. OpenAI, Anthropic, Google e Microsoft estão auxiliando a Agência de Pesquisa Avançada de Projetos de Defesa dos EUA (DARPA, na sigla em inglês) com seu Desafio de IA Cibernética para encontrar software que corrija automaticamente vulnerabilidades e defenda infraestruturas contra ciberataques.

A OpenAI também afirmou que está acelerando seu trabalho em segurança de eleições, dedicando recursos para garantir que suas ferramentas de IA generativa não sejam usadas para espalhar desinformação política.

Leia também:

Este post foi modificado pela última vez em 17 de janeiro de 2024 17:07

Vinicius Siqueira

Posts recentes

IA pode transformar a gestão de crises; saiba como

A gestão de crises tradicional - baseada em processos manuais e decisões centralizadas - mostra-se…

19 de setembro de 2024

FTC dos EUA diz que usuários de redes sociais não têm controle sobre dados usados pela IA

Empresas de redes sociais coletam, compartilham e processam vastos conjuntos de informações sobre seus usuários,…

19 de setembro de 2024

Salesforce aposta em agentes de IA autônomos para revolucionar o atendimento ao cliente

A Salesforce, conhecida por revolucionar o setor de software com o modelo de Software como…

19 de setembro de 2024

Órgão da ONU faz recomendações para governar a IA

Um órgão consultivo de inteligência artificial (IA) das Nações Unidas divulgou na quinta-feira (19) seu…

19 de setembro de 2024

YouTube usará IA para gerar ideias, títulos e até vídeos completos

A inteligência artificial (IA) está se espalhando por todo o portfólio de produtos do Google…

19 de setembro de 2024

LinkedIn está treinando modelos de IA com seus dados

O LinkedIn começou a usar os dados de seus usuários para treinar modelos de inteligência…

19 de setembro de 2024