Inteligência Artificial

EUA testam chatbots de IA como conselheiros no planejamento de batalhas

Pesquisadores do Exército dos Estados Unidos estão realizando experimentos onde chatbots de IA servem como conselheiros de campo de batalha em simulações de jogos de guerra - mas especialistas alertam que tal tecnologia não deve ser usada em situações de alto risco.

Publicado por
Vinicius Siqueira

Esses experimentos têm como objetivo determinar se a inteligência artificial, especificamente a tecnologia da OpenAI, pode melhorar os processos de planejamento de batalha.

Os modelos GPT-4 Turbo e GPT-4 Vision da OpenAI, capazes de processar tanto informações de texto quanto de imagem, demonstraram desempenho superior em comparação com agentes de IA mais antigos em cenários simulados.

Nesses experimentos, os chatbots de IA desempenham o papel de assistentes de comandantes militares, propondo rapidamente várias opções de ação com base em informações fornecidas sobre o terreno do campo de batalha, forças amigáveis e inimigas e objetivos da missão.

Apesar de demonstrar eficácia na geração rápida de planos, os conselheiros de IA usando modelos GPT enfrentaram desafios, incluindo sofrer mais baixas do que seus homólogos.

Em janeiro de 2024, a atualização de política lançada pela OpenAI agora permite certas aplicações militares, alinhando-se com projetos de cibersegurança, enquanto ainda proíbe o envolvimento no desenvolvimento de armas ou causar danos a indivíduos ou propriedades.

No entanto, preocupações éticas e legais persistem quanto à viabilidade de empregar conselheiros de IA em conflitos complexos do mundo real.

A força-tarefa de IA do Departamento de Defesa dos Estados Unidos identificou numerosos casos de potenciais usos militares para tecnologias de IA generativa, destacando o crescente interesse em integrar a IA às operações de defesa. O exército dos EUA recentemente divulgou o uso de inteligência artificial para identificar alvos para ataques aéreos no Oriente Médio.

No entanto, o ceticismo persiste entre os especialistas, citando preocupações como viés de automação e prontidão da tecnologia para aplicações de alto risco.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 19:21

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024