Esses experimentos têm como objetivo determinar se a inteligência artificial, especificamente a tecnologia da OpenAI, pode melhorar os processos de planejamento de batalha.
PUBLICIDADE
Os modelos GPT-4 Turbo e GPT-4 Vision da OpenAI, capazes de processar tanto informações de texto quanto de imagem, demonstraram desempenho superior em comparação com agentes de IA mais antigos em cenários simulados.
Nesses experimentos, os chatbots de IA desempenham o papel de assistentes de comandantes militares, propondo rapidamente várias opções de ação com base em informações fornecidas sobre o terreno do campo de batalha, forças amigáveis e inimigas e objetivos da missão.
Apesar de demonstrar eficácia na geração rápida de planos, os conselheiros de IA usando modelos GPT enfrentaram desafios, incluindo sofrer mais baixas do que seus homólogos.
PUBLICIDADE
Em janeiro de 2024, a atualização de política lançada pela OpenAI agora permite certas aplicações militares, alinhando-se com projetos de cibersegurança, enquanto ainda proíbe o envolvimento no desenvolvimento de armas ou causar danos a indivíduos ou propriedades.
No entanto, preocupações éticas e legais persistem quanto à viabilidade de empregar conselheiros de IA em conflitos complexos do mundo real.
A força-tarefa de IA do Departamento de Defesa dos Estados Unidos identificou numerosos casos de potenciais usos militares para tecnologias de IA generativa, destacando o crescente interesse em integrar a IA às operações de defesa. O exército dos EUA recentemente divulgou o uso de inteligência artificial para identificar alvos para ataques aéreos no Oriente Médio.
PUBLICIDADE
No entanto, o ceticismo persiste entre os especialistas, citando preocupações como viés de automação e prontidão da tecnologia para aplicações de alto risco.
Leia também: