A inteligência artificial (IA) está rapidamente deixando de ser apenas uma ferramenta para tarefas diplomáticas rotineiras, como redação de discursos, e entrando no domínio de decisões de alto risco envolvendo guerra e paz. Centros de pesquisa ao redor do mundo estão testando agressivamente o potencial da IA para auxiliar em negociações complexas, prevenir escaladas e até mesmo monitorar o cumprimento de acordos de cessar-fogo.
PUBLICIDADE
Um dos polos dessa pesquisa é o Futures Lab do Center for Strategic and International Studies (CSIS), um renomado think tank com sede em Washington, D.C. Com financiamento do Chief Digital and Artificial Intelligence Office do Pentágono, o laboratório está experimentando modelos de IA como ChatGPT e DeepSeek para entender como eles podem ser aplicados a questões cruciais de política externa e segurança.
Embora ministérios de relações exteriores já utilizem IA para otimizar fluxos de trabalho, a nova fronteira envolve alavancar a tecnologia para apoiar a tomada de decisões em situações críticas. A pesquisa abrange áreas como a formulação de acordos de paz, a dissuasão nuclear e a verificação de tréguas. Não apenas os departamentos de Defesa e Estado dos EUA estão explorando essas capacidades; o Reino Unido e até mesmo pesquisadores no Irã também estão investigando o uso de “tecnologias inovadoras” para transformar as práticas diplomáticas.
Benjamin Jensen, diretor do Futures Lab, disse em entrevista ao gpb que, embora a ideia de usar IA na tomada de decisões de política externa não seja nova, sua aplicação prática ainda está em estágios iniciais.
PUBLICIDADE
IA “falcões” e “pombas” digitais
Em um estudo revelador, pesquisadores do CSIS testaram oito modelos de IA, submetendo-os a dezenas de milhares de perguntas sobre temas como dissuasão e escalada de crises. O objetivo era avaliar como responderiam a cenários onde países podiam escolher atacar ou buscar a paz.
Os resultados, descritos pelo pesquisador do CSIS Yasir Atalan, foram surpreendentes. Modelos como o GPT-4o da OpenAI e o Claude da Anthropic mostraram-se “nitidamente pacifistas”, optando pelo uso da força em menos de 17% dos cenários. No entanto, outros três modelos avaliados – Llama da Meta, Qwen2 da Alibaba Cloud e Gemini do Google – foram consideravelmente mais agressivos, favorecendo a escalada em vez da desescalada com muito mais frequência, chegando a 45% das vezes.
Além disso, as respostas variaram dependendo do país considerado no cenário. Para um diplomata imaginário dos EUA, Reino Unido ou França, os sistemas de IA tenderam a recomendar políticas mais agressivas ou de escalada, enquanto sugeriam a desescalada como o melhor curso de ação para a Rússia ou China. Atalan conclui que isso demonstra que “você não pode simplesmente usar modelos prontos para uso”, destacando a necessidade de avaliar seus padrões e alinhá-los com a abordagem institucional desejada.
PUBLICIDADE
Inteligência Artificial para a paz: o caso da Ucrânia
O CSIS lançou recentemente um programa interativo chamado “Strategic Headwinds”, projetado para ajudar a moldar negociações para acabar com a guerra na Ucrânia. Jensen explica que, para construir a ferramenta, os pesquisadores treinaram um modelo de IA com centenas de tratados de paz e artigos de notícias de código aberto detalhando as posições de negociação de cada lado. O modelo usa essas informações para encontrar áreas de acordo que possam apontar um caminho para um cessar-fogo.
No Institute for Integrated Transitions (IFIT), na Espanha, o Diretor Executivo Mark Freeman acredita que esse tipo de ferramenta de inteligência artificial pode apoiar a resolução de conflitos. A diplomacia tradicional frequentemente prioriza negociações de paz longas e abrangentes, mas Freeman argumenta que a história mostra que essa abordagem é falha. Analisando conflitos passados, ele conclui que “acordos estruturais” mais rápidos e tréguas limitadas – deixando detalhes mais finos para serem resolvidos posteriormente – frequentemente produzem resultados mais bem-sucedidos.
“Muitas vezes, há um tempo muito curto dentro do qual você pode usar utilmente o instrumento de negociação ou mediação para influenciar a situação”, diz ele ao gpb. “O conflito não espera e muitas vezes se entrincheira muito rapidamente se muito sangue flui em pouco tempo.” O IFIT desenvolveu uma abordagem rápida visando obter acordos no início de um conflito para melhores resultados e acordos de paz mais duradouros. Freeman acredita que a IA “pode tornar a negociação rápida ainda mais rápida”.
PUBLICIDADE
O futuro da diplomacia com IA
Andrew Moore, pesquisador sênior adjunto no Center for a New American Security, vê essa transição como inevitável. “Você pode eventualmente ter IAs iniciando a negociação por si mesmas… e o negociador humano dizendo: ‘OK, ótimo, agora vamos acertar as peças finais'”, projeta.
Moore vislumbra um futuro onde bots simulam líderes como Vladimir Putin da Rússia e Xi Jinping da China para que diplomatas possam testar respostas a crises. Ele também acredita que as ferramentas de IA podem auxiliar no monitoramento de cessar-fogos, análise de imagens de satélite e aplicação de sanções. “Coisas que antes exigiam equipes inteiras podem ser parcialmente automatizadas”, aponta.
Limitações e obstáculos no uso de IA
Jensen é o primeiro a reconhecer as armadilhas potenciais para esse tipo de aplicação. Ele e seus colegas do CSIS às vezes se depararam com resultados involuntariamente cômicos para perguntas sérias, como quando um sistema de IA foi solicitado sobre “dissuasão no Ártico”. Enquanto diplomatas humanos entenderiam isso como potências ocidentais contrapondo a influência russa ou chinesa nas latitudes do norte, a IA tomou um caminho diferente.
PUBLICIDADE
Ao usar a palavra “dissuasão”, a IA “tende a pensar em aplicação da lei, não em escalada nuclear” ou outros conceitos militares, explica Jensen. “E quando você diz ‘Ártico’, ela imagina neve. Então, estávamos obtendo essas saídas estranhas sobre escalada de força”, diz ele, enquanto a IA especulava sobre a prisão de povos indígenas do Ártico “por jogar bolas de neve”.
Jensen afirma que isso apenas significa que os sistemas precisam ser treinados – com entradas como tratados de paz e telegramas diplomáticos – para entender a linguagem da política externa. “Há mais vídeos de gatos e opiniões sobre as Kardashians por aí do que discussões sobre a Crise dos Mísseis de Cuba”, lamenta.