Investigações recentes da revista +972 e do Local Call destacaram o uso de inteligência artificial (IA) pelo exército de Israel para identificar alvos de bombardeio em Gaza. De acordo com seis oficiais de inteligência israelenses envolvidos, a ferramenta de IA chamada “Lavender” teria uma taxa de erro de 10%. No entanto, eles também afirmaram que a revisão humana dos alvos sugeridos muitas vezes era superficial.
PUBLICIDADE
Embora as Forças de Defesa de Israel (IDF) não tenham contestado a existência da ferramenta de IA mencionada no relatório, negaram seu uso na identificação de suspeitos de terrorismo. Em vez disso, enfatizaram que tais sistemas servem como auxílios para os analistas, com o objetivo de minimizar as baixas civis durante as operações militares.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
Críticos destacaram preocupações sobre a dependência de IA, com alegações de que a supervisão humana era mínima e as decisões eram aprovadas rapidamente, às vezes em apenas 20 segundos por alvo.
As IDF esclareceram que seus analistas utilizam bancos de dados para reunir inteligência sobre operativos militares de organizações terroristas, sendo os oficiais humanos responsáveis por verificar os alvos de acordo com o direito internacional e as diretrizes da IDF.
PUBLICIDADE
Relatos também mencionaram o direcionamento sistemático de residências por parte das IDF, principalmente à noite, resultando em baixas civis, incluindo mulheres e crianças. O uso de munições não guiadas, que representam maiores riscos para civis, também foi destacado.
Israel mantém que suas operações militares visam os militantes do Hamas responsáveis por ataques a civis israelenses, alegando a necessidade de munições pesadas para combater a ameaça representada pelo grupo.
Leia também: