Billedkreditter: AFP

Israel bruger kunstig intelligens til at udvælge mål i Gaza, afslører rapporten

Seneste undersøgelser af magasinet +972 og Local Call fremhævet brugen af inteligência kunstig (IA) af den israelske hær for at identificere bombemål i Gaza. Ifølge seks involverede israelske efterretningstjenestemænd kaldte AI-værktøjet "Lavender” ville have en fejlprocent på 10 %. Men de erklærede også, at menneskelig gennemgang af foreslåede mål ofte var overfladisk.

ANNONCER

Mens Israel Defense Forces (IDF) ikke anfægtede eksistensen af ​​AI-værktøjet nævnt i rapporten, benægtede det brugen af ​​det til at identificere terrormistænkte. I stedet understregede de, at sådanne systemer tjener som hjælpemidler til analytikere med det formål at minimere civile tab under militære operationer.

Kritikere har fremhævet bekymringer om afhængighed af AI, med påstande om, at menneskelig overvågning var minimal, og beslutninger blev godkendt hurtigt, nogle gange på så lidt som 20 sekunder pr. mål.

IDF præciserede, at dets analytikere bruger databaser til at indsamle efterretninger om militære operatører fra terrororganisationer, med menneskelige officerer ansvarlige for at verificere mål i overensstemmelse med international lov og IDF-retningslinjer.

ANNONCER

Rapporter nævnte også IDF's systematiske målretning mod hjem, især om natten, hvilket resulterede i civile ofre, herunder kvinder og børn. Brugen af ​​ustyret ammunition, som udgør større risici for civile, blev også fremhævet.

Israel fastholder, at dets militære operationer er rettet mod Hamas-militanter, der er ansvarlige for angreb på israelske civile, med henvisning til behovet for tung ammunition for at bekæmpe truslen fra gruppen.

Læs også:

rulle op