Israel bruker KI for å velge bombemål i Gaza

Det høye antallet sivile som drepes i Gaza skyldes delvis at Israel bruker kunstig intelligens (KI) når de velger bombemål, ifølge israelske gravejournalister.

Store røykmengder etter ett israelsk bombeangrep. Foto: AP Photo/Ariel Schalit.
Store røykmengder etter ett israelsk bombeangrep. Foto: AP Photo/Ariel Schalit. Vis mer
Publisert

Journalister i de to israelske nettavisene +972 og Local Call har intervjuet en rekke nåværende og tidligere etterretningsfolk. De har også snakket med en rekke andre kilder og innhentet og analysert data og dokumentasjon av de massive ødeleggelsene på Gazastripen.

Resultatet er en omfattende reportasje som konkluderer med at tidenes dødeligste krig for sivilbefolkningen i Gaza delvis kan tilskrives den israelske militærledelsens bruk av kunstig intelligens (KI).

Ved hjelp av KI har Israel kraftig utvidet lista over bombemål fra tidligere kriger. Nå omfatter den ikke bare militære mål, men også private bolighus, offentlige bygg og sivil infrastruktur, og lista oppdateres løpende.

Resultatet så langt er minst 21.000 drepte, det store flertallet av dem barn og kvinner. Flere tusen er savnet i ruinene av boligblokker og andre bygninger, og langt over 55.000 er såret i de israelske angrepene. Tusenvis er lemlestet for livet.

– Det ser hensynsløst ut. Det er vanskelig å se at de kan komme med en god forklaring på at den militære verdien av alle mål er i samsvar med alle de sivile tapene, sier førsteamanuensis Lars Peder Haga ved Luftkrigsskolen til NTB.

Full oversikt

Flere kilder bekrefter at Israels militære etterretningstjeneste ved hjelp av KI har utarbeidet detaljerte lister over bombemål i Gaza. For hvert mål anslås det også hvor mange sivile liv som trolig vil gå tapt.

– Israelerne bruker tilsynelatende et system som det amerikanerne begynte å utvikle for godt over 20 år siden for å regne ut sannsynlighet for sivile tap, sier Haga.

Ved én anledning ga den israelske militærledelsen ifølge kildene grønt lys til å bombe et mål der man antok at det befant seg en høytstående Hamas-leder, vel vitende om at flere hundre sivile palestinere også trolig ville bli drept i angrepet.

Ikke tilfeldig

Antallet sivile palestinere Israel er villige til å ofre avhenger av hvor viktig man anser at det egentlige målet for angrepet er, forteller en kilde.

– Ingenting skjer ved en tilfeldighet. Når en tre år gammel jente blir drept i et bolighus i Gaza, så skjer det fordi noen i hæren besluttet at det ikke var så nøye om hun ble drept, at dette var en pris man var villig til å betale, sier en kilde.

– Vi er ikke som Hamas. Dette er ikke raketter som treffer vilkårlig. Alt skjer med overlegg. Vi vet nøyaktig hvor mange sivile som vil bli drept i hvert eneste hjem, sier kilden.

Fabrikk for massedrap

Israel benytter et system som kalles Habsora, som i stor grad er basert på KI og som utpeker nye mål langt raskere enn det som tidligere lot seg gjøre.

En tidligere israelsk etterretningsoffiser beskriver systemet som «en fabrikk for massedrap».

Habsora-systemet plukker lynraskt ut boliger der det angivelig bor Hamas-medlemmer, men øyenvitner i Gaza forteller at Israel også ofte angriper hus der det verken bor Hamas-folk eller har vært tegn til militær aktivitet.

En analyse etter krigen i 2014 avdekket at 89 prosent av ofrene i angrep mot slike mål var ubevæpnede sivile, de fleste av dem kvinner og barn.

AVKLEDD: Israelske styrker skal ha arrestert flere titalls palestinere i Gaza. Reporter: Emma Dalen. Video: X Vis mer

Ødeleggelse

De israelske angrepene mot Gazastripen i denne krigen har vært langt mer omfattende enn under tidligere militæroffensiver.

– Dette er den mest intensive bruken av luftmakt vi har sett på veldig lenge, og israelerne ser ut til å ha senket terskelen for toleranse for sivile tap veldig mye, sier Haga.

Bare i løpet av de første fem dagene av krigen slapp Israel over 6000 bomber på til sammen 4000 tonn over Gaza, og hele nabolag ble lagt i grus.

I begynnelsen av desember opplyste Israel å ha angrepet over 22.000 mål , og over 60 prosent av alle boliger i Gaza er nå ifølge FN helt eller delvis ødelagt.

Ikke på kirurgisk vis

Etterretningskilder medgir at bruken av KI har resultert i en nærmest uendelig liste over bombemål for de israelske styrkene.

Habsora-systemet håndterer enorme mengder data som ikke engang titusenvis av etterretningsfolk kunne ha håndtert, sier en kilde.

Det israelske flyvåpenets øverstkommanderende Omer Tishler fastholder at det bare er legitime militære må l som blir angrepet, men han medgir at hele nabolag rammes «i stort omfang og ikke på kirurgisk vis».

Bekrefter

En talsmann for den israelske hæren bekreftet 2. november bruken av KI i utvelgelsen av bombemål.

– Automatiserte verktøy gir oss mulighet til å utpeke mål i rask takt, og det gir oss nøyaktig etterretningsmateriale av høy kvalitet i henhold til de operative behovene, opplyste han.

En etterretningskilde hevdet samtidig at systemet gjorde Israel i stand til å gjennomføre «presisjonsangrep» der man «påfører fienden stor skade og ikkestridende minimal skade».

– Å ha et høyt antall mål som kan påvirkes, er imidlertid ikke ensbetydende med at en vinner krigen. Utfordringen er å velge riktige mål, som skaper den effekten en ønsker, sier forskningsleder Dag Henriksen ved Luftkrigsskolen til NTB.

– At Habsora-systemet gir nøyaktig etterretningsmateriale av høy kvalitet i henhold til de operative behovene tror jeg vi skal være skeptisk til, sier han.

Liten militær verdi

At hele nabolag er lagt i grus begrunner Tishler med at det er snakk om «terror-reir for Hamas».

I den grad Hamas har benyttet bygninger der, er de for lengst forlatt når man venter israelske angrep, sier en israelsk etterretningskilde.

– Disse målene har stort sett ikke så stor militær verdi at det rettferdiggjør et angrep der det benyttes seks fly og bomber som veier flere tonn, sier en kilde.

Politiske føringer

– Avgjørelsen om hvor stor risiko for sivile tap du er villig til å ta er ikke et matematisk regnestykke, det er en skjønnsmessig vurdering som en militær sjef må gjøre og da gjerne basert på politiske føringer, sier Haga.

– Det er vanskelig å se for seg at dette kan overlates til maskinlæring og kunstig intelligens, mener han. Henriksen er enig.

– Israels langsiktige sikkerhetsutfordringer løses ikke av kunstig intelligens, sier han.

(©NTB)