– 5.4.2024

Eldupphör och genuina fredsförhandlingar bör fås till stånd i Gaza nu – Gränser och regler bör skapas för användning av artificiell intelligens i krigföring och i vapen!

Den israeliska armén använder ett AI-drivet vapensystem som kallas “Lavender”. Israeliska underrättelsemedier rapporterade för israelisk-palestinska +972-media hur AI använts för att identifiera och döda mål i Gaza. Enligt den information som inkommit fick officerarna redan i ett tidigt skede av attacken tillstånd att använda systemet utan att behöva kontrollera noggrant hur maskinen gjorde valen eller undersöka de data som valen grundade sig på. Enligt källan som +972 använt fungerar människan bara som en ”gummistämpel” för AI:s beslut. Endast cirka 20 sekunder används för varje mål innan attacken godkänns – då bara för att säkerställa att det valda målet är en man. Dessutom är det känt att besluten behandlas som om de var fattade av människor – trots att man vet att maskinen gör fel och märker ut människor som endast har en lös koppling till militanta grupper – eller ingen alls. Det är ytterst tveksamt om AI skulle kunna skilja mellan civila och militära mål på det sätt som den humanitära rätten kräver. 

“Det stora problemet med den här typen av krigföring och med artificiell intelligens är att systemet verkar ha programmerats eller medvetet övats för att fungera på ett sådant sätt att civila offer kan inträffa. En ”Hamas-aktör” som är löst definierad av systemet kan vara vilken person som helst som antas vara en man och som anses som fiende. När systemets sätt att fatta beslut kombineras med gammaldags bombteknik kan omfattande förstörelse åstadkommas,” konstaterar Laura Lodenius från Fredsförbundet.

Israels armé har enligt uppgift systematiskt attackerat utpekade individers hem, vanligtvis nattetid då hela deras familj varit närvarande. Andra autonoma system, inklusive ”Where’s Daddy?”, användes speciellt för att spåra upp valda individer och utföra attacker när de kom hem. I attackerna dog också familjemedlemmar och andra civila, kvinnor och barn. 

Även om det är AI som fattat beslutet att bomba människor ligger ansvaret helt och hållet på Israels armé och på Israels politiska ledning. Det finns många juridiska, etiska och säkerhetsmässiga problem förknippade med autonoma vapensystem. Frågorna om vem som har ansvaret för fel, för styrningen av maktmedel och för maktmedlens proportionalitet är en av orsakerna till de internationella kraven på att beslutsfattandet i krig och i dödande inte ska överföras till artificiell intelligens.

Fredsförbundet kräver eldupphör och genuina fredsförhandlingar i Gaza. Fredsförbundet kräver att gränser och regler bör skapas för användning av artificiell intelligens i krigföring och i vapen. Helautomatiska vapensystem bör förbjudas genom. ett internationellt avtal.