– 5.4.2024

Tulitauko ja aitoja rauhanneuvotteluja Gazaan nyt – tekoälyn käytölle sodankäynnissä ja aseissa määritelävä rajat ja säännöt!

Israelin armeija käyttää tekoälyä hyödyntävää asejärjestelmää, joka tunnetaan nimellä “Lavender”. Israelin tiedusteluvälineet kertoivat mm. israelilais-palestiinalaiselle +972-medialle, kuinka AI:ta on käytetty kohteiden tunnistamiseen ja surmaamiseen Gazassa. Saatujen tietojen mukaan jo hyökkäyksen alkuvaiheessa upseereille annettiin lupa ottaa järjestelmä käyttöön ilman, että heidän tarvitsisi perusteellisesti tarkistaa miten kone teki valinnat tai tutkia dataa, johon ne perustuivat. +972:n lähteen mukaan ihminen toimii vain “kumileimasimena” AI:n päätöksille ja vain noin 20 sekuntia käytetään kullekin kohteelle ennen iskun hyväksymistä – vain varmistamaan, että merkitty kohde on mies. Lisäksi päätöksiä tiedetään käsitellyn kuin ne olisivat ihmisen tekemiä – siitä huolimatta, että koneen tiedetään tekevän virheitä ja merkitsevän henkilöitä, joilla on vain löyhä yhteys militantteihin ryhmiin – tai ei lainkaan. On erittäin kyseenalaista, voisiko tekoäly erottaa siviili- ja sotilaskohteet humanitaarisen oikeuden edellyttämällä tavalla.

“Iso ongelma tällaisessa sodankäynnissä ja tekoälyn käyttämisessä siinä on, että järjestelmä vaikuttaa tarkoituksella ohjelmoidun tai harjoitetun toimimaan niin, että siviiliuhreja saa tulla, kun järjestelmään löyhästi määritelty “Hamas-toimija” on lähes kuka tahansa miesoletettu, jota pidetään vihollisena. Kun järjestelmän tekemä päätöksenteko yhdistetään vanhanaikaisen pommiteknologian kanssa saadaan aikaan laaja-alaista tuhoa”, toteaa Laura Lodenius Rauhanliitosta.

Israelin armeija on systemaattisesti, raportoidun mukaan, hyökännyt kohteena olevien henkilöiden koteihin, yleensä öisin heidän koko perheensä ollessa paikalla. Muita autonomisia järjestelmiä, mukaan lukien ”Where’s Daddy?”, käytettiin erityisesti kohteena olevien henkilöiden jäljittämiseen ja iskujen suorittamiseen heidän saapuessaan kotiin, jolloin iskuissa kuoli myös perheenjäseniä ja muita siviilejä, naisia ja lapsia.

Vaikka AI on tehnyt päätöksiä ihmisten pommittamisesta, on vastuu yksin Israelin armeijalla ja Israelin poliittisella johdolla. Autonomisiin asejärjestelmiin liittyy monia oikeudellisia, eettisiä ja turvallisuusongelmia. Nämä vastuukysymykset virheistä ja voimankäytön kohdentamisesta ja suhteellisuudesta, on yksi syy miksi kansainvälisesti vaaditaan, että päätöksentekoa sodassa ja tappamisesta ei tule siirtää tekoälylle.

Rauhanliitto vaatii tulitaukoa ja aitoja rauhanneuvotteluja Gazaan ja, että tekoälyn käytölle sodankäynnissä ja aseissa on määriteltävä rajat ja säännöt. Asejärjestelmien täysautonomia tulee kieltää kansainvälisellä sopimuksella.