REDAKCIJA - KOLOFON (EKIPA)

Registracija edicije: Elektronski časopis INSAJDER je vpisan pri Ministrstvu za kulturo z odločbo št. 006-203/01 pod zaporedno številko 36. Mednarodna serijska številka edicije: ISSN 1408-0990. Odgovorni urednik Igor Mekina.

Ali je umetna inteligenca odgovorna za umor delavcev Svetovne centralne kuhinje v Gazi?

Ali je umetna inteligenca odgovorna za umor delavcev Svetovne centralne kuhinje v Gazi?Sistem umetne inteligence »Lavender«, ki ga uporablja izraelska vojska, je identificiral 37.000 Palestincev, ki naj bi bili povezani s Hamasom ali palestinskim Islamskim džihadom, je po poročanju »Guardiana« povedalo šest obveščevalcev. Vir: Posnetek zaslona, X

V izraelski zračni kampanji v Gazi je uporabljena podatkovna baza, ki jo upravlja umetna inteligenca, ki je v nekem trenutku menda odkrila 37.000 možnih tarč na podlagi njihovih domnevnih vezi s Hamasom, navaja neimenovani obveščevalni vir, poroča Guardian.

Ko govorimo o uporabi sistema umetne inteligence (AI), imenovanega Lavender v vojni v Gazi, obveščevalni vir trdi, da so izraelski vojaški uradniki žegnali ubijanje velikega števila palestinskih civilistov, zlasti v prvih tednih in mesecih konflikta.

Kot je izpostavljeno, uporaba umetne inteligence v vojskovanju pomeni vstop na neznano ozemlje sodobnega vojskovanja in odpira številna pravna vprašanja in moralne dileme ter spreminja razmerje med vojaškim osebjem in stroji.

Pričevanja šestih obveščevalcev, ki so sodelovali pri uporabi umetne inteligence za odkrivanje ciljev, povezanih s Hamasom in Palestinskim islamskim džihadom, so posneli novinarji izraelsko-palestinske revije +972 in Local Kola v hebrejščini, material pa so ekskluzivno delili z britanskim Guardianom.

Vseh šest izraelskih obveščevalcev je dejalo, da je imel Lavender ključno vlogo v vojni, saj je obdelal ogromne količine podatkov za hitro identifikacijo možnih nižjih operativcev kot tarč.

Štirje viri so razkrili, da je Lavender na začetku vojne identificiral celo 37.000 Palestincev, ki jih je AI (umetna inteligenca) povezala s Hamasom ali Islamskim džihadom.

Lavender je razvila elitna obveščevalna enota izraelskih obrambnih sil (IDF), Enota 8200, za nekatere tarče pa je IDF zahteval predhodno odobritev za ocenjeno število civilistov, ki bi lahko bili ubiti. Dva vira sta povedala, da je bilo v prvih tednih spopadov dovoljeno ubiti 15 ali 20 civilistov med zračnimi napadi na skrajneže nižjega ranga, poroča britanski časnik.

Napade na takšne cilje so izvajali z nevodenimi bombami, ki uničijo cele hiše in ubijejo vse v njih, in kot je dejal eden od virov, v vladi Benjamina Netanjahuja niso želelei zapravljati dragih bomb za nepomembne ljudi.

Če bi Izrael uporabljal omenjene bombe, da zravna z zemljo domove na tisoče Palestincev, ki so bili s pomočjo umetne inteligence povezani s Hamasom, bi to po mnenju strokovnjakov za konflikte lahko pojasnilo šokantno visoko število žrtev med civilisti v tej vojni, poudarja besedilo. Po podatkih palestinskega ministrstva za zdravje je bilo v šestih mesecih spopadov ubito 33.000 Palestincev.

V odgovoru na medijska vprašanja glede pričevanja obveščevalcev je IDF izjavil, da izvaja operacije v skladu s pravili sorazmerne uporabe sile po mednarodnem pravu in da so nevodene bombe »standardno orožje«, ki ga uporabljajo piloti IDF z »visoko stopnjo natančnosti.«

V svoji izjavi opisujejo Lavender kot bazo podatkov, ki se uporablja za »navzkrižno referenco z obveščevalnimi viri za pridobitev posodobljenih informacij o vojaških operativcih terorističnih organizacij. To ni seznam potrjenih vojaških operativcev, ki so primerni za napad.«

IDF ne uporablja sistema umetne inteligence, ki identificira teroristične operativce ali poskuša uganiti, ali je neka oseba terorist, so dodali v odgovoru.

»Informacijski sistemi so samo orodje analitikov v procesu identifikacije ciljev,« piše v sporočilu IDF.

V besedilu navajajo, da je bila razglasitev »sumljivih posameznikov« za legitimne tarče prej daljši proces, toda v tednih in mesecih po 7. oktobru je bil ta model za odobritev napadov na človeške cilje dramatično pospešen, so povedali viri.

»Nenehno so pritiskali na nas: 'Dajte nam še več tarč!' Res so kričali na nas. Rečeno nam je bilo: Zdaj moramo uničiti Hamas, ne glede na ceno. Bombardirajte vse po vrsti, kar lahko,« je dejal eden od obveščevalcev.

Da bi izpolnil to zahtevo, se je IDF močno zanašal na Lavender, da bi ustvaril zbirko podatkov posameznikov, za katere je ocenil, da imajo značilnosti pripadnika Islamskega džihada ali Hamasa.

Čeprav niso govorili o podrobnostih, torej kako natančno deluje Lavender, so obveščevalci navedli, da je bil algoritem programa spremenjen v prvih tednih vojne, kot tudi, da je bil zraven uporabljan tudi drug AI sistem Gospel, ki je bil namenjen predvsem iskanju tarč, kot so zgradbe in gradbeni objekti, bolj kot posameznikov.

Obveščevalci so še pojasnili, da je lažje ciljati hiše tistih, ki so zaradi domnevne povezave s Hamasom označeni kot tarče, kot pa jih ciljati, medtem ko so v vojaškem objektu, in da se je situacija z dovoljenim številom civilnih žrtev nenehno spreminjala.

Se pravi, včasih je bilo dovoljeno število civilnih žrtev v napadu na nižje rangiranega pripadnika Hamasa višje, včasih nižje, v povprečju pa je dosegalo do 20 civilistov...

Naše delo na Insajder.com z donacijami omogočate bralci.

Delite članek