petek, 11. oktober 2024 leto 29 / št. 285
Ali je umetna inteligenca odgovorna za umor delavcev Svetovne centralne kuhinje v Gazi?
V izraelski zračni kampanji v Gazi je uporabljena podatkovna baza, ki jo upravlja umetna inteligenca, ki je v nekem trenutku menda odkrila 37.000 možnih tarč na podlagi njihovih domnevnih vezi s Hamasom, navaja neimenovani obveščevalni vir, poroča Guardian.
Ko govorimo o uporabi sistema umetne inteligence (AI), imenovanega Lavender v vojni v Gazi, obveščevalni vir trdi, da so izraelski vojaški uradniki žegnali ubijanje velikega števila palestinskih civilistov, zlasti v prvih tednih in mesecih konflikta.
‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets https://t.co/lH34Sp9tXV
— Yannick Grenzinger (@ygrenzinger) April 5, 2024
Kot je izpostavljeno, uporaba umetne inteligence v vojskovanju pomeni vstop na neznano ozemlje sodobnega vojskovanja in odpira številna pravna vprašanja in moralne dileme ter spreminja razmerje med vojaškim osebjem in stroji.
Pričevanja šestih obveščevalcev, ki so sodelovali pri uporabi umetne inteligence za odkrivanje ciljev, povezanih s Hamasom in Palestinskim islamskim džihadom, so posneli novinarji izraelsko-palestinske revije +972 in Local Kola v hebrejščini, material pa so ekskluzivno delili z britanskim Guardianom.
Vseh šest izraelskih obveščevalcev je dejalo, da je imel Lavender ključno vlogo v vojni, saj je obdelal ogromne količine podatkov za hitro identifikacijo možnih nižjih operativcev kot tarč.
More, including IDF statement:
— I've Been Mugged (@IveBeenMugged) April 5, 2024
Israel Defence Forces’ Response to Claims About Use of ‘Lavender’ AI Database in Gazahttps://t.co/xPgGJQ70LN #ArtificialIntelligence #software #Israel #Hamas #Gaza #IsraelHamasWar
Štirje viri so razkrili, da je Lavender na začetku vojne identificiral celo 37.000 Palestincev, ki jih je AI (umetna inteligenca) povezala s Hamasom ali Islamskim džihadom.
Lavender je razvila elitna obveščevalna enota izraelskih obrambnih sil (IDF), Enota 8200, za nekatere tarče pa je IDF zahteval predhodno odobritev za ocenjeno število civilistov, ki bi lahko bili ubiti. Dva vira sta povedala, da je bilo v prvih tednih spopadov dovoljeno ubiti 15 ali 20 civilistov med zračnimi napadi na skrajneže nižjega ranga, poroča britanski časnik.
Napade na takšne cilje so izvajali z nevodenimi bombami, ki uničijo cele hiše in ubijejo vse v njih, in kot je dejal eden od virov, v vladi Benjamina Netanjahuja niso želelei zapravljati dragih bomb za nepomembne ljudi.
EXPOSE | ‘LAVENDAR’: THE AI MACHINE DIRECTING ISRAEL'S BOMBING SPREE IN GAZA
— Suppressed Nws. (@SuppressedNws) April 3, 2024
Lavender is an AI-driven program developed by the Israeli military to generate targets for airstrikes in Gaza.
It marks individuals suspected of affiliation with Hamas and Palestinian Islamic Jihad… pic.twitter.com/ODrR2IALHw
Če bi Izrael uporabljal omenjene bombe, da zravna z zemljo domove na tisoče Palestincev, ki so bili s pomočjo umetne inteligence povezani s Hamasom, bi to po mnenju strokovnjakov za konflikte lahko pojasnilo šokantno visoko število žrtev med civilisti v tej vojni, poudarja besedilo. Po podatkih palestinskega ministrstva za zdravje je bilo v šestih mesecih spopadov ubito 33.000 Palestincev.
V odgovoru na medijska vprašanja glede pričevanja obveščevalcev je IDF izjavil, da izvaja operacije v skladu s pravili sorazmerne uporabe sile po mednarodnem pravu in da so nevodene bombe »standardno orožje«, ki ga uporabljajo piloti IDF z »visoko stopnjo natančnosti.«
V svoji izjavi opisujejo Lavender kot bazo podatkov, ki se uporablja za »navzkrižno referenco z obveščevalnimi viri za pridobitev posodobljenih informacij o vojaških operativcih terorističnih organizacij. To ni seznam potrjenih vojaških operativcev, ki so primerni za napad.«
'The machine did it coldly': Israel used AI to identify 37,000 Hamas targetshttps://t.co/QIMvlw0qjk
— HN Bot (@TechTweetBot) April 5, 2024
IDF ne uporablja sistema umetne inteligence, ki identificira teroristične operativce ali poskuša uganiti, ali je neka oseba terorist, so dodali v odgovoru.
»Informacijski sistemi so samo orodje analitikov v procesu identifikacije ciljev,« piše v sporočilu IDF.
V besedilu navajajo, da je bila razglasitev »sumljivih posameznikov« za legitimne tarče prej daljši proces, toda v tednih in mesecih po 7. oktobru je bil ta model za odobritev napadov na človeške cilje dramatično pospešen, so povedali viri.
Any comments on this Mr Macron, Mr Scholtz, Mr Mitsotakis, Ms von der Leyen? I suppose not https://t.co/c5HaBTX2LB
— Yanis Varoufakis (@yanisvaroufakis) April 4, 2024
»Nenehno so pritiskali na nas: 'Dajte nam še več tarč!' Res so kričali na nas. Rečeno nam je bilo: Zdaj moramo uničiti Hamas, ne glede na ceno. Bombardirajte vse po vrsti, kar lahko,« je dejal eden od obveščevalcev.
Da bi izpolnil to zahtevo, se je IDF močno zanašal na Lavender, da bi ustvaril zbirko podatkov posameznikov, za katere je ocenil, da imajo značilnosti pripadnika Islamskega džihada ali Hamasa.
Čeprav niso govorili o podrobnostih, torej kako natančno deluje Lavender, so obveščevalci navedli, da je bil algoritem programa spremenjen v prvih tednih vojne, kot tudi, da je bil zraven uporabljan tudi drug AI sistem Gospel, ki je bil namenjen predvsem iskanju tarč, kot so zgradbe in gradbeni objekti, bolj kot posameznikov.
Obveščevalci so še pojasnili, da je lažje ciljati hiše tistih, ki so zaradi domnevne povezave s Hamasom označeni kot tarče, kot pa jih ciljati, medtem ko so v vojaškem objektu, in da se je situacija z dovoljenim številom civilnih žrtev nenehno spreminjala.
Se pravi, včasih je bilo dovoljeno število civilnih žrtev v napadu na nižje rangiranega pripadnika Hamasa višje, včasih nižje, v povprečju pa je dosegalo do 20 civilistov...