REDAKCIJA - KOLOFON (EKIPA)

Registracija edicije: Elektronski časopis INSAJDER je vpisan pri Ministrstvu za kulturo z odločbo št. 006-203/01 pod zaporedno številko 36. Mednarodna serijska številka edicije: ISSN 1408-0990. Odgovorni urednik Igor Mekina.

Strokovnjaki OZN: V Libiji domnevno prvič uporabljen leteči ubijalski robot, »kamikaza« z umetno inteligenco

Strokovnjaki OZN: V Libiji domnevno prvič uporabljen leteči ubijalski robot, »kamikaza« z umetno inteligencoKargu-2, dron z umetno inteligenco. Vir: Twitter
Če bodo sklepi tega poročila potrjeni, bi šlo za precej revolucionarno pa tudi naravnost grozljivo novost – prvič naj bi namreč o ubijanju drugih ljudi, nasprotnikov v vojni odločala umetna inteligenca in ne - vojaki.

Lani je v Libiji avtonomno orožje turške izdelave - brezpilotni zrakoplov STM Kargu-2, domnevno »lovilo in na daljavo ubijalo« umikajoče se vojake, zveste libijskemu generalu Khalifi Haftarju.

Takšni so sklepi nedavnega poročila skupine strokovnjakov OZN o Libiji.

Če bodo sklepi tega poročila potrjeni, bi šlo za precej revolucionarno pa tudi naravnost grozljivo novost – prvič naj bi namreč o ubijanju drugih ljudi, nasprotnikov v vojni odločala umetna inteligenca in ne - vojaki.

Vse skupaj naj bi se dogajalo med umikom sil generala Khalife Haftarja, ki so morale po neuspešni ofenzivi na Tripoli, ki je propadla prav zaradi velike pomoči Turčije, zapuščati položaje in se umikati.

Roj dronov Kargu-2  Vir: Twitter
Roj dronov Kargu-2. Vir: Twitter

Vlada v Tripoliju, ki jo sicer priznavajo OZN, se je v veliki meri oprla prav na pomoč Ankare.

Hkrati pa so imele sile Haftarja oporo s strani ruskih najemniških vojakov, pa tudi Egipta, Združenih arabskih emiratov in še nekaterih držav.

Turčija je libijski vladi pomagala predvsem z brezpilotnimi letali, ki so se pokazali kot izjemno učinkoviti.

Njegovi programi omogočajo tudi skupinsko sodelovanje in napadanje ciljev v »roju«, v katerem skupaj deluje 20 takšnih naprav.

Med tem konfliktom pa so uporabili tudi dron Kargu-2, ki pa pomeni novo stopnico v spirali konfliktov: Gre za novo poglavje v uporabi avtonomnih orožij, kjer stroji izbirajo in uničujejo »človeške cilje« na podlagi umetne inteligence.

Kargu-2 je brezpilotni zrakoplov, ki svet okoli sebe analizira s pomočjo strojnega učenja.

Njegovi programi omogočajo tudi skupinsko sodelovanje in napadanje ciljev v »roju«, v katerem skupaj deluje 20 takšnih naprav.

Kako orožje deluje, kaže izdelovalec STM v videu, v katerem prikazuje napad na skupino lutk.

Kargu-2 obarvan v vojaško zeleno barvo  Vir:  Twitter
Kargu-2 obarvan v vojaško zeleno barvo. Vir: Twitter

Brezpilotni dron najprej analizira situacijo, nato pa se usmeri proti središču skupine in eksplodira v zraku nad tlemi, tako da jeklene kroglice in drobci, ki jih raznese eksplozija, zadenejo in smrtno ranijo tudi večje število ljudi.

Pri tem je dron tudi sam uničen in tako deluje kot nekakšni »robotski kamikaza.«

Dron namreč nosi v sebi majhno fragmentacijsko bojno glavo.

Kljub majhnosti je zaradi natančnega vodenja to orožje lahko izjemno nevarno.

Pri tem je dron tudi sam uničen in tako deluje kot nekakšni »robotski kamikaza.«

Doslej so mnogi vključno s Stevenom Hawkingom in Elonom Muskom opozarjali, da bi sami želeli prepovedati takšno orožje, ki bi lahko bilo najbolj nevarno človeštvu.

Nekateri trdijo, da bo takšno orožje nevarno, ker ne bo znalo razlikovati med civilisti in vojaki, drugi pa trdijo, da to ni res in da bo takšno orožje naredilo še manj »napak« ali zavestnih kršitev pravil bojevanja.

V številnih državah sveta že potekajo razprave o tem, ali bi bilo potrebno takšno orožje celo prepovedati.

Zastavlja se vprašanje, kakšno je tveganje, da bi ta orožja lahko naredila napake?

Kajti posledice bi lahko bile strahotne.

Posledice napačnega strela so lahko usodne za človeka, toda aktiviranje jedrske bojne glave W88 bi prineslo povsem drugačne posledice.

In kako se avtonomno orožje odloči, koga ubiti?

Zastavlja se vprašanje, kakšno je tveganje, da bi ta orožja lahko naredila napake? Kajti posledice bi lahko bile strahotne.

Mine - v določenem smislu izjemno preprosto avtonomno orožje - s pomočjo senzorjev tlaka določajo, kdaj naj eksplodirajo.

Sprožilec se lahko nastavi tako, da ga teža lažjega otroka ne sproži, odraslega človeka pa.

Tudi radarske rakete že znajo ločiti med civilnimi in vojaškimi radarji.

In vojska Južne Koreje v demilatirizirani coni uporablja avtonomno orožje SGR A-1, ki lahko deluje čisto samo. Vendar ne vedno.

Problematično pa ostaja predvsem odločanje orožij na podlagi strojnega učenja, ki temelji na algoritmih, kot v Kargu-2.

Programe za računalniški vid je že mogoče usposobiti za prepoznavanje šolskih avtobusov, traktorjev in cistern.

Toda nabori podatkov, na katerih se učijo, morda niso dovolj zapleteni ali trdni, umetna inteligenca (AI) pa se lahko »nauči« tudi kakšne napačne lekcije.

V enem primeru je neko podjetje razmišljalo o uporabi umetne inteligence za sprejemanje odločitev o zaposlovanju, dokler vodstvo ni ugotovilo, da njihov računalniški sistem meni, da je najpomembnejša kvalifikacija kandidatov za službo, da jim je ime Jared in da so že igrali srednješolsko igro lacrosse, najstarejšo igro v Severni Ameriki, podobni kriketu.

Res odbito. Toda rezultati sploh ne bi bili komični, kot v opisanem primeru, če bi avtonomno orožje naredilo podobno napako!

Doslej je vsa avtonomna orožja še vedno nadzoroval človek, ki je imel možnost, če bi se situacija zasukala v napačno smer, da intervenira in napako še pravočasno odpravi.

Doslej je vsa avtonomna orožja še vedno nadzoroval človek, ki je imel možnost, če bi se situacija zasukala v napačno smer, da intervenira in napako še pravočasno odpravi.

Toda kot je razvidno iz poročila o uporabi Kargu-2, lahko takšni sistemi delujejo tudi brez kakršnegakoli nadzora.

Missy Cummings, direktorica  človeškega in avtonomnega laboratorija na Univerzi Duke opozarja, da so tisti vozniki, ki menijo, da so njihova vozila bolj sposobna od njih samih, nagnjeni k večji raztresenosti in imajo zato »večjo možnost, da so udeleženi v nesrečah.«

Roboti, ki bodo sami odločali, kdaj ubiti ljudi so zato naslednja stopnja nevarnosti, ki je pred nami.

In povsem mogoče je, da je bila nevarna meja odločanja prvič prestopljena nekje daleč od opazovalcev, v kaosu državljanske vojne, ki od intervencije zveze NATO leta 2003 divja v uničeni Libiji.

Naše delo na Insajder.com z donacijami omogočate bralci.

Delite članek