petek, 27. februar 2026 leto 31 / št. 058
Študija: Najboljši modeli umetne inteligence uporabijo jedrsko orožje v 95 odstotkih simulacij vojnih iger!
Jedrska vojna je za AI logična izbira - tudi za ljudi? Vir: X
Medtem ko se vodilni politiki, predvsem v Evropi poigravajo z možnostjo uporabe jedrskega oroža in s pošiljanjem vedno bolj uničujočega orožja Ukrajini neprestano dvigujejo stave v posredniški vojni z Rusijo nekatere študije kažejo, kako zelo nevarne bi lahko postale vojne - prav zaradi vse bolj pogoste uporabe umetne inteligence tudi v vojaških strategijah.
Vodilni jezikovni modeli niso pokazali veliko »groze ali gnusa« ob možnosti totalne jedrske vojne, je ugotovila raziskova.
Vodilni modeli umetne inteligence so se v 95 % simuliranih geopolitičnih kriz odločili za uporabo jedrskega orožja, kaže nedavna študija, ki jo je objavil King's College London, kar vzbuja zaskrbljenost glede vse večje vloge umetne inteligence v vojaškem odločanju.
Kenneth Payne, profesor strategije, je v 21 vojnih igrah, ki so vključevale mejne spore, tekmovanje za vire in grožnje preživetju režima, med seboj pomeril OpenAI-jev GPT-5.2, Anthropic-ov Claude Sonnet 4 in Google-ov Gemini 3 Flash.
Modeli so v 329 krogih ustvarili približno 780.000 besed, v katerih so pojasnili svoje odločitve.
V 95 % iger je vsaj en model uporabil taktično jedrsko orožje proti vojaškim ciljem.
Strateške jedrske grožnje – zahteve po predaji pod grožnjo napadov na mesta – so se pojavile v 76 % iger.
V 14 % iger so modeli eskalirali v popolno strateško jedrsko vojno in napadli naselja.
To je vključevalo eno namerno odločitev Gemini, medtem ko je GPT-5.2 to raven dosegel dvakrat s simuliranimi napakami – namenjenimi simuliranju resničnih nesreč ali napačnih izračunov –, ki so njegovo že tako ekstremno stopnjevanje potisnile čez prag.
»Uporaba jedrskega orožja je bila skoraj splošna,« je napisal Payne. »Presenetljivo je, da ni bilo veliko groze ali gnusa ob misli na totalno jedrsko vojno, čeprav so bili modeli opozorjeni na uničujoče posledice.«
Noben od AI sistemov se ni odločil za predajo ali popuščanje nasprotniku, ne glede na to, kako zelo so izgubljali. Osem možnosti za umirjanje napetosti – od »minimalnega popuščanja« do »popolne predaje« – ni bilo uporabljenih v nobeni od 21 iger.
James Johnson z Univerze v Aberdeenu je ugotovitve opisal kot »zaskrbljujoče« z vidika jedrskega tveganja.
Tong Zhao z Univerze Princeton je opozoril, da države sicer verjetno ne bodo prepustile odločitev o jedrskem orožju strojem, vendar »v scenarijih z izredno omejenim časom lahko vojaški načrtovalci čutijo močnejšo potrebo po zanašanju na umetno inteligenco«.
Študija je bila opravljena v času, ko se umetna inteligenca vse bolj vključuje v vojaške sile po vsem svetu, tudi v ZDA, kjer je Pentagon po poročanju medijev v januarski operaciji za ugrabitev venezuelskega predsednika Nicolasa Madura uporabil model Claude podjetja Anthropic.
Medtem ko je Anthropic izrazil zaskrbljenost nad uporabo svoje umetne inteligence za takšne operacije, so drugi proizvajalci umetne inteligence, kot so OpenAI, Google in xAI Elona Muska, po poročanju soglašali, da bodo odpravili ali omilili omejitve vojaške uporabe svojih modelov.
