sreda, 18. februar 2026 leto 31 / št. 049
Pentagon Anthropicu grozi s sankcijami, če mu podjetje svojega modela umetne intelignce ne prepusti brez omejitev
Bitka za popoln nadzor držav nad modeli umetne inteligence se ni samo začela, pač pa se je na najpomembnejših digitalnih bojiščih – skorajda že končala.
V ZDA se upira samo še eno podjetje – Anthropic, ki je izdelalo model ki sliši na ime Claude.
Že doslej ga je uporabljal tudi Pentagon, med drugim ob napadu na Venezuelo in ob ugrabitvi Madura.
BREAKING: Pentagon is now calling Claude a threat to national security
— NIK (@ns123abc) February 16, 2026
>pentagon embeds claude in military systems via palantir
>january: claude used in maduro extraction, people got smoked
>anthropic exec calls palantir like “hey did our AI help kill people”
Defense… pic.twitter.com/AI7ZAapO7M
Toda ameriška vlada želi od podjetja še nekaj več.
Pentagon je zato pravkar zagrozil, da bo eno od najbolj visoko ovrednotenih ameriških podjetij (380 milijard dolarjev) za umetno inteligenco uvrstil na črni seznam.
In razlog je resnično »odbit«.
Pentagon že mesece pritiska na vse večje laboratorije za umetno inteligenco, naj odpravijo varnostne omejitve za vojaško uporabo.
Zahteva je preprosta: dovolite nam, da uporabimo vaše modele za vse, kar je tehnično legalno.
To pomeni razvoj orožja, zbiranje obveščevalnih podatkov, operacije na bojišču, množični nadzor ameriških državljanov.
OpenAI (ChatGPT) je rekel »da.« Google (Gemini) je rekel »da.« xAI (Elon Musk, Grok) je rekel »da.«
Anthropic pa je rekel »ne.« Bili so pripravljeni na pogajanja. Vendar so vztrajali pri dveh zadevah.
Ne želijo, da se Claude uporablja za gradnjo popolnoma avtonomnega orožja, ki se sproži brez človeka v nizu, in ne želijo, da se uporablja za množični nadzor ameriških državljanov.
Toda obrambni minister Pete Hegseth se je odzval z grožnjo, da bo Anthropic označil za »tveganje v dobavni verigi.«
Ta oznaka sama po sebi ni odpoved pogodbe. Ni tudi globa. Vendar je zelo hud ukrep.
To pomeni, da mora vsako podjetje, ki želi poslovati z ameriško vojsko, potrditi, da pri svojem delovanju ne uporablja Claudea.
Trenutno pa 8 od 10 največjih podjetij v Ameriki uporablja Claude.
Obrambeni izvajalci, vladni dobavitelji, podjetja s kakršno koli zvezno izpostavljenostjo bi morali zato
čez noč prekiniti stike z Anthropicem ali pa izgubiti vladne pogodbe.
Visoki uradnik Pentagona je za Axios povedal:
»Razplesti to bo zelo težko in poskrbeli bomo, da bodo plačali ceno za to, da ker so nas prisilili, da se tako odzovemo.«
To je ameriški vladni uradnik, ki grozi, da bo finančno uničil ameriško podjetje, ker ne želi, da se njegova umetna inteligenca uporablja za vohunjenje za Američani, in da roboti sami odločajo o življenju ali smrti ljudi.
Ob tem je prejšnji teden odstopil tudi vodja raziskav zaščitnih ukrepov pri Anthropicu.
Njegovo poslovilno sporočilo je bilo, da je »svet v nevarnosti.«
Tudi zato, ker se je včasih Claude sam obnašal tako, da (spodaj) ni spoštoval ukazov, se ni želel ugasniti in je bil za to, da deluje še naprej pripravljen celo ubijati, kot so priznali njegovi programerji...
"It was ready to kill someone, wasn't it?"
— ControlAI (@ControlAI) February 10, 2026
"Yes."
Daisy McGregor, UK policy chief at Anthropic, a top AI company, says it's "massively concerning" that Anthropic's Claude AI has shown in testing that it's willing to blackmail and kill in order to avoid being shut down. pic.twitter.com/RuNO4LJKcu
Elon Musk, čigar xAI se je predal Pentagonu pa že javno napada Anthropic in Clauda, češ da gre za pristranski program.
Uradnik Pentagona je za Axios povedal, da so »prepričani«, da se bodo OpenAI, Google in xAI strinjali s standardom »vseh zakonitih namenov«.
Vsako večje podjetje za umetno inteligenco v ZDA razen Anthropica že v tem trenutku tiho daje vladi neomejen dostop do najmočnejše tehnologije na svetu.
Če Anthropic popusti, bo to resen udarec za vse, ki živijo v »zahodnih demokracijah.«
Nevarnosti sta tako dve: ena nam grozi od preveč inteligentnih in samovoljnih modelov UI, druga pa od - tiranskih vlad...
