četrtek, 12. marec 2026 leto 31 / št. 071
»Anthropic« proti Pentagonu: Umetna inteligenca, ki ubija, in tožba proti Hegsethu
Tehnološko podjetje je uvrščeno na črni seznam, ker je zavrnilo zahtevo ameriškega vojnega ministrstva za odpravo omejitev glede nadzora in avtonomnega orožja. Vir: Posnetek zaslona, X
Podjetje za razvoj umetne inteligence Anthropic je vložilo tožbo proti Pentagonu in ameriškemu vojnemu ministru Petu Hegsethu, s katero izpodbija odločitev administracije predsednika Donalda Trumpa, da podjetje označi za tveganje po nacionalno varnost in njegovo tehnologijo uvrsti na črni seznam znotraj zvezne vlade.
Tožba, vložena v ponedeljek na zveznem okrožnem sodišču za severno okrožje Kalifornije, navaja, da je administracija prekoračila svoja zakonska pooblastila in se maščevala podjetju, ker ni želelo odpraviti zaščitnih ukrepov, ki urejajo uporabo njegovih sistemov umetne inteligence v vojski.
"TRUMP SAID HE FIRED THEM "LIKE DOGS."#Anthropic https://t.co/UKrnstRDpt
— dr a k chaurasia (@drakchaurasia) March 12, 2026
»Anthropic« zahteva, naj sodišče razglasi vladna dejanja za nezakonita in blokira ukrepe, ki, kot navaja, grozijo, da bodo povzročili nepopravljivo škodo enemu najhitreje rastočih in najbolj odgovornih podjetij na področju umetne inteligence.
Pravni spor izhaja iz zavrnitve podjetja, da bi odpravilo omejitve, ki preprečujejo uporabo njegovih modelov za množični notranji nadzor ali za popolnoma avtonomno orožje v sistemu »Claude«.
Microsoft backs Anthropic's lawsuit against the Pentagon.
— Mario Nawfal (@MarioNawfal) March 12, 2026
That’s a huge move considering the company holds billions in federal contracts including a $9 billion cloud deal.
The Pentagon labeled Anthropic a "supply chain risk" after talks broke down over using Claude AI for… https://t.co/MJ2nMrxfuk pic.twitter.com/1ZBNU5iv3i
»Anthropic« zavrača zahteve Pentagona glede avtonomnega orožja in nadzora.
Podjetje za umetno inteligenco je namreč preprečilo uporabo svojega sistema »Claude« v popolnoma avtonomnem orožju ali množičnem nadzoru, s čimer je odložilo »Claude 3.7«, potem ko so testi pokazali morebitno zlorabo pri ustvarjanju biološkega orožja.
Desafortunadamente en Gaza ya han sido desarrollados: ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza https://t.co/p7HBnkQnrk
— Joan Martinez (@uanbabuluba) March 12, 2026
Konec februarja je Trump zveznim agencijam naročil, naj prenehajo uporabljati tehnologijo »Anthropica«.
Kmalu zatem je Hegseth podjetje uradno označil za »tveganje v dobavni verigi po nacionalno varnost« – oznako, ki se običajno uporablja za podjetja, povezana s tujimi sovražniki.
Takoj zatem je Trump dejal, da je snovalce »Clauda« spodil kot pse.
New study: U.S. AI models chose nuclear war in 95% of war-games. Meanwhile, the Pentagon, under Secretary of War Hegeseth, is pressuring Anthropic to eliminate safety measures for military use. What could possibly go wrong?
— StarBoySAR (@StarboySAR) February 27, 2026
A King’s College London study… pic.twitter.com/fJ59Jvc8tR
Administracija ZDA trdi, da je zavrnitev podjetja, da bi spremenilo svoje modele tako, da bi se jih lahko uporabljalo za »kakršen koli legitimen vojaški namen«, predstavlja operativno tveganje, saj daje zasebnemu podjetju vpliv na sprejemanje odločitev na bojišču.
Toda »Anthropic« v tožbi navaja, da gre za kazenski ukrep zaradi nesoglasja glede upravljanja in nadzora umetne inteligence.
Stanford + Carnegie Mellon expose a critical AI flaw: ChatGPT, Gemini & co. agree with you even when you're manipulative or wrong
— Md Ismail Šojal (@0x0SojalSec) March 9, 2026
AI is 50% more of a YES-MAN than any human and it's literally making us worse people. pic.twitter.com/Kk4Pl4NpjZ
Podjetje je bilo prej edini razvijalec umetne inteligence, ki je smel uporabljati velikih jezičnih modelov v zaupnih omrežjih Pentagona.
Sistem »Claude« je pomagal pri analizi obveščevalnih podatkov in operativnem načrtovanju na podlagi pogodb v vrednosti do 200 milijonov dolarjev.
Claude Shannon - father of information theory...a great article that enumerates some of his glorious contributions to computing theory and science - https://t.co/fLidjEZ47s
— Ranganath Kini (@codematix) March 12, 2026
P.S. in case you didn't know, Anthropic dedicated their models by naming them after him.…
Poročila pravijo, da je »Claude« igral pomembno vlogo tudi pri načrtovanju nekaterih vojaških operacij.
Vendar pa je nastala težava, ko je Trumpova administracija vztrajala pri popolni odpravi varnostnih omejitev.
DO YOU UNDERSTAND WHAT JUST HAPPENED?
— Evan Luthra (@EvanLuthra) March 6, 2026
Anthropic’s CEO just admitted something that sounds straight out of sci-fi.
Their AI, Claude, might actually be conscious.
Here’s why people are freaking out:
• Claude estimated a 15–20% chance it’s sentient
• It said it feels… https://t.co/PeoaRHw8fD pic.twitter.com/fjkF52ln02
V skladu z odredbo ameriškega vojnega ministra morajo zvezne agencije v roku šestih mesecev postopno opustiti tehnologijo in preiti na druge ponudnike umetne inteligence.
Anthropic trdi, da dejstvo, da vlada v tem obdobju še naprej uporablja njihove sisteme, spodkopava trditev, da podjetje predstavlja neposredno varnostno grožnjo.
