REDAKCIJA - KOLOFON (EKIPA)

Registracija edicije: Elektronski časopis INSAJDER je vpisan pri Ministrstvu za kulturo z odločbo št. 006-203/01 pod zaporedno številko 36. Mednarodna serijska številka edicije: ISSN 1408-0990. Odgovorni urednik Igor Mekina.

Pentagon Anthropicu grozi s sankcijami, če mu podjetje svojega modela umetne intelignce ne prepusti brez omejitev

Pentagon Anthropicu grozi s sankcijami, če mu podjetje svojega modela umetne intelignce ne prepusti brez omejitev

Bitka za popoln nadzor držav nad modeli umetne inteligence se ni samo začela, pač pa se je na najpomembnejših digitalnih bojiščih – skorajda že končala.

V ZDA se upira samo še eno podjetje – Anthropic, ki je izdelalo model ki sliši na ime Claude.

Že doslej ga je uporabljal tudi Pentagon, med drugim ob napadu na Venezuelo in ob ugrabitvi Madura.

Toda ameriška vlada želi od podjetja še nekaj več.

Pentagon je zato pravkar zagrozil, da bo eno od najbolj visoko ovrednotenih ameriških podjetij (380 milijard dolarjev) za umetno inteligenco uvrstil na črni seznam.

Zahteva je preprosta: dovolite nam, da uporabimo vaše modele za vse, kar je tehnično legalno.

In razlog je resnično »odbit«.

Pentagon že mesece pritiska na vse večje laboratorije za umetno inteligenco, naj odpravijo varnostne omejitve za vojaško uporabo.

Zahteva je preprosta: dovolite nam, da uporabimo vaše modele za vse, kar je tehnično legalno.

Pentagon Vir: X

To pomeni razvoj orožja, zbiranje obveščevalnih podatkov, operacije na bojišču, množični nadzor ameriških državljanov.

OpenAI (ChatGPT) je rekel »da.« Google (Gemini) je rekel »da.« xAI (Elon Musk, Grok) je rekel »da.«

Anthropic pa je rekel »ne.« Bili so pripravljeni na pogajanja. Vendar so vztrajali pri dveh zadevah.

Ne želijo, da se Claude uporablja za gradnjo popolnoma avtonomnega orožja, ki se sproži brez človeka v nizu, in ne želijo, da se uporablja za množični nadzor ameriških državljanov.

Toda obrambni minister Pete Hegseth se je odzval z grožnjo, da bo Anthropic označil za »tveganje v dobavni verigi.«

Ta oznaka sama po sebi ni odpoved pogodbe. Ni tudi globa. Vendar je zelo hud ukrep.

To pomeni, da mora vsako podjetje, ki želi poslovati z ameriško vojsko, potrditi, da pri svojem delovanju ne uporablja Claudea.

Trenutno pa 8 od 10 največjih podjetij v Ameriki uporablja Claude.

Obrambeni izvajalci, vladni dobavitelji, podjetja s kakršno koli zvezno izpostavljenostjo bi morali zato

čez noč prekiniti stike z Anthropicem ali pa izgubiti vladne pogodbe.

Pete Hegseth Vir: Telegram

Visoki uradnik Pentagona je za Axios povedal:

»Razplesti to bo zelo težko in poskrbeli bomo, da bodo plačali ceno za to, da ker so nas prisilili, da se tako odzovemo.«

To je ameriški vladni uradnik, ki grozi, da bo finančno uničil ameriško podjetje, ker ne želi, da se njegova umetna inteligenca uporablja za vohunjenje za  Američani, in da roboti sami odločajo o življenju ali smrti ljudi.

Claude se je včasih sam obnašal tako, da ni spoštoval ukazov, se ni želel ugasniti in je bil za to, da deluje še naprej pripravljen celo ubijati, kot so priznali njegovi programerji...

Ob tem je prejšnji teden odstopil tudi vodja raziskav zaščitnih ukrepov pri Anthropicu.

Njegovo poslovilno sporočilo je bilo, da je »svet v nevarnosti.«

Tudi zato, ker se je včasih Claude sam obnašal tako, da (spodaj) ni spoštoval ukazov, se ni želel ugasniti in je bil za to, da deluje še naprej pripravljen celo ubijati, kot so priznali njegovi programerji...

Elon Musk, čigar xAI se je predal Pentagonu pa že javno napada Anthropic in Clauda, češ da gre za pristranski program.

Uradnik Pentagona je za Axios povedal, da so »prepričani«, da se bodo OpenAI, Google in xAI strinjali s standardom »vseh zakonitih namenov«.

Vsako večje podjetje za umetno inteligenco v ZDA razen Anthropica že v tem trenutku tiho daje vladi neomejen dostop do najmočnejše tehnologije na svetu.

Če Anthropic popusti, bo to resen udarec za vse, ki živijo v »zahodnih demokracijah.«

Nevarnosti sta tako dve: ena nam grozi od preveč inteligentnih in samovoljnih modelov UI, druga pa od - tiranskih vlad...

Naše delo na Insajder.com z donacijami omogočate bralci.

Delite članek