REDAKCIJA - KOLOFON (EKIPA)

Registracija edicije: Elektronski časopis INSAJDER je vpisan pri Ministrstvu za kulturo z odločbo št. 006-203/01 pod zaporedno številko 36. Mednarodna serijska številka edicije: ISSN 1408-0990. Odgovorni urednik Igor Mekina.

Lažne novice na steroidih - kmalu ne bomo več mogli verjeti niti posnetkom tega, kar se izgovarja

Lažne novice na steroidih - kmalu ne bomo več mogli verjeti niti posnetkom tega, kar se izgovarjaAI - umetna inteligenca nadzoruje
Nova programska oprema umetne inteligence (AI), ki uporablja strojno učenje uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku.

V najnovejšem primeru t. i. deepfake tehnologije so raziskovalci razkrili novo programsko opremo umetne inteligence (AI), ki uporablja strojno učenje.

Slednja uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku, poroča THE VERGE.

Delo so opravili znanstveniki s Stanfordske univerze, Inštituta za informatiko Max Planck, Univerze Princeton v sodelovanju z Adobe Research.

Nova pridobitev prikazuje, da je naša zmožnost urejanja tega, kar ljudje govorijo v videoposnetkih in ustvarjanja realističnih ponaredkov, vsak dan lažja.

Projekt je trenutno na stopnji raziskovanja in ni na voljo kot potrošniška programska oprema, vendar verjetno ne bo trajalo dolgo, da se podobne storitve pojavijo na trgu. Adobe je na primer že delil podrobnosti o prototipni programski opremi z imenom VoCo, ki uporabnikom omogoča preprosto urejanje posnetkov govora in je bila uporabljena v tej raziskavi.

Robot

Da bi ustvarili lažni video, znanstveniki združujejo številne tehnike. Najprej skenirajo ciljni video, da izolirajo foneme (najmanjša glasovna enota, s katero govorci določenega jezika razlikujejo pomen besed), ki jih je govoril subjekt. Nato se ti fonemi ujemajo z ustreznimi izrazi obraza, ki spremljajo zvok.

Nazadnje ustvarijo 3D model spodnje polovice obraza osebe na videoposnetku.

AI, ki uporablja strojno učenje, uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku

AI, ki uporablja strojno učenje, uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku.

V testih, v katerih so bili ponarejeni videoposnetki prikazani skupini 138-ih prostovoljcev, približno 60 odstotkov udeležencev ni ločilo originala in ponarejenega videa. To morda zveni precej nizek odstotek, toda samo 80 odstotkov te iste skupine je menilo, da je prvotni, neobdelan posnetek prav tako ponarejen.

Raziskovalci ugotavljajo, da je to mogoče zato, ker so posameznikom povedali, da bodo njihovi odgovori uporabljeni za študijo o urejanju videoposnetkov, kar pomeni, da so bili pripravljeni iskati ponaredke.

Kot vedno, pa je pomembno, da se spomnimo, da (zaenkrat) obstajajo omejitve za to, kar lahko ta tehnologija naredi.

Raziskovalci namreč ugotavljajo, da še ne morejo spremeniti razpoloženja ali tona glasu govornika, saj bi to povzročilo »grozljive rezultate«. Denimo če nekdo med govorom maha z rokami - popolnoma zmede algoritem.

Umetna inteligenca - AI

Javnost se bo morala kmalu spoprijeti s prihodom programske opreme, ki vsakomur omogoča urejanje tega, kar ljudje pravijo v videoposnetkih.

Tehnologija torej ni popolna, vendar te vrste omejitev se v zgodnji fazi raziskav pogosto pojavljajo, a jih ponavadi znanstveniki v kratkem premagajo.

To pomeni, da se bo morala javnost kmalu spoprijeti s temeljnim konceptom, ki ga ta raziskava dokazuje: prihodom programske opreme, ki vsakomur (tudi brez tehničnega usposabljanja) omogoča urejanje tega, kar ljudje pravijo v videoposnetkih.

Potencialna škoda zaradi te tehnologije je strah zbujajoča, raziskovalci na tem področju pa so pogosto kritizirani, ker niso upoštevali morebitne zlorabe svojega dela. Znanstveniki, vključeni v projekt, pravijo, da so že bili deležni te težave.

V blogu, ki spremlja delo znanstvenikov, pišejo: »Čeprav so metode za slikovno in video manipulacijo stare kot mediji, se tveganja zlorabe povečajo, če jih uporabimo za način komuniciranja, ki se včasih šteje za verodostojno dokazilo misli in namere. Zavedamo se, da lahko škodeželjni akterji uporabljajo takšne tehnologije za ponarejanje osebnih izjav in obrekovanje pomembnih posameznikov

Potencialna škoda zaradi te tehnologije je zato strah zbujajoča.

V testih, v katerih so bili ponarejeni videoposnetki prikazani skupini 138-ih prostovoljcev, približno 60 odstotkov udeležencev ni ločilo originala in ponarejenega videa.

Toda zdravilo, ki ga predlagajo, komaj da pomirja.

Pravijo, da je treba preprečiti zmedo, videoposnetek z AI pa mora biti jasno predstavljen, bodisi z uporabo vodnega žiga ali preko konteksta (npr. za občinstvo, ki razume, da gledajo izmišljeni film).

Toda tudi vodni žigi se z lahkoto odstranijo in izguba konteksta je ena od značilnosti spletnih medijev.

Danes veliko lažnih novic z lahkoto odkrijete z nekajminutno raziskavo, vendar to ne ustavi njihovega širjenja, zlasti v skupnostih, ki verjamejo takšnim lažem, saj ustrezajo njihovim predsodkom.

Zaradi tega se je razprava o tem preselila celo v ameriški kongres. Nekateri kongrresniki menijo, da socialne platforme ne bi smele več uživati »imunosti«, če bodo še objavljale lažne posnetke.

Kajti to bi lahko privedlo tudi do tega, da bo resnične novice in posnetke javnost razumela kot - lažne.

Raziskovalci sicer ugotavljajo, da je tehnologija, kot je ta, uporabna za veliko namenov.

Lahko bi bila v veliko pomoč filmski in televizijski industriji.

Tehnologija bi jim omogočila, da popravijo neuspele kadre brez ponovnega snemanja posnetkov in da ustvarijo dvojnike igralcev, ki govorijo različne jezike.

Toda te koristi se zdijo neprimerljive v primerjavi s potencialno škodo, ki jo tehnologija z lahkoto povzroči.

Napredek pri raziskavah, kot je ta, je zato še vedno zelo zaskrbljujoč.

Komentarji