sreda, 04. december 2024 leto 29 / št. 339
Lažne novice na steroidih - kmalu ne bomo več mogli verjeti niti posnetkom tega, kar se izgovarja
V najnovejšem primeru t. i. deepfake tehnologije so raziskovalci razkrili novo programsko opremo umetne inteligence (AI), ki uporablja strojno učenje.
Slednja uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku, poroča THE VERGE.
Delo so opravili znanstveniki s Stanfordske univerze, Inštituta za informatiko Max Planck, Univerze Princeton v sodelovanju z Adobe Research.
A team of researchers including #PrincetonU shows that the ability to edit what people say in videos to create realistic fakes is getting easier every day. (via @verge) https://t.co/RhbuY9qR4X
— Princeton University (@Princeton) 14 June 2019
Nova pridobitev prikazuje, da je naša zmožnost urejanja tega, kar ljudje govorijo v videoposnetkih in ustvarjanja realističnih ponaredkov, vsak dan lažja.
Projekt je trenutno na stopnji raziskovanja in ni na voljo kot potrošniška programska oprema, vendar verjetno ne bo trajalo dolgo, da se podobne storitve pojavijo na trgu. Adobe je na primer že delil podrobnosti o prototipni programski opremi z imenom VoCo, ki uporabnikom omogoča preprosto urejanje posnetkov govora in je bila uporabljena v tej raziskavi.
Da bi ustvarili lažni video, znanstveniki združujejo številne tehnike. Najprej skenirajo ciljni video, da izolirajo foneme (najmanjša glasovna enota, s katero govorci določenega jezika razlikujejo pomen besed), ki jih je govoril subjekt. Nato se ti fonemi ujemajo z ustreznimi izrazi obraza, ki spremljajo zvok.
Nazadnje ustvarijo 3D model spodnje polovice obraza osebe na videoposnetku.
Deep Fake AI-generated video of Mona Lisa: https://t.co/6VQ8A3EBNS
— Dr Jordan B Peterson (@jordanbpeterson) 13 June 2019
AI, ki uporablja strojno učenje, uporabnikom omogoča izbrisati ali spremenili besede, ki prihajajo iz ust nekoga na posnetku
V testih, v katerih so bili ponarejeni videoposnetki prikazani skupini 138-ih prostovoljcev, približno 60 odstotkov udeležencev ni ločilo originala in ponarejenega videa. To morda zveni precej nizek odstotek, toda samo 80 odstotkov te iste skupine je menilo, da je prvotni, neobdelan posnetek prav tako ponarejen.
Raziskovalci ugotavljajo, da je to mogoče zato, ker so posameznikom povedali, da bodo njihovi odgovori uporabljeni za študijo o urejanju videoposnetkov, kar pomeni, da so bili pripravljeni iskati ponaredke.
A doctored video of Facebook's Mark Zuckerberg has exposed a frightening new technology that can bring photos to life and fool even the most sceptical news consumers. @10Daily @mylesdavies https://t.co/PGb47LJZqn
— Jessica Dunne (@JessicaTeneal) 15 June 2019
Kot vedno, pa je pomembno, da se spomnimo, da (zaenkrat) obstajajo omejitve za to, kar lahko ta tehnologija naredi.
Raziskovalci namreč ugotavljajo, da še ne morejo spremeniti razpoloženja ali tona glasu govornika, saj bi to povzročilo »grozljive rezultate«. Denimo če nekdo med govorom maha z rokami - popolnoma zmede algoritem.
Tehnologija torej ni popolna, vendar te vrste omejitev se v zgodnji fazi raziskav pogosto pojavljajo, a jih ponavadi znanstveniki v kratkem premagajo.
To pomeni, da se bo morala javnost kmalu spoprijeti s temeljnim konceptom, ki ga ta raziskava dokazuje: prihodom programske opreme, ki vsakomur (tudi brez tehničnega usposabljanja) omogoča urejanje tega, kar ljudje pravijo v videoposnetkih.
Potencialna škoda zaradi te tehnologije je strah zbujajoča, raziskovalci na tem področju pa so pogosto kritizirani, ker niso upoštevali morebitne zlorabe svojega dela. Znanstveniki, vključeni v projekt, pravijo, da so že bili deležni te težave.
V blogu, ki spremlja delo znanstvenikov, pišejo: »Čeprav so metode za slikovno in video manipulacijo stare kot mediji, se tveganja zlorabe povečajo, če jih uporabimo za način komuniciranja, ki se včasih šteje za verodostojno dokazilo misli in namere. Zavedamo se, da lahko škodeželjni akterji uporabljajo takšne tehnologije za ponarejanje osebnih izjav in obrekovanje pomembnih posameznikov.«
Potencialna škoda zaradi te tehnologije je zato strah zbujajoča.
Nvidia’s new AI creates incredibly fake fake videos https://t.co/MOqj1es0YP
— Khám Phá Cuộc Sống (@KhamPhaVideo) 12 June 2019
Toda zdravilo, ki ga predlagajo, komaj da pomirja.
Pravijo, da je treba preprečiti zmedo, videoposnetek z AI pa mora biti jasno predstavljen, bodisi z uporabo vodnega žiga ali preko konteksta (npr. za občinstvo, ki razume, da gledajo izmišljeni film).
Toda tudi vodni žigi se z lahkoto odstranijo in izguba konteksta je ena od značilnosti spletnih medijev.
Danes veliko lažnih novic z lahkoto odkrijete z nekajminutno raziskavo, vendar to ne ustavi njihovega širjenja, zlasti v skupnostih, ki verjamejo takšnim lažem, saj ustrezajo njihovim predsodkom.
What the interwebs wuz built fer. https://t.co/ByoKc8TFXg
— PapaJonezy (@PapaJonezy) 14 June 2019
Zaradi tega se je razprava o tem preselila celo v ameriški kongres. Nekateri kongrresniki menijo, da socialne platforme ne bi smele več uživati »imunosti«, če bodo še objavljale lažne posnetke.
Kajti to bi lahko privedlo tudi do tega, da bo resnične novice in posnetke javnost razumela kot - lažne.
Advances in artificial intelligence could soon make creating convincing fake audio and video – known as “deepfakes” – relatively easy. #AI - the downside of AI... https://t.co/SDLeWEIOCY
— Thomas Andersen (@TAA33) 13 June 2019
Raziskovalci sicer ugotavljajo, da je tehnologija, kot je ta, uporabna za veliko namenov.
Lahko bi bila v veliko pomoč filmski in televizijski industriji.
Tehnologija bi jim omogočila, da popravijo neuspele kadre brez ponovnega snemanja posnetkov in da ustvarijo dvojnike igralcev, ki govorijo različne jezike.
Beware, you will be seeing a great deal of these fake videos from the tRump/Putin propaganda machine this election. https://t.co/LBD0QCH7lP
— Hope Vinitsky (@hopevee) 14 June 2019
Toda te koristi se zdijo neprimerljive v primerjavi s potencialno škodo, ki jo tehnologija z lahkoto povzroči.
Napredek pri raziskavah, kot je ta, je zato še vedno zelo zaskrbljujoč.