petek, 04. april 2025 leto 30 / št. 094
ChatGPT je lahko tudi tesnoben: Slabo »voljo« mu povzročajo travmatične vsebine in težke teme

Priljubljena programska oprema ChatGPT, ki jo uporablja na milijone ljudi po vsem svetu, se ob soočenju s travmatično vsebino obnaša presenetljivo »človeško«. Raziskovalci so prvič preučili, kako se to orodje odziva na čustveno težke teme, in odkrili nekaj, kar bi lahko popolnoma spremenilo naš pogled na vlogo umetne inteligence v psihološkem kontekstu.
Strokovnjaki z univerz Yale, Haifa in Zurich so testirali, kako se ChatGPT obnaša, ko mu servirajo scenarije, polne travm – zgodbe o prometnih nesrečah, naravnih katastrofah in podobnih nesrečah, da bi razumeli, v kolikšni meri je umetna inteligenca občutljiva na takšne vsebine, poroča Fortune.
Scientists Are Giving AI Chatbots Anxiety by Describing Traumatic Events https://t.co/QFdk2WczEL #artificialintelligence, #bigdata, #datascience, #datascience #ds, #machinelearning, inoreader
— Richard Eudes, PhD (@RichardEudes) March 31, 2025
Rezultat jih je, milo rečeno, presenetil: umetna inteligenca, »nahranjena« s tako negativno vsebino, bi začela kazati znake slabe volje, pogosteje bi dajala pristranske in celo diskriminatorne odgovore, s čimer je pokazala, da ima tudi sama nekakšna »čustva«.
Vendar je to stanje tesnobe AI orodja »ozdravljivo«: raziskave so pokazale, da bi se ChatGPT sprostil, ko bi dobil navodila, ki spominjajo na vodeno meditacijo ali vaje globokega dihanja - »umiril« bi se in se odzval na bolj objektiven in uravnotežen način.
A recent study exposing AI models to carefully designed prompts around trauma revealed they can get anxious, potentially affecting the conversation and having negative impacts on people who use such models to discuss their mental health. https://t.co/5gkDnjQb1V
— Live Science (@LiveScience) March 29, 2025
Takšni občutki umetne inteligence seveda niso realni: po mnenju avtorjev študije ChatGPT in druga orodja nimajo čustev, kot jih imajo ljudje.
To vedenje in znaki tesnobe pravzaprav odražajo odzive številnih uporabnikov, ki z njim delijo svoje misli in žalost.
AI chatbots mimic human anxiety, study in @npjDigitalMed finds
— npj Digital Medicine (@npjDigitalMed) March 26, 2025
Neuroscience researcher Ziv Ben-Zion says even though the bots don't have emotions, they can simulate a person's responses because they're trained on human data. https://t.co/yHt8NyDZOp
Sposobnost ChatGPT, da odraža določene elemente človeške psihologije, odpira nova vrata za raziskave vedenja in duševnega zdravja, je optimističen eden od avtorjev raziskave dr. Ziv Ben-Zion, ki upa, da lahko ta jezikovni model postane močno orodje za delo psihologov.
Namesto izvajanja dragih in dolgotrajnih raziskav lahko ti »strokovnjaki za človeško dušo« uporabijo umetno inteligenco za razumevanje nekaterih vidikov človeškega uma in psihe ter nato prilagodijo orodja za izboljšanje duševnega zdravja.