torek, 11. februar 2025 leto 30 / št. 042
Kako je Facebook postavil pohlep in sovraštvo pred resnico: Za všečkanje ena, za jezo pa pet točk!
![Kako je Facebook postavil pohlep in sovraštvo pred resnico: Za všečkanje ena, za jezo pa pet točk!](https://insajder.com/sites/default/files/styles/resize_800/public/upload/news/images/jezniemoji.jpg?itok=fxLLMX4N)
Pred petimi leti je Facebook svojim uporabnikom ponudil še pet novih načinov, kako se odzvati na objavo v svojem viru novic.
Poleg ikoničnega »všečkaj« ter palec navzgor je dodal še »ljubezen«, »haha«, »vau«, »žalosten« in »jezen.«
V zakulisju pa je Facebook programiral algoritem, ki odloča, kaj ljudje vidijo v svojih novicah, da bi uporabil reakcijske simbole kot signale za spodbujanje bolj čustvenih in provokativnih vsebin – vključno z vsebino, ki jih bo verjetno razjezila.
Od leta 2017 je Facebookov algoritem za razvrščanje obravnaval »jezne« odzive kot petkrat bolj vredne od »všečkov«, razkrivajo interni dokumenti.
Another way to exploit your every emotions, actions and sell them to intelligence services. From the moment you are 2 years old and till the day you die. You are a cash cow. #meta #facebook #corruption. Your mind will be bent to their needs. It’s pure evil, dressed up as https://t.co/xquQdrALUL
— Safi Ideas Film Production (@FilmSafiideas) October 29, 2021
Teorija je bila preprosta: objave, ki so sprožile veliko jeznih reakcij, so uporabnike bolj zanimale, ohranjanje »vključenosti uporabnikov« pa je bilo ključ do Facebookovega uspešnega poslovanja.
Facebookovi lastni raziskovalci so hitro posumili na kritično napako.
Dajanje prednosti kontroverznim objavam - vključno s tistimi, ki uporabnike jezijo - bi lahko odprlo »vrata za več nezaželjenih objav« je v enem od internih dokumentov zapisal uslužbenec, katerega ime je bilo redigirano.
Kolega mu je odgovoril: »To je možno.«
![Zuckerberg in Haugenova Zuckerberg in Haugenova](https://insajder.com/sites/default/files/upload/news/images/zuckerberghaugen.jpg)
Opozorilo se je izkazalo za utemeljeno in premišljeno.
Podatkovni analitiki podjetja so leta 2019 potrdili, da so objave, ki so sprožile jezno reakcijo z »emodžiji«, nesorazmerno vključevale napačne informacije, strupenost jezika in nizkokakovostne novice.
To pomeni, da je Facebook tri leta sistematično nagrajeval nekatere najslabše objave preko svoje platforme, zaradi česar je postal bolj opazen v virih uporabnikov in se razširil na veliko širšo publiko.
Whistleblower claims Facebook enabling' genocide.
— Ssemujju Hassan (@SsemuHassan) October 30, 2021
Former Facebook employee Frances Haugen has accused the social media giant of 'amplifying and enabling' genocide in some countries. In an exclusive interview with Sky News. #skynews . pic.twitter.com/y21RqRWorT
Moč algoritemske promocije je spodkopala prizadevanja Facebookovih moderatorjev vsebine in skupin za integriteto, ki so se borile proti strupeni in škodljivi vsebini.
Insajderji trdijo, da je zato odgovoren predvsem predsednik uprave Facebooka (zdaj Mete) Mark Zuckerberg sam, ki je izbral rast Facebooka namesto varnosti.
"What gets humans more charged than what negative emotions do, that's why #facebook lean that way in order to make a bigger profit" Cybersecurity analyst @mrrickjordan on #Facebook papers findings pic.twitter.com/07TF5MBwRZ
— ticker NEWS (@tickerNEWSco) October 25, 2021
Notranja razprava o »jeznih emodžijih« in ugotovitvah o njegovih učinkih osvetljujeta zelo subjektivne človeške presoje, ki so osnova Facebookovega algoritma za vir novic - programske opreme za strojno učenje, ki se za milijarde ljudi odloča o tem, kakšne objave bodo videli in to vsakič, ko odprejo aplikacijo.
![Facebook - logo v kapljicah Vir:Pixell Facebook - logo v kapljicah Vir:Pixell](https://insajder.com/sites/default/files/upload/news/images/facebookvoda.jpg)
Vse to je samo del razkritij, ki jih je žvižgačka Frances Haugen dala ameriški Komisiji za vrednostne papirje in borze.
»Jeza in sovraštvo sta najlažja načina za rast na Facebooku,« je Haugenova povedala tudi v britanskem parlamentu v ponedeljek.
Zaposleni so pri tem kritično ocenjevali in razpravljali o pomenu jeze v družbi: Jeza je »jedrno človeško čustvo«, je zapisal en uslužbenec.
Drugi pa je poudaril, da so objave, ki povzročajo jezo, lahko bistvene za protestna gibanja proti skorumpiranim režimom.
Emotions sell. “To monetise the insight, the Data Science Group created an AI machine-learning algorithm to predict which emotions articles would evoke and sells this insight to advertisers, who can choose from 18 emotions…”
— Alex Tabarrok (@ATabarrok) October 28, 2021
Facebook?
No. The NYTimes. https://t.co/9uD2ZaMg2C
Facebook pri rangiranju objav upošteva številne dejavnike – od katerih so nekateri ponderirani, da štejejo veliko, nekateri štejejo malo, nekateri pa so negativni – toda na začetku so vedno ljudje tisti, ki določajo, kaj je pomembno in kaj ne.
In v tem primeru je jasno, da so – zatajili.
In pohlep postavili pred resnico.