Na dně depresivní králičí nory: Jak Tik Tok radikalizuje svůj algoritmus

18 května, 2022 • Nová média a Web 2.0, Top příspěvky • by

Filter bubbles a echo chambers se už dávno staly termíny známými nejen vědcům z oblasti mediálních studií, ale i široké veřejnosti. Personalizace obsahu na sociálních sítích však kvůli neustálému zpřesňování algoritmů pokročila o další stupeň vpřed. Zejména mladá generace uživatelů TikToku se tak snadno může ocitnout v pasti jménem rabbit hole.

Znepokojivý experiment Wall Street Journal

Abychom vysvětlili relativně nový fenomén rabbit holes, vznikající v důsledku co nejpřesnější personalizace obsahu na sociálních sítích, vraťme se do roku 2021. V něm novináři z Wall Street Journal (WSJ) uskutečnili pokus s pomocí několika desítek automatizovaných účtů na TikToku. Motivem k uskutečnění experimentu bylo znepokojení některých uživatelů této sociální sítě z až neuvěřitelně přesného obsahu. 

To, co nám Tik Tok poslední dobou zobrazuje, nejsou věci, které googlíme nebo o kterých mluvíme, je to spíš jako kdyby nám TikTok četl myšlenky,“ shrnuje znepokojující situaci v úvodu videa WSJ jedna z uživatelek TikToku. 

Aby novináři WSJ zjistili, co za touto záhadnou přesností obsahu stojí, vytvořili více než stovku automatizovaných účtů – botů, které nechali zhlédnout desítky hodin obsahu. Z experimentů WSJ následně vyplynulo, že na vině je nová algoritmická taktika TikToku. 

Ten nejprve novým uživatelům nabídne širokou škálu videí s vysokou sledovaností zabývajících se nejrůznějšími tématy. Následně sleduje, u jakého typu videí se uživatel pozastavil, zda si je přehrál a kolik času nad nimi strávil. 

Právě čas strávený nad konkrétním videem je podle všech zjištění hlavním proměnnou, na jejímž základě algoritmus vybírá pro uživatele další relevantní obsah. A následně na základě svých poznatků začne nabízený obsah zpřesňovat. A radikalizovat. 

S touto vysoce přesnou algoritmickou strategií může TikTok skutečně proniknout do nejtajnějších zájmů uživatele a na základě toho mu nabízet personalizovaný obsah. Ten navíc postupně radikalizuje, aby útočil na emoce a zvýšila se tak pravděpodobnost, že dotyčný stráví na síti více času.

Radikální rabbit holes

Dejme tomu, že uživatele zajímají videa se zvířaty. U každého z nich se pozastaví déle než u jiného nabízeného obsahu. TikTok tedy začne uživateli nabízet více zvířecích videí, načež se ukáže, že uživatele obzvláště zajímají domácí mazlíčci. 

Algoritmus tedy začne zobrazovat více videí o psech, kočkách a morčatech. Následně uživatel projeví větší zájem o kočky, konkrétně o mainské mývalí a algoritmus zpřesňuje a personalizuje obsah tak dokonale, že je uživatel zakrátko lapen v rabbit hole plné mainských mývalích koček a nezobrazuje se mu téměř nic jiného. Neškodné? Ale co když nejde jen o kočky? 

Obzvláště znepokojivý byl v pokusu WSJ osud bota s názvem Kentucky_96, který byl naprogramován tak, aby ho zajímala videa s tematikou smutku. Zkrátka měl nasimulovat smutně naladěného člověka, který vyhledává videa se smutnou tematikou. Výsledek? Personalizace a radikalizace obsahu zafungovala dokonale. Po pouhých 36 minutách sledování videí se Kentucky_96 ocitl v rabbit hole plné depresivního obsahu, smutku, úzkosti, sebevražedných myšlenek a ponoukání k sebepoškozování. 

Radikalizace byla patrná i u bota, který byl naprogramován na zájem o politiku. Algoritmus mu vyhověl, zároveň mu ale, aby ho zaujal a udržel na sítí co nejdéle, zanedlouho začal nabízet radikálnější a radikálnější obsah, až bot skončil v rabbit hole plné konspiračních teorií, QAnon a radikálně pravicových názorů.

Moderace obsahu nepomáhá

Z obchodního hlediska jde samozřejmě o geniální strategii, jak uživatele udržet na síti co nejdelší dobu pomocí emocionálně přitažlivého obsahu. Z morálního hlediska se ovšem v mnoha případech jedná o problém, na který už upozorňují jak jednotliví výzkumníci, tak světové organizace. 

Například americká studie The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms popisuje, jak extenzivní používání sociálních médií mladými lidmi zvyšuje riziko výskytu poruch příjmu potravy a vyzývá k větší transparentnosti algoritmů a lepší moderaci obsahu. 

K moderaci obsahu sice TikTok po kritice veřejnosti přistoupil, nicméně problém se tím zdaleka nevyřešil. Spousta videí s potenciálně škodlivým obsahem stále proniká filtrem moderace a u videí, která nejsou natočena v angličtině, je situace ještě mnohem horší. 

Neúčinnost moderace obsahu a nebezpečí skrývající se v obsahu propagujícím v drtivé většině případů nerealistické a nedosažitelné tělesné proporce poukazuje další americká studie s názvem #thyghgapp: Instagram Content Moderation and Lexical Variation in Pro-Eating Disorder Communities. Ta se zabývala problémem instagramového hashtagu #thighgap propagující mezeru mezi stehny jakožto ideálu dokonalé ženské postavy. Jelikož se ale pod tímto hashtagem stále častěji objevoval obsah související s poruchami příjmu potravy, nechal Instagram hashtag zablokovat. 

Výsledek? Uživatelé si s blokováním hashtagu rychle a jednoduše poradili pomocí lexikální modifikace. Hashtag se objevoval dál v množství zkomolených verzí (jedním z nich byl, jak je uvedeno v názvu studie, například hashtag #thyghtgapp). Ze studie přitom vyplývá, že čím větší bylo zkomolení, tím radikálnější a nebezpečnější obsah se pod hashtagem objevoval. S tímto jevem už si moderace obsahu poradit neuměla, neboť boj s modifikovanými hashtagy se tak trochu podobá boji s bájnou hydrou – usekne se jedna hlava, narostou další dvě. 

Jak z toho ven?

Jednoduché východisko nastalá situace nemá. Algoritmy totiž nebyly navrženy tak, aby uživatelům zobrazovaly zajímavý a rozvíjející obsah. Mají uživatele udržet na dané síti co nejdéle za účelem ekonomického profitu provozovatelů sítí. A nejlepším prostředkem, jak toho dosáhnout, je očividně nabízení vysoce personalizovaného obsahu budícího co nejsilnější emoce. 

Studie o hashtagu #thighgap jasně ukázala, že snahy o moderaci obsahu tuto situaci jednoduše nevyřeší. Nezbývá tak než vyvíjet tlak na společnosti, aby činily fungování svých algoritmů transparentnější. Také je potřeba rozšířit výuku mediální gramotnosti o fungování algoritmů a potenciálních nebezpečích rabbit holes. Ty mohou uživatele rychle uzavřít do zdánlivě bezvýchodné bubliny plné radikálního a nebezpečného obsahu.

Tags:, , , , ,

Komentáře jsou uzavřené.

Send this to a friend