Králičí nora (internet)
Author
Albert FloresKráličí nora (v angličtině je používán termín rabbit hole) je pojem z oblasti mediálních studií, který popisuje fenomén selektivního výběru informací uživateli internetu.
Definice
Iniciativa AI dětem definuje tento pojem takto: „V kontextu sociálních sítí je Rabbit Holes termín pro proces, kdy uživatel prochází různými odkazy a příspěvky na sociálních sítích, které ho vedou stále hlouběji k novým a novým informacím, a ztrácí tak přehled o tom, co původně hledal nebo jak dlouho už obsah prochází. " To může občas negativně ovlivnit nebo přímo radikalizovat uživatele, který většinou patří ke skupinám, jež jsou považovány za citlivé (např. +more starší občané, etnické menšiny, děti a mládež, duševně handicapovaní lidé, lidé s poruchami učení apod. ). Je to způsobeno ztrátou kontaktu s různorodými informacemi a zaseknutím se v sociálních bublinách nebo komnatách ozvěn.
V těchto rabbit holes často vzkvétají extrémistické a konspirační skupiny (např. QAnon, případně Dělnická mládež; názory na to, jestli je tato skupina extremistická, se ale liší), a šíří se dezinformace. +more Také může hrozit riziko zhlédnutí násilného obsahu, které je ale poslední dobou poměrně ojedinělé.
Rabbit holes v různých médiích
TikTok
Stejně jako ostatní sociální sítě, i TikTok uživatele efektivně zařazuje do určité sociální bubliny a komnaty ozvěn. To ale není všechno - spousta uživatelů si všimla až překvapivě přesného doporučování videí. +more Na toto znepokojení reagoval deník The Wall Street Journal, který se rozhodl experimentovat s automatizovanými účty. Naprogramovali tak více než stovku účtů, které ovládali roboti, jež napodobovali zájmy určitých lidí - zájem o politiku, přírodu, domácí zvířata apod. Pomocí tohoto experimentu zjistili, jak algoritmus TikToku přibližně funguje.
TikTok nejdříve uživatelům nabídne širokou nabídku videí a následně sleduje, u kterých videí se uživatel pozastavil, přečetl si komentáře, přehrál ho opakovaně, nebo ho naopak přeskočil. Podle času stráveného nad jednotlivými videi pak doporučuje další obsah, který se stává přesnějším a přesnějším. +more Jakmile přesně vyselektuje zájmy konkrétního uživatele, stává se obsah radikálnějším. Cílem tohoto je, aby videa útočila na emoce, a uživatel tak na platformě zůstal déle.
Příkladem může být uživatel, jehož zajímá zdravý životní styl. Algoritmus postupně zjistí, že mu jde hlavně o cvičení a konkrétněji o posilování a nabírání svalové hmoty. +more Za chvíli už na domovské stránce nemá jiná videa než ta týkající se tohoto obsahu. To může ale tohoto uživatele zavést do rabbit hole - králičí nory - plné počítání kalorií a extrémního cvičení.
Podle americké studie The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms způsobuje přehnané používání sociálních sítí u mladých lidí zvýšené riziko výskytu poruch příjmu potravy, což hodnocení rabbit holes na TikToku nebo Instagramu výrazně zhoršuje.
TikTok se pokusil svůj obsah moderovat, nicméně spousta videí jejich filtrem stále proniká. Tento filtr je navíc efektivní hlavně u obsahu v angličtině, a tak se moderace na videa v jiných jazycích téměř nedá uplatnit.
YouTube
Před rokem 2017 začal výzkumný tým společnosti Google Google Brain vyvíjet nový algoritmus pro YouTube, který měl zodpovídat za doporučování nových videí. Ten fungoval na bázi umělé neuronové sítě, napodobující přirozené fungování neuronů v mozku. +more Tento algoritmus byl schopen vyvodit hraniční vztahy mezi videi, které lidský mozek nebyl schopen zaregistrovat.
Tento algoritmus využíval umělou inteligenci, která měla dvě funkce.
První z nich byla vyhodnocovat doporučovaná videa na základě historie uživatele a aktivity uživatelů s podobnými zájmy. Druhá spočívala v přidělování skóre těmto videím. +more Aspekty, podle nichž se skóre určovalo, nebyly zcela vysvětleny, je ale potvrzeno, že v nich hrála velkou roli doba, která uplynula od publikování videa nebo frekvence, s jakou tvůrce videa publikoval.
Tento algoritmus ze začátku fungoval dobře, jenže po nějaké době přestal být efektivní. Uživatelé se rychle dostali do řady videí na stejné bázi, kvůli čemuž se začali postupně nudit a platformu opouštěli. +more Také se občas dělo, že uživatel začal sledovat videa s tematikou kritiky feminismu, postupně se mu začala doporučovat videa s mužskými právy a nadvládou bílých a skončili u násilných videí.
Google Brain tak začal vyvíjet nový algoritmus, kterému se v současnosti říká Reinforce. Jeho funkce spočívá v doporučování videí nejen s obsahem, který uživatele zajímá, ale i s obsahem, který by uživatele potenciálně mohl zajímat. +more Díky tomu zůstane uživatel na YouTube podstatně déle, protože nemá na domovské stránce pouze jednolitou sadu videí, ale může si vybrat mezi několika zajímavými tématy.
V současnosti je vzácné, aby se někdo od videí s koťátky dostal k těm s extrémistickým obsahem, jelikož to současný algoritmus nepodporuje. Tento obsah ale YouTube nabízí lidem, jež o něj podle algoritmu mají zájem (např. +more odebírají kanály, které se o těchto tématech kladně vyjadřují, v minulosti už taková videa zhlédli apod. ).
YouTube ve svém algoritmu neustále provádí malé změny, které se týkají i extrémistických videí.
V roce 2019 a 2020 založil výzkumný tým Facebooku automatizované profily, aby prozkoumal roli platformy v radikalizaci uživatelů a šíření dezinformací. Jeden z těchto účtů byl pojmenován Carol Smith. +more Carol byla definována jako politicky konzervativní matka vychovávající své děti v křesťanství a sledovala oficiální účet Donalda Trumpa, Fox News a některé další. Po dvou dnech začal Facebook Carol doporučovat skupiny podporující QAnon. Přestože se Carol nepřipojila ani k jedné z těchto skupin, její domovská stránka byla zanedlouho plná skupin a stránek, které přímo porušovaly pravidla Facebooku, včetně nenávistných projevů nebo dezinformací.
Výsledky tohoto účtu byly pojmenovány „Carol's Journey to QAnon“, uloženy a v předány produktové manažerce Facebooku Frances Haugen, která v květnu 2021 ale podala výpověď a veřejně se vyjádřila ve smyslu, že Facebook upřednostňuje výdělek před bezpečím svých uživatelů.
V druhé polovině roku 2023 podalo 33 států USA žalobu na společnost Meta, která vlastní Facebook, Instagram, WhatsApp a Messenger. V ní byla společnost obviněna z manipulování mladého publika k extenzivnímu využívání jejích sociálních sítí, konstruování toxických rabbit holes a porušování práva dětí na soukromí v online prostředí, jelikož společnost sbírala data dětí bez souhlasu jejich zákonných zástupců.
Na Instagram lidé publikují pečlivě vybrané obrázky, které je uvádí do lepšího světla v očích ostatních lidí. Ve finále má Instagram podobný algoritmus jako Facebook až na to, že upřednostňuje okamžité zapojení místo personalizace.
Kvůli touze být co nejpopulárnější a nejhezčí vznikají na Instagramu tendence k ponoukání k poruchám příjmu potravy. Kvůli tomuto byl zablokován např. +more hashtag #thighgap, který výrazně propagoval mezeru mezi stehny jako ideál krásy. Pod tímto hashtagem se často objevovaly příspěvky holdující PPP tak často, až se ho rozhodl Instagram zablokovat. Uživatelé na to ale reagovali pouhými záměnami písmen a komolením slov, z čehož vzniklo např. #thyghgapp. Ukázalo se, že čím víc je hashtag zkomolený, tím radikálnější a škodlivější obsah se pod ním objevuje. Na tomto případu jde ale vidět, že blokování jednotlivých hashtagů nepomáhá.
Konkrétní příklady
Konkrétní případ lze vidět na botovi s uživatelským jménem Kentucky_96, což byl jeden z experimentálních účtů The Wall Street Journal. Tento bot byl naprogramován tak, aby ho zajímala videa s tematikou smutku. +more Za pouhých 36 minut byl tento účet uvězněn v rabbit hole plné tematiky depresí, úzkostí, sebevražedných myšlenek a pobízení k sebepoškozování.
skončil v rabbit hole konspiračních teorií, QAnonu a krajně pravicových názorů.
Jak se bránit
Prevence
Nastavte si čas, po kterém sociální síť opustíte. Snížíte tak riziko setkání se škodlivým obsahem apod. +more * Než ji otevřete, uvědomte si, proč ji vůbec zapínáte. Díky tomu předejdete zapomenutí na účel návštěvy nebo ztrácení času. * Pokud narazíte na něco, co byste rádi vyhledali, uložte si to na později. Jestli je toto téma důležité, vzpomenete si na něj i později. Tímto předejdete spontánnímu spadnutí do jedné z rabbit holes. * Sledujte pouze účty, které vám jsou užitečné, inspirují vás apod. Tímto se vyvarujete tomu, aby si vás algoritmus zařadil jako zájemce o konspirační teorie nebo poruchy příjmu potravy. * Nezapojujte se do hádek v komentářích. Pokud zůstanete na příspěvku, který ve vás vzbudí negativní emoce, nebo s ním budete rovnou interagovat formou komentářů, algoritmus si to může vyložit jako zájem o téma v příspěvku. * Využijte ochranu soukromí naplno. Díky nástrojům, které ochrana soukromí poskytuje, můžete nastavit, kdo může sledovat váš účet nebo vás kontaktovat. Prostřednictvím toho se můžete vyvarovat tomu, aby vám někdo zasílal nevyžádaný obsah. * Nahlašujte toxický obsah nebo hashtagy. Díky tomu můžete více moderovat obsah na své domovské stránce. * Blokujte nebo nahlašujte uživatele, kteří dlouhodobě zveřejňují škodlivý obsah. Nebudou se vám tak zobrazovat na domovské ani vyhledávací stránce a nebudou vás moct kontaktovat. * Vyhýbejte se clickbaitům, které jsou často designované, aby vybízely ke sledování škodlivého obsahu. * Občas praktikujte digitální detox. Ten vám může pomoct k uvolnění od počínající závislosti a k pročištění hlavy od nejrůznějšího obsahu, včetně toho škodlivého. * Vzdělejte se v oblasti mediální gramotnosti. Pomocí těchto znalostí dokážete vyhodnotit pravdivé a lživé informace a naučíte se poznávat určitý systém, kterým rabbit holes a internetové extremistické skupiny fungují. * Pokud začínáte mít pochyby o tom, jestli náhodou do některé z těchto děr nepadáte, vyhledejte pomoc blízkých. Svěřte se jim s tím, co si myslíte a co řešíte. Často vám lidé ve vašem okolí dokážou dát určitou oporu a uvést vás zpět do reality.
Únik
Jak pomoct ostatním
Pokud se vám váš blízký svěří s hraničními názory, které dříve nezastával (např. strach z vakcín, výroky proti ženám nebo určitým národnostem), odpovídejte s empatií a porozuměním, aniž byste ho v těchto názorech podporovali. +more Jestli tento člověk opustí vaši konverzaci s výrazně negativními pocity, může se upnout na skupiny s extrémistickými názory ještě pevněji. * Představte si uvěznění v konspirační rabbit hole jako druh závislosti, stejně jako je hraní videoher nebo netolismus. Když se podíváte na paralely, spousta strategií pro boj se závislostmi může být aplikováno i na tyto rabbit holes. * Jakmile jsou logické a racionální argumenty neúčinné, může pomoct obsah sociálních sítí, který je tvořen fyzickými osobami, ne vládou. * V nejextrémnějších případech funguje převážně pouze násilná hospitalizace nebo deradikalizační program pro tyto osoby.
Jak se dostat z rabbit hole
Z rabbit hole je v zásadě stejná cesta, jako když dodržujete základní prevenci, která je uvedena výše.
* Používejte některé z mnoha aplikací a rozšíření prohlížečů, které mohou i blokovat určitá média, nebo nastavovat čas, který na nich strávíte. * Sítě mají často funkce „not interested", díky které můžete označovat obsah, který je součástí rabbit hole, za nezajímavý. +more Algoritmy, jež se snaží vás na síti co nejdéle udržet, se budou snažit najít něco jiného, co by vás mohlo zajímat. * Případně vyhledejte profesionální pomoc. Jestliže máte pocit, že vás sociální sítě negativně ovlivňují, nebo vás rovnou stáhli do konspiračních teorií, životního stylu, který je ohrožující pro vaše zdraví apod. , odborná pomoc je pravděpodobně ta nejlepší cesta ven.
Odkazy
Reference
Literatura
LOSEKOOT, Michelle; VYHNÁNKOVÁ, Eliška. Jak na sítě. 1. vyd. [s.l.]: Jan Melvil, 2019. 328 s. .
Související články
Sociální síť * Netolismus * Kognitivní zkreslení
Externí odkazy
[url=https://www. wsj. +morecom/video/series/inside-tiktoks-highly-secretive-algorithm]Video The Wall Street Journal k tématu algoritmu TikToku a jeho experimentu s účty[/url] * [url=http://www. munmund. net/pubs/cscw16_thyghgapp. pdf]Rozbor hashtagu #thyghgapp a jeho vliv na náchylné uživatele Instagramu[/url] * [url=https://www. sciencedirect. com/science/article/abs/pii/S1740144522000638#]Studie The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms[/url] * [url=https://www. nytimes. com/2022/04/21/technology/youtube-rabbit-hole. html]Doplňující článek The New York Times na téma rabbit holes na YouTube[/url].
Kategorie:Sociální sítě Kategorie:Sociální média Kategorie:Algoritmy Kategorie:Mediální studia