Zástupce ředitele Liberálního institutu Martin Pánek se loni v srpnu probudil do nepříjemného překvapení. Při rutinní kontrole Facebooku zjistil, že ač může příspěvky na své zdi číst, nemůže je komentovat, lajkovat, sdílet a ani nemůže svým přátelům psát zprávy přes aplikaci Messenger.
„Musel jsem lidem psát přes jiné aplikace. Někomu jsem nemohl psát vůbec, protože na ně nemám kontakt mimo Facebook,“ vypočítává vzniklé problémy Martin.
Čtyřiadvacetihodinový ban od Facebooku dostal šest týdnů poté, co ironicky okomentoval záplavu příspěvků odsuzující legalizaci homosexuálního manželství v Německu.
„Napsal jsem sarkasticky něco jako ‚Nakonec si negři budou brát naše bílé panny‘. Chtěl jsem si z těch xenofobních komentářů udělat legraci,“ vzpomíná Martin.
Od Facebooku dostal možnost se k banu vyjádřit a několikrát také administrátorům napsal, avšak bez odezvy.
Martin doplatil na porušení komunitních pravidel Facebooku. Uživatelé sítě mohou nahlašovat obsah, který podle nich tato pravidla porušuje, a zaměstnanci firmy potom posuzují, zda tento obsah skutečně bude odstraněn.
Facebook veřejně zakazuje výhružky, šikanu, propagaci nebezpečných organizací, sexuální násilí, nahotu, nenávistné příspěvky, příspěvky graficky zobrazující násilí a příspěvky porušující autorská práva.
Uživatelé mohou rovněž doplatit na opatření proti spamu: Ta administrátoři využijí v případě, že profil sdílí stejný obsah na mnoha stránkách či skupinách, píše stejné zprávy mnoha lidem najednou, označuje neznámé lidi, sdílí neoriginální obsah či posílá mnoho odmítnutých žádostí o přátelství.
Kromě smazání závadného příspěvku může opakované porušení komunitních pravidel Facebooku vést právě k zablokování veškeré aktivity na profilu na den, týden i měsíc, až k úplnému smazání profilu.
Facebook místo soudce
V anglickojazyčném světě se dočasnému zablokování profilu říká Facebook jail – facebookový žalář. A byť zablokování facebookového profilu není srovnatelné se skutečným odnětím svobody, jedná se o značné znepříjemnění každodenního života, které se může dotknout každého z globální dvoumiliardové komunity uživatelů Facebooku.
Podobně jako citovaný Martin Pánek můžeme například dočasně nebo úplně ztratit kontakty na řadu našich přátel. Ztratíme také možnost se přes Facebook přihlašovat do aplikací, jako je Tinder nebo Spotify.
Jak zdůrazňuje zakladatelka projektu onlinecensorship.org Jillian York, ban může potenciálně nejvíce poškodit lidi, kteří spravují facebookové stránky soukromých společností. Kvůli „uvrhnutí do žaláře“ nemohou vykonávat svoji práci, a přicházejí tak o klienty.
Na rozdíl od civilního řízení na Facebooku existuje pouze omezená možnost se proti trestu odvolat: Lze se například odvolat proti smazání profilu i stránky a požádat i o přezkoumání dočasného zákazu aktivity (byť není garantováno, že vám někdo odpoví), ale nelze se odvolat proti smazání konkrétního příspěvku.
Čističi pro Zuckerberga
Rozhodnutí o tom, zda bude příspěvek smazán, provádí zčásti umělá inteligence (podle Zuckerbergova dopisu z února minulého roku nahlašuje třetinu potenciálně závadných příspěvků) a zčásti Facebookem najatá armáda 7500 moderátorů (jejich počet by v letošním roce měl vystoupat na 20 000).
Zaměstnanci facebookového Community Operations týmu odpovídající za moderování obsahu pro americké uživatele pracují v Sillicon Valley, o bezpečnost zbytku facebookové komunity se starají dublinští zaměstnanci.
Pozice pro řadové zaměstnance pověřené mazáním obsahu – tedy i pro oněch 12 500 lidí, kteří by pro firmu měli začít pracovat do konce tohoto roku – však nejsou na pracovním portálu Facebooku vypsány.
Ve 152 aktuálních inzerátech v sekci Community Operations Facebook hledá lidi pouze do manažerských a analytických pozic, kteří se stanou zaměstnanci Facebooku se všemi výhodami.
Většinu řadových moderátorů, včetně tisíce německých pracovníků zaměstnaných kvůli novému zákonu NetzDG, Facebook kontraktuje přes externí firmy. O těch však firma příliš nemluví a i své externí zaměstnance zavazuje mlčenlivostí.
Podmínky kontraktovaných mazačů obsahu zdokumentovali režiséři snímku Čističi Hans Block a Moritz Riesewieck, kteří se za nimi vydali na Filipíny. Dokument popisuje, jak jsou tito zaměstnanci špatně zaplacení, nedostává se jim dostatečného tréninku a ani psychologické péče potřebné poté, co procházejí hodiny nenávistného či násilného obsahu.
Existujících 7500 moderátorů musí týdně posoudit přibližně 6,5 milionů nahlášených příspěvků týdně. Zpověď bývalé zaměstnankyně berlínského centra pro Süddeutsche Zeitung navíc ukazuje, že i tamní zaměstnanci jsou vystaveni velkému tlaku (denní standard je 1300 posouzených příspěvků), pracují za plat jen mírně přesahující německou minimální mzdu a musí se vyrovnat s psychickými následky.
Na příkladu Filipínců, často silně věřících občanů autoritářského režimu prezidenta Duterteho, dokument Čističi demonstruje, jakým způsobem kultura a původ ovlivňují názory na to, co je vhodný příspěvek, a co ne. Aby zabránil dvojím standardům, vyvinul Facebook pravidla definující závadný obsah, jejichž část zveřejnil server The Guardian.
Tyto zásady jsou daleko podrobnější než veřejná komunitní pravidla a jsou neustále aktualizovány. I přes velmi podrobné definice jsou tato pravidla často kritizována za nekonzistentnost i za to, že hraniční příspěvky (v jakém případě je povolená nahota či násilí) se moderátorům složitě klasifikují.
Dalším problémem těchto pravidel je, že jsou neveřejná, nikdo za ně uživatelům neskládá účty a nedávají uživatelům sítě žádnou možnost o nich spolurozhodovat – jejich jedinou a poměrně radikální možností je z Facebooku odejít.
Od rychlosti k transparentnosti
Po sérii obvinění, že šíří nenávistný a nepravdivý obsah, se Facebook dostal do hledáčku evropských regulátorů, kteří po internetovém gigantu vyžadují včasné smazání nezákonného obsahu i boj proti trollům, spamu a cíleným dezinformacím.
Dohled států a státních regulátorů se opravdu může jevit jako logická odpověď na hrozby čisté seberegulace Facebooku a jiných platforem. Špatná regulace však paradoxně může moc největších sociálních sítí a hrozbu „facebookového žaláře“ ještě posílit.
Mezi dvě již existující iniciativy patří německý zákon NetzDG a Kodex proti nezákonným nenávistným projevům online, který Facebook, Microsoft, Twitter a YouTube dobrovolně podepsaly s Evropskou komisí.
Unijní Kodex se týká pouze nenávistných projevů, které jsou již definované v unijním právu (veřejné projevy nenávisti a výzvy k násilí vůči skupině či jejímu členovi na základě rasy, barvy kůže, náboženství a vyznání či národního a etnického původu), a zavazuje IT společnosti k tomu, aby kromě svých komunitních standardů posuzovaly příspěvky i podle této platné legislativy.
Německý zákon NetzDG se týká širšího spektra příspěvků a zahrnuje například i pomluvu prezidenta republiky a státních orgánů, znesvěcení státních symbolů či veřejnou urážku.
Na rozdíl od Kodexu je NetzDG pro určitou skupinu platforem povinný a hrozí firmám pokutou až 50 milionů eur, pokud nezákonný obsah včas nesmažou.
Společným jmenovatelem zmíněných iniciativ je důraz na rychlost: V Německu platformám hrozí pokuta, pokud závadný obsah nesmažou do 24 hodin (a „méně očividně závadný obsah“ do týdne).
V poslední zprávě hodnotící účinnost Kodexu z ledna 2018 Evropská komise oceňuje zejména to, že IT firmy mažou nahlášené nenávistné projevy rychleji než v předchozích pololetích.
V rámci měření Komise konkrétně Facebook stihl posoudit obsah do 24 hodin u téměř 90 procent příspěvků a téměř 80 procent nahlášených příspěvků stáhl.
„Nezákonný nenávistný obsah musíme mazat rychle: čím déle na síti zůstane, tím větší je jeho potenciální dosah,“ argumentuje Komise.
Bohužel, i kvůli těmto požadavkům jsou moderátoři zavaleni tisíci příspěvky, které musí mazat rychle, aniž by k tomu dostali potřebná školení či podporu.
Jak navíc zdůrazňuje bruselská neziskovka za občanská digitální práva EDRi, hranice mezi nezákonným příspěvkem podle práva a nevhodným příspěvkem podle komunitních standardů společnosti například v případě Kodexu splývají.
Jaký příspěvek má být smazán, tak místo soudce aplikujícího evropské zákony definuje zaměstnanec Facebooku v Sillicon Valley a v praxi posuzuje vyčerpaný externista v Dublinu, Berlíně či Manile.
Jak se vyznat v zákazech
Systém pokut, který zkouší německá vláda, navíc sítě motivuje k tomu, aby mazaly i například umělecký či sarkastický obsah. Uživatelům přitom při opakovaném přešlapu hrozí vyloučení z jejich internetové komunity s velmi praktickými dopady v osobním i pracovním životě.
Rychlost mazání potenciálně nezákonných příspěvků je naprosto nedostatečné kritérium pro posuzování toho, jestli firmy berou boj proti nežádoucím projevům vážně. Aby zabránily šíření nezákonných projevů a přitom ochránily svobodu slova, měly by demokratické vlády raději tlačit na transparentnost facebookového moderování.
Měly by se ptát: Který obsah Facebook postihuje? Který obsah postihovaný Facebookem je zároveň nezákonný? Posuzuje Facebook příspěvky podle práva, či svých komunitních standardů (a jakých)?
Jaké sankce za který obsah hrozí? Liší se postih obsahu nezákonného podle práva od ostatního nevhodného obsahu? Jakým způsobem Facebook příspěvky posuzuje?
Vlády by měly také zajistit, aby Facebook měl dostatečné personální kapacity pro to, aby tuto citlivou práci prováděl férově a podle práva. Konečně, uživatelé Facebooku musí mít možnost se proti smazání svého příspěvku či profilu odvolat.
Facebook má obrovskou moc v rozhodování o tom, jaký obsah jeho dvoumiliardová komunita vidí, jaký nevidí a jak se podle toho rozhoduje ve svém životě či volbách. Nemá žádnou ekonomickou motivaci mazat obsah, který je nenávistný či nepravdivý.
Uživatelé do jeho rozhodnutí zasahovat nemohou a nemají ani možnost jeho pravidla ovlivňovat, či se proti nim odvolat. Všechny tyto argumenty mluví ve prospěch toho, aby firma a její editorské praktiky podléhaly státním regulátorům.
Důraz na rychlost bez potřebné transparentnosti však pouze zvyšuje riziko, že se se zablokovanými kontakty a bez přístupu k Spotify zítra probudíme i my.
Vyšlo na webu Hlídacípes.org.