Hlavní obsah

Dvojí metr Facebooku. Na běžný lid přísnost, s elitou jedná v rukavičkách

Foto: Seznam Zprávy

Významné účty mají výjimku z automatického posuzování pravidel. O smazání příspěvků u nich rozhoduje speciální, shovívavější kontrola.

Reklama

aktualizováno •

Sociální sítě Facebook a Instagram zdůrazňují, že jejich „komunitní pravidla“ platí pro všechny. Uniklé interní dokumenty však ukazují, že to není pravda. Miliony celebrit či politiků nepodléhají automatickým kontrolám a trestům.

Článek

Brazilský fotbalista Neymar patří mezi nejpopulárnější osobnosti na světě. Na Facebooku má přes 85 milionů fanoušků a na Instagramu jej sleduje dokonce 161milionový dav. Když tedy fotbalista v roce 2019 čelil obvinění ze znásilnění, měl na dosah mocnou zbraň.

Sáhl po telefonu a natočil krátké video, ve kterém se proti „vykonstruovanému nařčení“ obhajoval. Na konec videa připojil celou konverzaci s modelkou, která jej obvinila.

Foto: Facebook/Neymar

Na videu fotbalista ukázal celou svou historii zpráv se ženou, která jej obvinila ze znásilnění, včetně obnažených fotek (záběry jsme dodatečně rozmazali, pozn. red.).

Nahota tohoto druhu je na sociálních sítích obvykle zapovězena. Video navíc obsahovalo obnažené fotografie ženy, která zjevně s jejich zveřejněním nedala souhlas. Podle pravidel Facebooku i Instagramu jde v takovém případě o tzv. porno z pomsty (revenge porn), jehož zveřejňování bylo (a to už v roce 2019) nejen zakázáno, ale i trestáno automatickým suspendováním účtu.

Nic takového se však v Neymarově případě nestalo. Jeho video bylo na Facebooku i Instagramu přístupné více než 24 hodin, než konečně zmizelo. Oba Neymarovy účty však – navzdory pravidlům – zůstaly aktivní.

Než bylo video konečně smazáno, vidělo jej 56 tisíc lidí. Vedení společnosti se rozhodlo ponechat Neymarovy účty aktivní, v rozporu s naším obvyklým pravidlem pro tyto případy.
interní audit společnosti Facebook

Inkriminované video se ještě před smazáním dočkalo více než šesti tisíc sdílení. Tehdy se mohla veřejnost jen dohadovat, proč automatické mechanismy Facebooku, jindy až úzkostlivě citlivé na detekci nahoty, v tomto případě nezafungovaly.

Dnes díky uniklým interním dokumentům, které analyzovali a částečně zveřejnili novináři The Wall Street Journal, víme, že na vybrané „významné“ uživatele se běžná pravidla ani automatické mechanismy nevztahují.

Místo toho jsou součástí programu XCheck – exkluzivního seznamu významných uživatelů, kteří nepodléhají automatickému hodnocení a mají zaručeno osobní posouzení speciálně vyškoleného personálu.

Automaty dělaly moc chyb

Zakladatel Facebooku a jeho zatím jediný šéf Mark Zuckerberg se rád chlubí tím, že jeho platformy spojují lidi. Což je nepochybně pravda. Sociální síť Facebook má kolem tří miliard aktivních uživatelů měsíčně, Instagram pak přes miliardu.

Takové množství uživatelů zároveň znamená, že Facebook pochopitelně nestíhá vyhodnocovat jednotlivě všechny publikované příspěvky, fotografie nebo videa.

Zuckerberg už během svých vystoupení v americkém Kongresu a Senátu v roce 2018 opakoval: „Tvorba nástrojů využívajících strojového učení je způsob, jak se vypořádat se škodlivým obsahem. Hodně do toho investujeme a také najímáme další lidi, kteří obsah kontrolují.“ To platí i v roce 2021: „Nyní většinu detekce zařídí umělá inteligence, která nám umožnila moderování škálovat,“ řekl nám na tiskové konferenci Guy Rosen, viceprezident Facebooku pro integritu.

Interně však Facebook mluví o tom, že automatické algoritmy často udělají chybu. Smažou něco, co smazat neměly. A zvláště u hodně sledovaných účtů hrozilo, že zákaz publikace něčeho, co je zjevně nevinný příspěvek, může způsobit zbytečný skandál. A tak vznikl program XCheck (čteno cross-check, tedy dvojité ověření).

VIP kontrola elitních účtů

„XCheck (dříve jsme mu říkali odstínění, ale tento termín už prosím nepoužívejte) je systém ke snížení falešných nálezů při vynucování pravidel u vysoce exponovaných osobností a obsahu. Umožňuje nám dělat lépe promyšlená rozhodnutí v případech, které vyžadují zvážení pravidel nebo vstup od specialistů na komunikaci,“ stojí v interním dokumentu vysvětlujícím podstatu programu. „Když systém funguje správně, umožňuje vícenásobné ověření, abychom se ujistili, že pravidla vymáháme správně a přesně.“

XCheck vytváří skupinu vyvolených uživatelů, kteří mohou porušovat pravidla bez jakýchkoli následků.
interní dokumenty Facebooku

Ale dokument vzápětí zdůrazňuje, že XCheck vytváří nepříjemnou situaci, kdy se na některé vyvolené uživatele nevztahují pravidla.

„Po několika vybraných členech naší komunity nevyžadujeme, aby dodržovali naše pravidla a standardy. A na rozdíl od ostatních uživatelů mohou tito lidé porušovat pravidla bez jakýchkoli následků.“

Foto: The Wall Street Journal

Ukázka z interních dokumentů Facebooku, které získal a částečně publikoval The Wall Street Journal.

Kolik je takových „vyvolených“ účtů? To je další problém, na který interní audity upozorňují. Ještě v roce 2019 mohl prakticky kdokoli v rámci Facebooku přidat na tento seznam uživatele či stránky, u kterých to podle nich bylo vhodné.

Ze známých osobností to byli třeba americký prezident Donald Trump i jeho syn Donald Trump junior, demokratická senátorka Elizabeth Warrenová, komentátorka Candace Owensová nebo sám Mark Zuckerberg. A více než 5,8 milionu dalších účtů, což byl stav v roce 2020.

Odpor v rámci Facebooku

„Ke všem těmto dokumentům jsme se dostali díky únikům ze společnosti Facebook,“ vysvětlil nám na konferenci přes aplikaci Zoom Jeff Horwitz, jeden z autorů série odhalení nazvané Facebook Files.

„Což asi stojí za pozornost. Jsou to interní audity nebo diskuse na jejich vnitřní firemní síti. V jiné firmě by možná takové sebekritické materiály ani nevznikly.“

To, že máme pro různé lidi různá pravidla, je pro mne velmi znepokojující.
Samidh Chakrabarti, šéf týmu pro občanskou odpovědnost Facebooku

Horwitz zdůraznil, že i v rámci Facebooku je tento systém označován za problematický. „Neděláme to, co veřejně tvrdíme, že děláme,“ stojí v jednom z interních auditů. „Vyjmutí některých lidí z pravidel nás vystavuje právním, regulatorním i marketingovým problémům a poškozuje naši komunitu,“ stojí na jiné stránce (není jasné, zda jde o citaci ze stejného dokumentu).

„K Facebooku jsem nastoupil, protože věřím v jeho potenciál být demokratizující silou, která dává všem stejný hlas,“ napsal na vnitrofiremní síť Samidh Chakrabarti, v roce 2019, tehdy ještě jako šéf týmu pro občanskou odpovědnost. „To, že máme pro různé lidi různá pravidla, je pro mne velmi znepokojující. (…) Rozhodně by nám pomohla větší transparentnost.“

Chakrabarti už u Facebooku nepracuje – skončil shodou okolností tento měsíc – a na svém Twitteru tyto úniky interních dokumentů komentuje: „Opravdu nemám rád vynášení informací. Ale aspoň teď moji přátelé lépe porozumí, proč mi za posledních pár let zešedivěly vlasy.“

Novináři rovněž poukázali na to, že Facebook ve svém vyjádření vůči své nezávislé dozorčí radě (Oversight Board) celý problém podhodnotil, když uvedl, že „systém pro významné uživatele se týká jen malého množství rozhodnutí“. „Proč vůbec zakládali a financovali nezávislou dozorčí komisi, když jí pak lžou,“ divila se Kate Klonicková, profesorka práv ze St. John's University, když ji novináři seznámili s uniklými dokumenty. „Tohle tu komisi dost oslabuje.“

Vyjádření firmy Facebook

Vyjádření zveřejnil Nick Clegg, viceprezident Facebooku pro globální otázky

Série článků, které publikoval deník The Wall Street Journal, se zaměřila na některé z nejtěžších problémů, s nimiž se jako společnost potýkáme – od moderování obsahu a dezinformací o vakcínách až po algoritmickou cirkulaci dat a duševní zdraví dospívajících. Jedná se o závažné a složité otázky a je naprosto legitimní, že nás někdo volá k odpovědnosti za to, jak se s nimi vypořádáváme. Tyto články však obsahovaly záměrně zkreslené informace o tom, o co se snažíme, a přisuzovaly vedení a zaměstnancům Facebooku mimořádně nepravdivé motivy.

Zástupci nezávislé dozorčí komise Facebooku vydali k problému XCheck prohlášení, ve kterém požadují od Facebooku větší míru transparentnosti: „Prověřujeme, do jaké míry byla společnost Facebook plně vstřícná ve svých reakcích týkajících se křížové kontroly. Komise se obrátila na společnost Facebook s žádostí o vysvětlení. Očekáváme, že v nejbližších dnech obdržíme od společnosti Facebook požadované informace. O tom, co z nich vyplyne, budeme informovat v rámci prvního vydání čtvrtletních zpráv o transparentnosti, které zveřejníme v říjnu.“

Dezinformace se šíří, přestože by nemusely

Podle novinářů The Wall Street Journal si také řada lidí v rámci Facebooku stěžuje, že firma nedělá tolik, co by mohla. Přestože teoreticky by příspěvky „elitních“ uživatelů, kteří jsou chráněni programem XCheck, měly být ručně ověřeny, v praxi je dodatečně prověřena pouze desetina z podezřelých příspěvků. Týká se to i dezinformací, které jsou již vyvráceny externími ověřovacími službami.

„Vědomě vystavujeme naše uživatele dezinformacím, přestože máme nástroje a procesy, které by tomu mohly zabránit,“ stojí v jednom dokumentu, o němž už v roce 2020 informoval server The Information.

Nověji se to týká zkreslených informací o účinnosti vakcín. „Velmi špatně bráníme šíření nepravd o vakcínách v angličtině. A v ostatních jazycích nejsme tyto příspěvky vůbec schopni detekovat,“ píše se v jednom z interních dokumentů.

Instagram u dívek vyvolává nespokojenost s vlastním tělem (…) a zvyšuje četnost myšlenek na sebevraždu.
interní výzkumy společnosti Facebook

Jiný problém se týká Instagramu. Výzkumníci přímo v rámci firmy dlouho upozorňují na to, že současná podoba této sociální sítě má negativní vliv zvláště na náctileté dívky a jejich psychické zdraví.

„Dvaatřicet procent dívek uvedlo, že když se cítily špatně ohledně svého těla, Instagram tyto pocity zhoršil. U třetiny dívek zhoršuje jejich pohled na sebe samotné. Instagram u 13 procent britských a šesti procent amerických dívek zvyšuje míru myšlenek na sebevraždu,“ citují novináři z několika různých výzkumů.

Zatím zřejmě nejzávažnější kritika se na Facebook snesla za jeho nedostatečný boj proti drogovým kartelům a obchodování s lidmi. Tento problém se týká především zemí třetího světa, což – jak uznává i Brian Boland, bývalý viceprezident Facebooku – je dlouhodobý problém: „Facebook se k problémům v těchto zemích staví jako k nutnému zlu.“ Firma své nástroje pro bezpečnost podle něj zaměřuje na bohaté země, a to navzdory narůstajícímu počtu uživatelů v zemích tzv. rozvojového světa: „Málokdy Facebook investuje do důležitých a cílených snah o nápravu v těchto oblastech,“ uvedl Boland pro The Wall Street Journal (WSJ).

Proč se řada těchto problémů vyskytuje i dlouho poté, co na ně výzkumy odborníků přímo z řad zaměstnanců Facebooku upozorňují? Někdy je to zřejmě kvůli tomu, že by řešení bylo příliš drahé a omezovalo by ziskovost platformy. Ale to podle novinářů WSJ pravděpodobně není hlavní důvod.

„Je to zvláštní. Není to jen otázka financí,“ spekuluje Deepa Seetharamanová, novinářka WSJ, která se na analýze dokumentů podílela. „Mark Zuckerberg už v minulosti ukázal, že je schopen zříci se části zisků, pokud by to znamenalo, že to platformu vylepší a zvýší její pozitivní vliv.“

Facebook trvá na tom, že má pozitivní vliv na život svých uživatelů. A neumí si připustit, že by třeba bylo lepší, kdyby lidé jeho aplikace používali méně.
Deepa Seetharamanová, novinářka WSJ

Seetharamanová se domnívá, že v rámci Facebooku se stalo „nezpochybnitelnou mantrou“, že více času na sociálních sítích znamená automaticky lepší situaci pro všechny. „A když máte takovou metriku, tak tomu vše uzpůsobíte. Prostě vám řeknou: ano, dějí se chyby, ale když se to vše sečte, tak je Facebook nástrojem dobra. Nevím, z čeho to vyvozují, jakými daty to podkládají.“

„Facebook svou užitečnost definuje tím, že jej lidé hodně používají,“ souhlasí její kolega Horwitz. „A když máte takovou definici, pak neuděláte nic, co by úmyslně snižovalo čas strávený používáním vašich služeb. Oni si nejspíš ani nepřipouštějí, že by něco takového mohlo být žádoucí, taková myšlenka je irituje.“

Reklama

Doporučované