Hlavní obsah

Facebook se chystá na české volby. Politiky nechá lhát, zbytek ověří Češi

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Na každý nový článek vám budeme posílat upozornění do emailu.

Foto: Shutterstock.com, Seznam Zprávy

Politici mají na Facebooku možnost psát své příspěvky bez obav z ověřovacích nálepek. Určité limity však přesto splnit musejí.

Reklama

Jaká bude předvolební kampaň v Česku? Největší sociální síť světa ubezpečuje, že volby bere vážně. Při kontrolách kombinuje lidské moderátory z Česka, umělou inteligenci i nezávislé ověřovače. Politiky však ověřovat nechce.

Článek

Volby do Poslanecké sněmovny Parlamentu ČR se blíží. Konají se 8. a 9. října 2021.

A pokud by někdo na Facebooku nebo Instagramu tvrdil něco jiného, má problém. Protože Facebook bere volby opravdu vážně, ubezpečila novináře během konferenčního hovoru Eva Ivancicová, která má u Facebooku na starost oblast veřejných záležitostí týkající se vnějších pravidel.

Úmyslné snižování volební účasti, například tím, že by někdo uvedl chybné datum voleb nebo špatně popsal způsob, jakým volby probíhají, je považováno za významné porušení komunitních pravidel a zásad. Pravidla pokrývají 26 různých oblastí, od podněcování násilí, projevů nenávisti, omezení volebního práva občanů až po obtěžování nebo šikanu.

České příspěvky kontrolují Češi

Nad dodržováním pravidel týkajících se obsahu dohlíží patnáct tisíc „obsahových recenzentů“. To se může zdát jako velké číslo, ovšem nezapomínejme, že Facebook se blíží ke třem miliardám aktivních uživatelů měsíčně, v červnu 2021 to bylo 2,895 miliardy uživatelů.

Přesný počet aktivních uživatelů v Česku nemáme k dispozici, nicméně reklamní systém ukazuje odhad maximálního cílového publika v ČR kolem šesti a půl milionu, z toho 6,1 milionu dospělých.

Počet obsahu, který je odstraněn kvůli porušení pravidel, také stoupá.

„Od té doby, co jsme (před čtyřmi lety, pozn. red.) začali tuto metriku zveřejňovat, stoupl počet příspěvků odstraněných kvůli nenávistnému obsahu patnáctinásobně,“ řekl novinářům Guy Rosen, viceprezident Facebooku pro integritu. „Dříve naše moderování spoléhalo na hlášení uživatelů.“

Jinými slovy, aby moderátoři příspěvek vůbec viděli, musel jej někdo nahlásit.

Dříve jsme spoléhali na nahlášení škodlivého obsahu ostatními uživateli. Nyní většinu detekce zařídí umělá inteligence, která nám umožnila moderování škálovat.
Guy Rose, viceprezident Facebooku pro integritu

Nyní je však Facebook mnohem více proaktivní a algoritmy strojového učení automaticky vyhledávají podezřelé příspěvky a posílají je ke kontrole.

„Ohromně jsme investovali do umělé inteligence, aby nám pomohla škálovat moderování,“ vysvětlil novinářům během konferenčního hovoru v půlce srpna Rosen. „Abychom věděli, jak se nám to daří, používáme metriku proaktivity.“

To zjednodušeně znamená, že Facebook sleduje, kolik škodlivého obsahu odstranil ještě dříve, než jej někdo spatří. „Například u nenávistných výroků byla před čtyřmi roky naše míra proaktivity 24 procent. Tři čtvrtiny škodlivého obsahu musel někdo nahlásit. Nyní je naše míra proaktivity 97 procent.“

Některé typy obsahu, třeba nahotu nebo radikalizující příspěvky teroristických organizací, dokáže podle Facebooku velmi spolehlivě detekovat přímo umělá inteligence a takové jsou „suspendovány“ prakticky okamžitě.

Příspěvky však nemizí jen na základě vyhodnocení počítače. „Je stále řada případů, kdy je důležité zapojit vytrénovaného lidského moderátora,“ podtrhává Ivancicová. „Je to zvláště důležité tam, kde je potřeba zvážit kontext. Třeba u nenávistných příspěvků je kontext zásadní. Některé nadávky mohou být útočné, ale také humorné nebo dokonce použity jako upozornění na důležitý problém. To musí často rozhodnout člověk.“

Příspěvek musí posuzovat člověk, který vyrůstal v dané zemi a rozumí nejen jazyku, ale i kulturním a politickým souvislostem.
Eva Ivancicová, Facebook Public Policy

„Moderátoři pracují ve všech časových zónách po celém světě a dohromady pokrývají padesát jazyků včetně češtiny,“ vypočítává Ivancicová. „Nejde jen o jazyk. Najímáme lidi, kteří vyrůstali v dané zemi, protože je často třeba, aby význam textu posoudil někdo místní, kdo zná politické klima a kontext.“

„Neodstraňujeme příspěvky jen proto, že je někdo nahlásil. A také platí, že více nahlášení neznamená, že je větší šance, že bude příspěvek odstraněn,“ shrnuje Ivancicová. Zdůrazňuje, že jen proto, že se někomu příspěvek nelíbí, nemusí být hned odstraněn. „Uživatelé si mohou sami určit, co na Facebooku chtějí vidět a co ne, tím, koho sledují a jak mají nastavený Newsfeed.“

Omyl, nebo dezinformace?

Komunitní pravidla platí na Facebooku pro všechny včetně politiků. Facebook to zopakoval i poté, co byl nezávislou dozorčí komisí upozorněn na nutnost tyto podmínky srovnat a vysvětlit. Kromě toho ale Facebook má zájem i na tom, aby se na jeho platformě nešířily nepravdivé informace.

Tam je ale situace komplikovanější, jak vysvětlila novinářům Sophie Eyearsová, která se ve Facebooku stará o strategická partnerství.

Do její gesce spadá boj s dezinformacemi proto, že ověřování informací nedělá přímo Facebook. Místo toho dává prostor ověřeným partnerům z řad mezinárodní sítě ověřovačů (Internationa Fact-Checking Network).

„V Česku spolupracujeme s agenturou AFP a serverem Demagog.cz,“ upřesnila Eyearsová. „My jim posíláme obsah, který identifikujeme pomocí strojového učení jako potenciálně chybný. Ověřovači z dané země pak mohou daný příspěvek či zprávu ověřit. Mohou také sami vybrat příspěvky k ověření.“ V případě, že daný (nebo podobný) příspěvek prošel nezávislým ověřením, zobrazí se toto u příspěvku jako „nálepka“.

Výroky politiků Facebook neověřuje

Výjimkou z fact-checkingových snah je obsah, který na Facebooku pod svým jménem publikují politici. Jejich obsah musí sice splnit komunitní pravidla, nicméně pokud například příspěvek politika obsahuje nepravdu – ať záměrnou lež, zavádějící tvrzení či omyl – Facebook u takového příspěvku nebude ukazovat informaci o ověření. A to dokonce ani tehdy, když by takové ověření bylo k dispozici.

Například když server Demagog.cz ověřil vyjádření poslance Romana Onderky (ČSSD) a označil jej jako zavádějící, toto označení je k dispozici pouze na webu Demagog.cz a u samotného vyjádření na Facebooku se neukazuje (upozornil na to během tiskové konference novinář Filip Rožánek).

Věříme, že technologická společnost by neměla cenzurovat politiky. Lidé by pak byli méně informovaní a politici méně zodpovědní za svá slova.
Facebook

„Věříme, že v demokracii by o tom, co je věrohodné, měli rozhodovat lidé, ne technologické společnosti – naším záměrem není to, aby soukromá společnost cenzurovala politiky. Proto neposíláme politický obsah ani reklamy našim fact-checkingovým partnerům,“ uvedl Facebook v tiskové zprávě.

„Věříme, že omezením projevu nebo odstraněním obsahu bychom zapříčinili, že by lidé byli méně informovaní o tom, co říkají jimi volení představitelé, a politici byli méně zodpovědní za vlastní slova.“

„Navíc se i nadále budou vyskytovat případy, kdy hodnocení od našich partnerů pro ověřování faktů postihne politiky,“ doplnila na náš dotaz tisková mluvčí Magdalena Szulcová.

„Například pokud politici sdílejí obsah, který již byl vyvrácen třetí stranou (fact-checkerem), snížíme hodnocení tohoto obsahu, zobrazíme související informace od ověřovatelů a odmítneme jeho zařazení do reklamy. To vše by se vztahovalo na podobně hodnocený obsah sdílený jakýmkoli jiným uživatelem na naší platformě.“

Kromě toho se také zobrazí varování lidem, kteří chtějí ověřený nepravdivý příspěvek dále sdílet (ale stále jej sdílet mohou).

Foto: Facebook, koláž: Pavel Kasík

Ukázka upozornění na ověřeně nepravdivou informaci.

V neposlední řadě pak Facebook snižuje dosah nepravdivých příspěvků tím, že je umístí níže v Newsfeedu uživatelů, a dostane se tak k němu méně lidí. „Jde nám o rovnováhu a lidem vždy jasně ukážeme, kdo ověření provedl a na základě jakých zdrojů,“ dodává Eyearsová.

Na jedné straně nechce Facebook omezovat diskuzi a trestat někoho za chybu, která nejspíše není úmyslná. Na druhou stranu nechce, aby se platforma stala útočnou půdou pro cílené šíření lží. Facebook je v tomto ohledu kritizován z obou stran – zatímco podle některých příliš omezuje tok informací, podle jiných naopak dělá málo proti šíření škodlivých lží. Například americký prezident Joe Biden Facebooku vyčetl, že by měl dělat více proti šíření lží o očkování.

U nepravdivých informací, které neodporují pravidlům, je ale podle Eyearsové potřeba odlišit, zda jde o omyl, nebo záměr: „Rozlišujeme mezi nepravdivou či zavádějící informací (misinformation) a úmyslně zavádějící dezinformací, jejímž cílem je manipulovat (disinformation).

Cílené dezinformace jsou formou informačních operací a zneužívání platformy k šíření „neautentického obsahu“, jak tomu Facebook říká. Má s těmito operacemi neblahé zkušenosti.

Poučení z roku 2016

„Od roku 2016 jsme významně investovali do našich systémů, jejichž cílem je ochrana integrity voleb,“ řekla novinářům Ivancicová.

Rok 2016 není zmíněn náhodou. Tehdy na Facebooku probíhala koordinovaná kampaň řízená z Ruska, jak posléze uznal i prezident Trump. Jejím cílem bylo pomocí falešných stránek a účtů na sociálních sítích (především na Facebooku) využít existujících polarizujících témat a snížit u vybraných skupin obyvatel (například černoši, křesťané nebo muslimové) volební účast.

Foto: New Knowledge

Ukázka příspěvků, které ruská agentura Internet Research Agency podle analýzy New Knowledge šířila pod různými profily a stránkami s cílem omezit volební účast vybraných skupin a podpořit existující rozkoly.

V reakci na tuto informační operaci Facebook během roku 2017 začal zavádět opatření, která mají zabránit tomu, aby podobná „neautentická kampaň“ zasáhla do voleb i jinde. „Od té doby jsme ochránili přes 200 voleb po celém světě včetně Evropy,“ dodala Ivancicová.

To znamená aktivně detekovat hrozby a koordinované informační kampaně. „Veřejně jsme se zavázali k tomu, že budeme pracovat na zlepšování těchto odhalení,“ uvedl Štěpán Soukeník, který u Facebooku zajišťuje vnější spolupráci s institucemi a vládami. „Lepší technologie, automatické systémy, nabíráme více lidí a spolupracujeme s bezpečnostními experty a dalšími partnery včetně bezpečnostních složek státu.“

Foto: Facebook

Koordinované informační operace detekované Facebookem od roku 2016.

Za poslední dva roky podle Soukeníka Facebook zaznamenal více takových koordinovaných kampaní využívajících falešný (neautentický) obsah. „To neznamená nutně, že je těch kampaní více, ale naše týmy a systémy jsou nyní lepší v jejich odhalování,“ věří Soukeník.

„Část těchto procesů je globálních, ale zároveň se i přizpůsobujeme jednotlivým zemím. Včetně Česka. Můžu potvrdit, že zatím naše týmy neviděly důkaz o probíhající informační operaci tohoto druhu či rozsahu, která by se zaměřovala na volby v České republice,“ řekl Soukeník novinářům. „Zůstáváme nicméně ve střehu.“

Připomněl také nástroj, pomocí kterého může veřejnost sledovat výdaje politiků (a také státních institucí a dalších subjektů) na reklamní kampaně. V nástroji Knihovna reklam si může kdokoli vyhledat archiv všech aktuálních i již neaktivních reklam českých i světových politiků.

Nejsou to až tak velké částky. Za posledních 90 dní utratili všichni politici dohromady 12,8 milionů Kč za reklamy. Obvykle totiž pracují s cílením různých reklam na různé typy publika. Za konkrétní reklamu tak utratí třeba jen několik stovek korun. Více politici spoléhají na to, že se jejich obsah bude šířit virálně, a placených reklam používají spíše k rozšíření dosahu.

Reklama

Doporučované