Článek
V newsletteru Pod čarou popisuje každou sobotu Matouš Hrdina společenské trendy, které sice vídáme všude kolem sebe, ale v přílivu každodenního zpravodajství trochu zanikají mezi řádky. Pokud vás ukázka zaujme, přihlaste se k odběru plné verze newsletteru.
Někdy okolo roku 2023 začalo být jasné, že nové AI nástroje typu ChatGPT dokážou snadno vytvořit relativně smysluplný text na jakékoliv téma. První vlna paniky mezi novináři, učiteli či spisovateli se tak roztočila kolem celkem přímočaré obavy – jak rozpoznat a zabránit tomu, aby někdo syntetický text vygenerovaný robotem vydal za vlastní.
Šlo o reálné riziko, a tak jsme od té doby viděli už nespočet takových kauz, od „fejkových“ školních seminárek přes články neexistujících reportérů až po robotem sepsané romány. Jsou to jistě problematické případy, ale teď se ukazuje, že takto prosté zneužití AI je jen špičkou ledovce.
Vedle toho se totiž postupně rozvinuly i sofistikovanější metody práce s AI, které jsou mnohem hůře odhalitelné a mohou mít dalekosáhlé následky – v neposlední řadě třeba úpadek již tak nalomené veřejné důvěry v média.
Naplno se to v posledních týdnech projevilo v USA, kde mezi tamními novináři vypukla poněkud tragikomická přestřelka založená na nařčeních z nepřiznaného využití AI. A ohlas této pomyslné reportérské rvačky ukazuje, do jak velké bryndy jsme se kvůli svůdným chatbotům dostali.
Stovky článků za měsíc
Bouři předznamenala již kauza okolo hororového románu Shy Girl. Jeho americké vydání bylo vydavatelstvím Hachette v březnu stornováno poté, co se objevily důvodné pochybnosti, zda knihu zčásti nebo zcela nenapsala AI. Jeho autorka Mia Ballard se nepříliš přesvědčivě bránila tím, že za vše může její známý, který rukopis „editoval s pomocí AI“, a sklidila celkem očekávatelnou vlnu veřejného výsměchu a komentářů o úpadku literatury.
Tvorba spotřebního žánrového braku s využitím AI je už delší dobu diskutovaný problém, který si jistě zaslouží pozornost, ale v konečném důsledku nejspíš nepáchá tak zásadní škody – z publikovaných ukázek je zřejmé, že Shy Girl je dost mizerná kniha bez ohledu na identitu autora a její čtenáři mají nejspíš jiné literární potřeby a motivace, než je brilantní stylistika a nevšední zápletka.
Pak se ale debata přenesla i na pole médií, kde najednou dostává mnohem závažnější rozměry. Prvním výstřelem byla ostuda literárního publicisty Alexe Prestona, se kterým ukončily spolupráci New York Times poté, co se ukázalo, že v jedné ze svých knižních recenzí takřka slovo od slova zkopíroval pasáž z recenze stejné publikace vydané před pár měsíci v britském Guardianu.
Případ, který na první pohled působil jako klasické plagiátorství, rychle dostal AI rozměr – Preston v kajícné omluvě uvedl, že byl v časovém presu, text si nechal zeditovat chatbotem, který do něj následně vsunul inkriminovanou pasáž, a šlo tak o nešťastný omyl.
Prokázal tím jak svou neznalost principů generativní AI (chatbotovi nezbývá, než si konkrétní postřehy o dané knize vytáhnout z nějakého existujícího textu, neboť ji coby kus nemyslícího kódu sám jaksi nemohl kriticky interpretovat), tak i značnou dávku amatérství – když nedokáže napsat dvoustránkovou recenzi bez asistence AI, New York Times pro něj možná nejsou ideálním pracovištěm.
Prestonovy tvůrčí postupy nejsou ojedinělé. Časopis Wired popsal, jak AI využívají freelanceři z oblasti technologické žurnalistiky, nad jejichž triky se zvedá obočí ještě o řádný kus výš. Reportér Alex Heath, který z webu The Verge odešel psát na Substack, se chlubí, jak své výstupy tvoří pomocí celého systému AI agentů, kteří za něj dělají nejrůznější činnosti, včetně toho, že na základě jeho hlasových poznámek píší první draft článku.
Bezelstně přiznává, že psát texty „od nuly“ je otrava, kdežto s pomocí AI je to mnohem zábavnější a také má mnohem větší produktivitu. A i když je jasné, že reportérům na volné noze citelně schází lidský editor a tlak na výkon je u nich vyšší, na pochybném charakteru „psaní“ tohoto typu to nic nemění.
Servítky si nebere ani editor magazínu Fortune Nick Lichtenberg, který se kolegům z Wall Street Journal chlubí, že za půl roku dokázal s pomocí AI „napsat“ přes 600 článků. Svůj přínos vidí především v tom, že chatbotem napsané články nepřebírá jen tak napřímo, ale pečlivě je edituje nebo kombinuje výstupy z více AI nástrojů, což z něj sice možná dělá atraktivního AI guru, ale novináře rozhodně nikoliv.
Velký povyk vzbudil tweet komentátorky Washington Post Megan McArdle, která shrnula všechny méně nápadné, ale dost problematické metody práce s AI mimo rámec prostého kopírování textu. AI pro ni vybírá četbu a shrnuje vědecké články, kterým nerozumí. Dává zpětnou vazbu na její názory, krátí texty, zlepšuje otázky do rozhovorů a provádí finální ověřování faktů.
To vše zjevně považuje za legitimní metody využití AI, ale jak záhy podotkla řada kritiků, jediný nekontroverzní úkon, který s AI provádí, je tak maximálně přepis audia do textu – zbytek vyjmenovaných činností nejsou žádné „vedlejší“ rutiny, ale zcela zásadní část kvalitní novinařiny, kterou na robota nelze delegovat ani omylem.
Šířku problému dál poodkryla investigace časopisu The Atlantic, která poukázala na široké a nepřiznané využití AI v komentářových rubrikách řady prestižních amerických médií. Jako příklad zmiňuje přispěvatelku vztahové rubriky New York Times Kate Gilgan. I ta čelila nařčení, že své sloupky nechává psát AI, a následně se hájila způsobem, který už zde byl zmíněn několikrát – vše je přece v pořádku, protože samotný finální text „píše sama“, jen při svém tvůrčím procesu využívá služby pěti různých AI asistentů, aby se třeba v rámci odstavce neodchýlila od tématu a udržela myšlenku.
Analýza The Atlantic následně cituje loňskou studii týmu amerických vědců (zatím ve fázi preprintu), která všechna podezření podepírá daty. Její autoři analyzovali více než 180 tisíc online článků z 1500 amerických médií publikovaných v létě 2025 a u 9 % z nich našli prvky obsahu generovaného AI. Častěji se objevovaly u malých lokálních médií, v určitých tématech (technologie či počasí) – a u většiny z nich také nebylo přiznáno, že při jejich tvorbě byla použita AI.
Ještě zajímavější je ale další část analýzy, která se zaměřila na komentářové rubriky deníků Washington Post, New York Times a Wall Street Journal – v těch se totiž potenciální AI obsah objevoval více než šestkrát častěji než ve zpravodajských sekcích stejných médií, což může vést k řadě zajímavých domněnek.
Bez lidské práce to nejde
Kromě jiného to naznačuje, že čistě faktické chyby a falza způsobené využitím AI nejsou tak zásadním problémem, protože se na ně relativně snadno přijde – a možná proto také v prestižnějších médiích (zne)užívání AI tolik nepostihuje zpravodajské texty.
Neplatí ani zdánlivě logická domněnka, že AI berličky využívá především stereotypní postava nezkušeného a přepracovaného eléva či stážisty – citované příklady ukazují, že jde často o relativně zkušené a výše postavené autory, kteří píší krátké publicistické texty a projevuje se tak u nich buď zásadní nedostatek soudnosti, nebo celou věc prostě mají na háku.
Z reakcí na kauzy bylo také zjevné, jak se liší představy o novinářské práci mezi lidmi z oboru a laickou veřejností. Řada přistižených autorů se hájila tím, že samotné psaní dělají sami, a tak je vše v pořádku, čímž ale nevědomky nebo záměrně potvrzují mylné dojmy. Pro většinu lidí, kteří se denně nevěnují profesionální tvorbě textů, je psaní skutečně pomalá a bolestivá aktivita, ale pro středně „vypsaného“ novináře je to relativně rychlý úkon.
Naopak ony zdánlivé podružné doprovodné či přípravné aktivity typu rešerší, četby, poznámek, strukturování textu a editace jsou zcela rozhodující a časově mnohem náročnější, ale v očích veřejnosti tak často nepůsobí. Proto také nabývá na síle argument, že když tyto práce někdo deleguje na robota, je to přece jen zcela nevinná „asistence“. Ve skutečnosti je to ale outsourcing myšlení a tvůrčího procesu, bez kterého kvalitní text nikdy nevznikne.
Kritici také podotýkají, že čím dál víc selhávají redakční kodexy pro práci s AI. Ty často nastavují jen velmi volné mantinely a mnohdy vznikaly v době, kdy se skloňovaly především obavy z automatické tvorby celých textů a na sofistikovanější metody práce s AI se nemyslelo.
Například New York Times vyžadují, aby bylo „výrazné využití generativní AI“ otevřeně deklarováno, jenže není jasné, co přesně se takovým využitím míní. A jak dodává literární kritička Becca Rothfeld, řada autorů se často nevleze ani do velmi tolerantních pravidel – Washington Post deklaruje, že jeho reportéři musí jasně odlišovat, co viděli sami a co mají z jiných zdrojů, a mají také finální odpovědnost za fact-checking a podobu textu, což třeba zmiňovaná Megan McArdle porušuje zcela nesporně.
Ztráta myšlení
Jistě tu existují i zcela legitimní „pomocná“ využití AI – nikdo nekritizuje třeba překladače či přepisy audiozáznamu, řadu využití najde AI při technických úkolech typu datové analýzy nebo SEO, speciální kapitolou může být programování různých užitečných nástrojů a aplikací. Pokud se ale omezíme na případy, kdy generativní AI nahrazuje činnosti, které dříve neodmyslitelně zastával samotný redaktor nebo editor, jde vždy o více než kontroverzní praxi.
Je otázkou, zda jde o nový problém, nebo jen boom AI odhalil starou ránu. Tuto argumentaci sleduje i blogger Max Read, který podotýká, že média jsou na celém světě již léta v krizi, sílí v nich tlak na výkon, čtenost a rychlost. Závěje nekvalitního braku vznikaly již dávno před příchodem AI a chatboti jen odpověděli na existující poptávku vyčerpaných redaktorů. Řešením je tak podle něj odstranění těchto skrytých motivací a důraz na pomalou, odpovědnou tvorbu a kvalitní editaci.
S tím nelze nesouhlasit, ale pokrývá to jen dílčí část problému – kritici, publicisté a komentátoři prestižních amerických médií jistě nejsou vytížení brigádníci, kteří musí na dezinformačním webu vyprodukovat dvacet článků denně. Jejich motivace jsou tedy nejspíš jiné a občas nepříliš pochopitelné – na sociálních sítích ostatně mnozí diskutující namítali, že když za někoho musí hlavní linku komentáře vymyslet chatbot a pak mu ještě text přeleštit, než se ho vůbec odváží poslat lidskému editorovi, nejspíš by měl vyklidit prostor talentovanějším tvůrcům.
Pokud pomineme morální rovinu věci, stále je tu řada dalších věcných důvodů, proč by zdánlivě nevinné „editorské“ či „inspirační“ metody využití AI neměly v médiích i dalších sektorech (třeba školách) co dělat.
V aktuální debatě jsou často zmiňovány nové vědecké studie, které dokazují, že „zblbnutí“ a pokles kvality textů v důsledku využití AI jsou zcela reálnými riziky. Kolektiv výzkumníků z Google DeepMind a různých amerických univerzit zjistil, že rozsáhlé využití velkých jazykových modelů při tvorbě textů výrazně posouvá jejich vyznění do neutrální roviny, doslova jim bere názor a zbavuje je originálního autorského tónu.
K tomuto významovému posunu navíc dochází i v případech, kdy jsou AI nástroje profesionálně promptovány a upomínány, aby jen opravovaly gramatické chyby – tedy přesně to, co po svých „asistentech“ chce řada zmiňovaných novinářů.
A za zmínku stojí i studie, která potvrzuje časté podezření, že nám AI gumuje mozek – její autoři prokazují, že lidé, kteří si při vyplňování vědomostních testů jen 10 minut pomáhali AI, pak mají bez robotické asistence výrazně horší výsledky a motivaci než kontrolní skupina, která se o AI nikdy neotřela. Je to závažný jev sám o sobě, a když se týká novinářů, kvalita jejich práce i myšlení se nemůže nepropadnout.
Nepřipravit se o důvěru
Okolo samotné kvality výsledných textů bychom ale také neměli zbytečně dlouho kroužit. Blogger a autor populárního newsletteru Today in Tabs Rusty Foster k tomu dodává cynickou poznámku, která milovníkům kvalitní žurnalistiky radost neudělá, ale na pravdivosti jí to neubírá. Nabídka kvalitních textů (či autorů, kteří by je mohli potenciálně psát) výrazně přesahuje poptávku mediálního mainstreamu a jeho publika. Plytkost a průměrnost nejsou pro úspěch v médiích či literatuře žádnou překážkou, právě naopak.
Dobří autoři nepoužívající AI tak mohou třít bídu s nouzí, zatímco ambiciózní žvanilové slaví úspěchy s plytkými texty, které jim předžvýkali chatboti, ale v tom nespočívá jádro současné krize. Tuto poučku lze navíc uplatnit i obráceně – také špatných a nanicovatých článků bylo před nástupem AI víc než dost, jejich nabídka tedy rovněž uspokojuje poptávku a nehrozí, že by tento typ obsahu „došel“ jen kvůli nedostatečně rychlému zavádění AI.
Problém je v rozkladu důvěry v média. Jen málokdo se dobrovolně přizná k tomu, že text vytvořil s asistencí AI, protože mu to v očích čtenáře ubírá na hodnotě a důvěryhodnosti – bez ohledu na formální kvality i věcnou správnost textu. Pokud by někdo ze zmiňovaných výtečníků přímo v článcích uváděl, že je navrhl, vyrešeršoval a ověřil chatbot, leckdo si může zcela oprávněně pomyslet, že takto se k informacím a vysvětlením nejrůznějších témat může dostat sám a nemusí si kvůli tomu předplácet dané médium.
Ani často diskutované důsledné označování textů vytvořených s AI tak rozhodně není řešením. Obecná nálepka „vytvořeno s pomocí AI“ budí jen další otázky. Pokud by byly metody práce s AI podrobněji upřesněny, v mnoha případech poroste zmíněný despekt čtenáře vyvolaný dojmem, že si to autor neumí vymyslet sám. Vrhalo by to stín i na autory, kteří si AI nepomáhají (mohlo by to vypadat, že se jen zatvrzele odmítají přiznat), a stejně je to jen akademická debata, protože jak ukazují zmiňované kauzy, většina autorů kápne božskou, až když udělají nějakou botu.
Konečným výsledkem je tak ztráta důvěry, které média paradoxně čelí v době, kdy měla unikátní příležitost ji znovu získat. Podotýká to i Vauhini Vara, autorka analýzy v The Atlantic. Média, která pod náporem nových technologií přežila až dodnes, působila jako záruka solidních informací v chaotické době a tento aspekt ještě posílil, když internet začal zaplavovat AI brak.
Mnozí komentátoři (párkrát jsem to ostatně doporučoval i v tomto newsletteru) radili, že v době nespolehlivých chatbotů roste síla a význam médií, a teoreticky nic nebrání tomu, aby tak tradiční média začala znovu dobývat ztracené pozice. To by ovšem musela přistupovat k používání AI výrazně kritičtějším způsobem – aktualizovat svá pravidla nad rámec pouček, že důležité je hlavně „napsat text sám“ a „ověřovat informace“, a chápat, že jejich výlučnost spočívá právě v plně lidské expertize ve všech fázích tvorby obsahu, kterou nikdo jiný nemůže zaručit.
Přímočaré plagiáty či kopírování syntetického textu lze částečně dokázat nebo alespoň podezírat, ale odhalit, že se někdo nechal chatbotem „inspirovat“, je mnohdy takřka nemožné. Nerýsuje se tak žádné jednoduché řešení, jak sílící krizi důvěry vyvolanou nepřiznaným využíváním AI odvrátit, a celá situace otevírá více těžkých otázek než snadných odpovědí. Jistě ale není od věci nesoudné využívání AI coby „rádce“ či „editora“ alespoň veřejně pranýřovat a bránit tak bezelstným přiznáním mnoha novinářů, kteří si neuvědomují dopady svých činů na reputaci celého sektoru.
Pokud se vám ukázka z newsletteru Pod čarou líbila, přihlaste se k odběru. Každou sobotu ho dostanete přímo do vašeho e-mailu, včetně tipů na další zajímavé čtení z českých i zahraničních médií.
















