Článek
Článek si také můžete poslechnout v audioverzi.
Současný konflikt na Blízkém východě doprovází vlna dezinformací vytvořených pomocí umělé inteligence. Na rizika spojená s využíváním AI jako nástroje manipulace už dříve upozornil deník Financial Times. Podobné manipulace nejsou podle odborníků ojedinělé.
Sociální sítě v prvních týdnech války v Íránu zaplavila vlna falešných videí a fotografií, které zřejmě vznikly nebo byly upraveny právě s pomocí nástrojů umělé inteligence. Materiály zobrazují například obří exploze, co se nikdy nestaly, zničené městské ulice nebo vojáky protestující proti válce, kteří ve skutečnosti neexistují.
Deník The New York Times (NYT) během posledních dvou týdnů identifikoval více než 110 unikátních videí a snímků vytvořených umělou inteligencí, které měly ukazovat válku na Blízkém východě.
Falešné materiály zobrazují například vyděšené Izraelce ukrývající se před výbuchy v Tel Avivu, Íránce oplakávající mrtvé nebo americké válečné lodě zasažené raketami a torpédy.
Příspěvky získaly miliony zhlédnutí na sítích jako X, TikTok či Facebook a šířily se i v soukromých komunikačních aplikacích.
Více falešných videí než při válce na Ukrajině
Už během prvního víkendu, kdy Izrael a Spojené státy udeřily na Írán, začala na síti X kolovat například fotografie, která měla zachycovat americký radarový systém v Kataru před konfliktem a po sérii útoku íránských dronů.
Analýza deníku Financial Times ale ukázala, že snímky ve skutečnosti pocházejí z Bahrajnu a byly upraveny. Známky manipulace potvrdil také specializovaný tým novinářů BBC Verify, který se zaměřuje na ověřování faktů.
Vozidla jsou na obou fotografiích, které měly být pořízeny s více než ročním odstupem, na stejném místě, stíny dopadají pod totožným úhlem a některé části konstrukce byly změněny. Historické satelitní snímky přitom na místě dlouhodobě nezaznamenaly žádné stavební úpravy.
Misinformation ramps up during major world events, and satellite imagery is not immune.
— Brady Africk (@bradyafr) March 3, 2026
AI has made it easier than ever to create fake images, so follow trusted sources for updates and double-check what you see in your feed. pic.twitter.com/dkeVBd179I
Podle expertů šíření podobných materiálů umožňuje nová generace generativních nástrojů, které dokážou během několika minut vytvořit realistické simulace války.
„I ve srovnání s dobou, kdy vypukla válka na Ukrajině, je dnes situace úplně jiná,“ řekl pro NYT mediální analytik Marc Owen Jones z Northwestern University v Kataru. „Pravděpodobně nyní vidíme mnohem více obsahu spojeného s AI než kdykoli předtím.“
Pomáhají vytvořit proíránský pohled
Analýza společnosti Cyabra ukazuje, že velká část těchto videí podporuje proíránský pohled na konflikt a snaží se vyvolat dojem vojenské převahy Íránu.
„Používání snímků vytvořených umělou inteligencí, které zobrazují zničená nebo hořící místa v oblasti Perského zálivu, je pro íránskou strategii stále důležitější,“ domnívá se analytik Jones. „Umožňuje to vytvořit dojem, že tato válka je pro americké spojence mnohem ničivější a nákladnější, než ve skutečnosti je.“
Jedno z nejrozšířenějších videí například ukazuje Tel Aviv po údajném zásahu raket, záběry měly vzniknout na balkoně jednoho z bytů. Analýza ale ukázala, že jde o AI – prozradily ji detaily, jako je generativně doplněná izraelská vlajka.

Smyšlený zásah Tel Avivu íránskými raketami.Video: x.com/alshayakhllu1
Další video, analyzované CNN, údajně ukazuje, jak íránští vojáci drží zajaté americké speciální jednotky. I tyto záběry pomohla vytvořit AI.

Falešné video: Íránští vojáci drží zajaté americké speciální jednotky.Video: x.com/Abdulla19151520
Dramatičtější než realita
Autentické záběry z konfliktu přitom většinou vypadají mnohem méně dramaticky – rakety jsou často viditelné jen jako světelné body na noční obloze a výbuchy jako oblaky kouře.
Naproti tomu falešná videa připomínají filmové akční scény s obřími explozemi nebo hypersonickými raketami. Některé skutečné záběry jsou navíc pomocí AI dodatečně upravovány, aby působily ničivěji.
Jedno dramatické video vytvořené pomocí AI se například rozšířilo, když se nad Kuvajtem zřítily americké stíhačky. K této události skutečně došlo, ale autentická videa vypadala méně senzačně.

Falešný záznam pádu amerických stíhaček v Kuvajtu. Záběry připomínají filmové akční scény.Video: x.com/22334455zzz
Letadlová loď nebo sestřelené tankovací letadlo
Falešný obsah se rozšířil i poté, co Íránské revoluční gardy tvrdily, že zasáhly americkou letadlovou loď. Internet zaplavila videa vytvořená pomocí AI, která zobrazovala hořící USS Abraham Lincoln, a mnozí uživatelé je sdíleli jako důkaz útoku.
Spojené státy později oznámily, že loď neutrpěla žádné poškození. Přiblížení íránského plavidla k lodi ale pro stanici CBS News potvrdili dva američtí představitelé obeznámení s okolnostmi incidentu.
Jedno z doprovodných plavidel americké lodi se pokusilo íránské plavidlo zasáhnout z lodního kanonu, přičemž střely cíl několikrát minuly a není jasné, zda šlo o varovné výstřely. Pak Spojené státy nasadily vrtulník vyzbrojený střelami Hellfire, který íránské plavidlo zasáhl. Stav íránské lodi ani její posádky zatím není znám.

„Spojené státy dosud utrpěly obrovské ztráty. Íránské rakety zasáhly letadlovou loď USS Abraham Lincoln,“ uvádí čínský popisek videa hořící lodi, sdíleného na facebooku 8. března 2026. Nejde o autentické záběry.Video: facebook/李德明
Další příklad falešného videa je zřícení amerického tankovacího letounu KC-135 v západním Iráku minulý čtvrtek. Bývalý představitel íránské centrální banky a novinář Mostafa Ghamari Vafa sdílel na svém účtu na sociální síti X „fotografii“ zříceného letounu.
„Tento snímek, který zveřejnil íránský novinář, údajně zachycuje trosky amerického tankovacího letounu KC-135, jenž se zřítil v Iráku. Ve skutečnosti jde o obrázek vytvořený umělou inteligencí, což prozrazuje ocas letadla, americká vlajka i nápisy,“ napsal k tomu na síti X novinář BBC Shayan Sardarizadeh, který každý den sdílí nově vyvrácené dezinformace týkající se konfliktu.

Údajné trosky amerického tankovacího letadla KC-135.
Nová forma propagandy
Některá videa ani neskrývají, že jde o fikci. Podle odborníků jde o novou formu digitální propagandy. Série například zobrazuje smyšlený příběh školy zničené americkým raketovým útokem, včetně scén dětí na školním dvoře před dopadem raket.
Množství podobných materiálů se výrazně zvýšilo po uvedení nástroje Sora, který umožňuje vytvářet realistická videa z jednoduchých textových pokynů.

Falešné záběry útoku na íránskou dívčí školu. Při skutečném úderu ve městě Minab podle íránských úřadů zemřelo nejméně 168 lidí.Video: x.com/FiorellaIsabelM
Některé nástroje sice přidávají do videí vodoznaky označující AI obsah, ty ale lze snadno odstranit. Jen malé množství videí identifikovaných deníkem NYT takové označení mělo.
V reakci na nárůst falešných videí šéf produktů sítě X Nikita Bier oznámil, že platforma zpřísní pravidla pro obsah vytvořený pomocí umělé inteligence. Uživatelé, kteří materiál řádně neoznačí, přijdou na 90 dní o možnost zpeněžování obsahu. Těm, co by pravidla porušovali opakovaně, pak hrozí trvalé zablokování účtu.
„Je to přirozená fronta, kterou se Írán snaží využít,“ uvedla pro americký deník analytička Valerie Wirtschafterová z think-tanku Brookings Institution. „Ve skutečnosti jde o nástroj války.“
















