Článek
Válka proti Íránu, kterou Izrael a Spojené státy odstartovaly v sobotu, znovu upozornila na rizika umělé inteligence coby nástroje dezinformací v konfliktech.
Napsal to deník Financial Times (FT) poté, co se sociálními sítěmi o víkendu masivně šířily satelitní snímky, které zřejmě vznikly či byly upraveny právě s pomocí AI.
Například oficiální účet íránského deníku Tehran Times na síti X sdílel fotografie, které měly zachycovat americký radarový systém v Kataru před a po útoku íránských dronů. Analýza FT ovšem ukázala, že jde o snímky oblasti v Bahrajnu, které byly upraveny.
Známky manipulace potvrdil i specializovaný tým novinářů BBC Verify, který se zaměřuje na ověřování faktů.
Vozidla jsou na obou fotografiích, jež měly být pořízeny s více než ročním odstupem, na stejném místě, stíny dopadají pod totožným úhlem a části konstrukce byly pozměněny.
Historické satelitní snímky přitom na místě dlouhodobě nezaznamenaly žádné stavební změny, upozorňují obě zmíněná média.
Misinformation ramps up during major world events, and satellite imagery is not immune.
— Brady Africk (@bradyafr) March 3, 2026
AI has made it easier than ever to create fake images, so follow trusted sources for updates and double-check what you see in your feed. pic.twitter.com/dkeVBd179I
Ověřená videa, která redakce analyzovaly, zachycují několik úderů v blízkosti radarového systému v Bahrajnu a satelitní snímky společnosti Planet Labs z 1. března pak potvrzují, že místo bylo skutečně poškozeno.

Satelitní snímek bahrajnské základny z 1. března.
Případ ilustruje širší posun v informační válce. Umělá inteligence usnadňuje tvorbu přesvědčivých falešných vizuálních důkazů a ztěžuje rozlišování mezi autentickým záznamem a manipulací.
V reakci na nárůst falešných videí šéf produktů sítě X Nikita Bier oznámil, že platforma zpřísní pravidla pro obsah vytvořený pomocí umělé inteligence. Uživatelé, kteří materiál řádně neoznačí, přijdou na 90 dní o možnost zpeněžování obsahu. Těm, co by pravidla porušovali opakovaně, pak hrozí trvalé zablokování účtu.
Brady Africk, expert specializující se na OSINT data (zpravodajství z otevřených zdrojů) a pracovník think tanku American Enterprise Institute, pro Financial Times řekl, že lidé mají tendenci považovat satelitní snímky za věrohodné, a to kvůli technologické náročnosti jejich pořízení.
To je ale podle něj mylná představa. „Satelitní snímky lze upravit stejně jako jakýkoli jiný obraz. Umělá inteligence to výrazně usnadnila a představuje vážnou hrozbu pro ty, kdo hledají informace na internetu,“ míní.
Upozornil také, že kvalita těchto nástrojů se rychle zlepšuje, což v budoucích konfliktech ještě více ztíží odhalování podvrhů.
Henk van Ess, expert na online výzkum a autor newsletteru Digital Digging, míní, že problém spočívá v nedostatku biometrických vodítek.
U podvržených videí s něčí tváří, takzvaných deepfake, lze hledat nepřirozené detaily. U satelitních snímků však podobné orientační body chybí. Většina lidí navíc neví, jak má autentický snímek z konkrétního senzoru při určitém rozlišení vypadat.
Další široce sdílený snímek vytvořený pomocí AI údajně zachycuje škody na americké základně u iráckého Irbílu. Upravená verze ukazovala rozsáhlý požár a hustý kouř. BBC Verify obrázek zkontroloval pomocí detektoru vodoznaků SynthID od společnosti Google, který zjistil, že byl vygenerován nebo upraven pomocí AI tohoto technologického gigantu.
Objevil se také příspěvek, který měl zobrazovat tělo íránského nejvyššího vůdce Alího Chameneího vyprošťované z trosek. Autenticita zůstává neověřená a snímek nese znaky generování pomocí umělé inteligence, upozornily FT.
Blízkovýchodní konflikt není prvním případem, kdy válku doprovázejí dezinformace vytvořené umělou inteligencí. Falešné satelitní snímky se objevily i po loňském čtyřdenním střetu Indie a Pákistánu a podobná tvrzení zaznívají také během války na Ukrajině.














