Hlavní obsah

Sítě zaplavily falešné satelitní snímky z Blízkého východu, úpravu usnadnila AI

Foto: Planet Labs. , Reuters

Satelitní snímek bahrajnské základny z 1. března.

Současný konflikt není prvním případem, kdy válku doprovázejí dezinformace vytvořené AI. Falešné satelitní snímky se objevily rovněž po loňském střetu Indie a Pákistánu. Podobná tvrzení pak zaznívají i během války na Ukrajině.

Článek

Válka proti Íránu, kterou Izrael a Spojené státy odstartovaly v sobotu, znovu upozornila na rizika umělé inteligence coby nástroje dezinformací v konfliktech.

Napsal to deník Financial Times (FT) poté, co se sociálními sítěmi o víkendu masivně šířily satelitní snímky, které zřejmě vznikly či byly upraveny právě s pomocí AI.

Například oficiální účet íránského deníku Tehran Times na síti X sdílel fotografie, které měly zachycovat americký radarový systém v Kataru před a po útoku íránských dronů. Analýza FT ovšem ukázala, že jde o snímky oblasti v Bahrajnu, které byly upraveny.

Známky manipulace potvrdil i specializovaný tým novinářů BBC Verify, který se zaměřuje na ověřování faktů.

Vozidla jsou na obou fotografiích, jež měly být pořízeny s více než ročním odstupem, na stejném místě, stíny dopadají pod totožným úhlem a části konstrukce byly pozměněny.

Historické satelitní snímky přitom na místě dlouhodobě nezaznamenaly žádné stavební změny, upozorňují obě zmíněná média.

Ověřená videa, která redakce analyzovaly, zachycují několik úderů v blízkosti radarového systému v Bahrajnu a satelitní snímky společnosti Planet Labs z 1. března pak potvrzují, že místo bylo skutečně poškozeno.

Foto: Planet Labs. , Reuters

Satelitní snímek bahrajnské základny z 1. března.

Případ ilustruje širší posun v informační válce. Umělá inteligence usnadňuje tvorbu přesvědčivých falešných vizuálních důkazů a ztěžuje rozlišování mezi autentickým záznamem a manipulací.

V reakci na nárůst falešných videí šéf produktů sítě X Nikita Bier oznámil, že platforma zpřísní pravidla pro obsah vytvořený pomocí umělé inteligence. Uživatelé, kteří materiál řádně neoznačí, přijdou na 90 dní o možnost zpeněžování obsahu. Těm, co by pravidla porušovali opakovaně, pak hrozí trvalé zablokování účtu.

Brady Africk, expert specializující se na OSINT data (zpravodajství z otevřených zdrojů) a pracovník think tanku American Enterprise Institute, pro Financial Times řekl, že lidé mají tendenci považovat satelitní snímky za věrohodné, a to kvůli technologické náročnosti jejich pořízení.

To je ale podle něj mylná představa. „Satelitní snímky lze upravit stejně jako jakýkoli jiný obraz. Umělá inteligence to výrazně usnadnila a představuje vážnou hrozbu pro ty, kdo hledají informace na internetu,“ míní.

Upozornil také, že kvalita těchto nástrojů se rychle zlepšuje, což v budoucích konfliktech ještě více ztíží odhalování podvrhů.

Henk van Ess, expert na online výzkum a autor newsletteru Digital Digging, míní, že problém spočívá v nedostatku biometrických vodítek.

U podvržených videí s něčí tváří, takzvaných deepfake, lze hledat nepřirozené detaily. U satelitních snímků však podobné orientační body chybí. Většina lidí navíc neví, jak má autentický snímek z konkrétního senzoru při určitém rozlišení vypadat.

Další široce sdílený snímek vytvořený pomocí AI údajně zachycuje škody na americké základně u iráckého Irbílu. Upravená verze ukazovala rozsáhlý požár a hustý kouř. BBC Verify obrázek zkontroloval pomocí detektoru vodoznaků SynthID od společnosti Google, který zjistil, že byl vygenerován nebo upraven pomocí AI tohoto technologického gigantu.

Objevil se také příspěvek, který měl zobrazovat tělo íránského nejvyššího vůdce Alího Chameneího vyprošťované z trosek. Autenticita zůstává neověřená a snímek nese znaky generování pomocí umělé inteligence, upozornily FT.

Blízkovýchodní konflikt není prvním případem, kdy válku doprovázejí dezinformace vytvořené umělou inteligencí. Falešné satelitní snímky se objevily i po loňském čtyřdenním střetu Indie a Pákistánu a podobná tvrzení zaznívají také během války na Ukrajině.

Doporučované