Hlavní obsah

Na Ukrajině už válčí umělá inteligence. Co zatím víme o její síle

Tlačítkem Sledovat můžete odebírat oblíbené autory a témata. Na každý nový článek vám budeme posílat upozornění do emailu.

Foto: twitter.com/DefenceU

Umístit umělou inteligenci do dronu je ještě výrazně těžší úkol než ji v principu vyzkoušet.

Reklama

O dronové válce nad Ukrajinou novináři často psali s přehnaným očekáváním. Na druhou stranu obě strany konfliktu k živení této mánie hodně přispívají. A jde o věc tak důležitou a hrozivou, že pro média je těžké o ní nemluvit.

Článek

Čtete ukázku z newsletteru TechMIX, ve kterém Pavel Kasík a Matouš Lázňovský každou středu přinášejí hned několik komentářů a postřehů ze světa vědy a nových technologií. Pokud vás TechMIX zaujme, přihlaste se k jeho odběru!

Loni na podzim se objevily zprávy, že Rusko i Ukrajina nasadily malé drony, které využívají umělou inteligenci k identifikaci a zaměřování cílů. AI „na palubě“ měla znamenat, že nové verze ruského Lancetu a ukrajinského dronu Saker Scoutu nemají potřebovat pilota, který by je navedl až na cíl.

Kdyby se tato umělá inteligence osvědčila v boji, byla by to skutečně velká změna. Systémy elektronického boje určené k přerušení řídicího spojení operátora – nebo ještě hůře, k vystopování přenosu ke zdroji pro přesný úder – by byly proti samonaváděcím dronům do značné míry nepoužitelné.

Kvalifikované a stále nedostatkové piloty by mohly nahradit tisíce branců rychle vycvičených k zaměřování potenciálních cílů. A místo, aby každý dron vyžadoval operátora, který by na plný úvazek sledoval jeho videokameru, mohl by jediný člověk dohlížet na celý roj smrtících strojů.

Na ukrajinském bojišti jsou dnes malé smrtící drony s náloží klíčovou zbraní, především pro ukrajinskou armádu, která se potýká s nedostatkem jiné munice. Schopnost rychlého škálování jejich dalšího nasazení by z fronty udělala pro vojáky ještě nebezpečnější místo než teď, přinesla spoustu nového utrpení a mohla výrazně ovlivnit další průběh války.

Jenže nic z toho se – alespoň zatím – nestalo. Místo toho se zdá, že měsíce zkoušek dronů s AI na frontě neměly žádný měřitelný dopad.

Vypnutá AI

Podrobná zpráva Centra pro novou americkou bezpečnost zveřejněná počátkem února drony s umělou inteligencí odbyla několika řádky. „Lancet-3 byl inzerován jako zařízení s autonomní identifikací a zasahováním cílů, ačkoli tato tvrzení nejsou ověřena,“ napsala ředitelka obranného programu CNAS Stacie Pettyjohnová. „Obě strany tvrdí, že umělá inteligence slouží ke zlepšení schopnosti dronu zasáhnout cíl, ale pravděpodobně je její využití omezené.“

Nezávislá analýza pak 14. února naznačila, že Rusové přinejmenším dočasně naváděcí funkci svého Lancetu s umělou inteligencí vypnuli. Videa obrazovek operátorů Lancetu, zveřejňovaná od podzimu na internetu, často obsahovala rámeček kolem cíle, který se dokázal pohybovat podle toho, jak se cíl pohyboval, a oznámení s nápisem „cíl zaměřen“, napsal na stránkách Forbesu nezávislý novinář David Hambling.

Šlo o nějakou formu rozpoznávání objektů v obraze, z videí ovšem nelze přesně určit, jakou mělo funkci. Mohlo jít o zvýraznění cíle pro lidského operátora, nebo o aktivní navádění dronu k jeho zasažení, obojí je podle záběrů možné.

Žádné video z úderů Lancetů zveřejněné v první polovině února ovšem už tuto funkci neukazuje. Chybí jak nápis „cíl zaměřen“, tak i doprovodný ohraničující rámeček. „Zřejmým závěrem je, že software pro automatické rozpoznávání cílů byl uveden na trh předčasně a došlo ke stažení výrobku,“ odhaduje Hambling.

Pochopitelně jde o spekulaci, protože samotný ruský dron nikdo do ruky nedostal. Ale vypadá to jako logický závěr, shodují se i další odborníci, například Alexander Kott, bývalý hlavní vědecký pracovník Armádní výzkumné laboratoře, pro server Breaking Defense. I on ale upozorňuje, že bez přístupu ke stejným informacím, které mají ruští uživatelé, to nemůžeme vědět jistě.

Pochopitelně to neznamená, že rozpoznávání obrazu je pro vojenské použití nepoužitelná technologie – a také že by neměla žádný vojenský význam. Ale jde o to, že zatím zřejmě probíhá jen první testování a zkoušky. Po nich pak případně může přijít fáze rychlého škálování se všemi hrozivými důsledky pro vojáky na obou stranách (ale v první řadě především na té, která by v tomto případě technologický souboj prohrála).

V Moskvě i Kyjevě to vědí a jejich prohlášení tomu odpovídají. Zvláště ruský vojenský průmysl často vydává dosti nehorázná prohlášení o schopnostech svých zbraní, aby se pak v praxi zjistilo, že jejich schopnosti jsou výrazně omezenější.

Na ukrajinské straně to není úplně jiné: Systém Saker Scout by údajně měl mít v dohledné době software pro autonomní rozpoznávání cílů. A v podstatě by tedy měl být schopen po vypuštění sám letět, najít cíl a rozhodnout se ho zabít úplně sám bez zásahu člověka. Jenže v praxi nikdo nic takového na bojišti neviděl.

Těžké nahrazování

Je otázkou, zda je něco takového vůbec v dohledné době možné. Umístit umělou inteligenci do dronu je totiž ještě výrazně těžší úkol než ji v principu vyzkoušet.

Pilotův mozek je biologická neuronová síť, která se během milionů let evoluce zdokonalila v přijímání záplavy smyslových dat (vizuálních, zvukových, pachových, vibračních), neustále si vnitřní 3D model vnějšího světa formuluje a poté provádí složité akční plány téměř v reálném čase.

Pro nás je to úkol samozřejmý, ale pro umělou inteligenci obtížný. Jde o dobrý příklad Moravcova paradoxu, tedy známé věty, který říká, že úkoly, které lidé považují za samozřejmé, mohou být pro stroj výrazně náročnější.

Foto: Seznam Zprávy

Snímek z videa na webu Lost Armour, ve kterém je nad boxíkem s vyznačeným tankem v azbuce uveden správný typ: Leopard 2. (Zdroj: Ruské ministerstvo obrany)

Součástí „situačního povědomí“ v boji musí být nejen rozpoznávání objektů, ale i schopnost pozorovat objekt v pohybu a odvodit, jakou činnost právě provádí. Jde o složitý řetězec pozorování, přeměny smyslových vstupů na srozumitelné údaje o světě, porovnávání těchto nových údajů se starými vzorci v paměti a vyvozování závěrů o budoucnosti.

Bojiště je navíc plné falešných signálů. Ukrajinské klamné cíle – falešné raketomety HIMARS, protiletadlové radary a podobně – běžně oklamou ruské operátory dronů a dělostřelce, aby plýtvali municí na falešné cíle, zatímco dobře maskované skutečné cíle nechávají na pokoji. Algoritmy strojového vidění se obecně řečeno dají oklamat snáze než lidé.

V některých aspektech může mít stroj výhodu. Vojáci musí bojovat společně jako tým. Kolektivní „dril“, budování týmu a zažití postupů, které zaručí spolehlivou komunikaci i pod palbou, zaberou během výcviku více času než střelba z pušky či jiné individuální dovednosti. V tomto ohledu by umělá inteligence mohla mít nad lidmi určitou výhodu.

Proto se ostatně projekty umělé inteligence velkých armád (americký Joint All-Domain Command & Control i čínský „informatizovaný boj“) zaměřují do velké míry na koordinaci práce různých robotických systémů bez lidského prostředníka.

I ve vojenství se tak dá předpokládat, že minimálně v dohledné době bude nejvýhodnější člověka a stroj spojit do jednoho týmu, ve kterém jeden vyváží slabiny druhého.

V malém balení

Ale vraťme se k dronům. Pokud by se měly skutečně autonomně rozhodovat, musí obsahovat sofistikovaný software, který zase musí běžet na vysokorychlostních čipech, které zase potřebují napájení, chlazení, ochranu před vibracemi a elektronickým rušením a další.

To všechno lze těžko vtěsnat do malých dronů, které obě strany na Ukrajině hojně používají. Dokonce i do modernizovaného dronu Lancet-3 se vejdou jen tři kilogramy nálože, takže pro „elektronický mozek“ a jeho příslušenství nezbývá mnoho místa. Není náhodou, že „umělé inteligence“ jako ChatGPT běží na serverových farmách.

I v případě úspěchu by šlo o komplikovaný projekt, který by se mohl ukázat jako příliš velké sousto jak pro Rusko, tak zejména pro Ukrajinu, kde se řada dronů dnes kompletuje ručně z dílů objednaných poštou.

Drony jsou oblíbené, protože jsou levné: V rukou zkušeného operátora jde o extrémně přesnou zbraň za řádově jednotky až desítky tisíc korun. Nejméně o dva řády levnější než třeba protitankové řízené střely.

Ani jedna strana v současnosti také neinvestuje příliš prostředků do zvýšené obrany proti rušení malých dronů. V požadovaných počtech by to bylo prostě příliš drahé. Raději jich nakoupí či vyrobí hodně a počítají s tím, že k cíli doletí jen některé.

Takže i když Rusko nebo Ukrajina zvládly vyrobit palubní AI, odborníci se neshodnou, zda by se vůbec při nepochybně vysoké ceně mohla v tomto konfliktu prosadit.

Lepší něco než nic

To však neznamená, že se obě strany nebudou snažit. Potenciální výhoda je příliš veliká. Ruské Lancety například po malé přestávce a dost možná „stažení výrobcem“ zřejmě získaly novou funkci.

Na webu LostArmour, který mimo jiného shromažďuje videa z nasazení Lancetů z různých kanálů na telegramu, se na konci února objevila řada videí, které naznačují update softwaru tohoto ruského kamikaze dronu.

Místo textu „cíl zaměřen“ se na displeji objevuje název vozidla. Pokud nejde o podvod, naznačuje to, že jde o nějakou formu automatické identifikace objektu.

Vše znovu podrobně popisuje na Forbesu David Hamling, který byl i autorem výše zmíněného článku o „vypnutí“ pokročilých funkcí Lancetu v předchozích týdnech.

„Automatická klasifikace objektů“ ovšem není zdaleka totéž jako umělá inteligence na palubě. Rozhodně jde ovšem o nutný předpoklad pro nějakou „válečnickou inteligenci“. Vývoj tímto směrem tedy rozhodně pokračuje.

Přitom platí, že výsledek nemusí být dokonalý. Umělá inteligence dělá chyby a halucinuje, ale lidé dělají chyby také – a leckdy stojí životy, a to jak v boji, tak i mimo něj. AI tedy nemusí být dokonalá, aby byla lepší než lidé.

Nejen armádě by například pomohlo, pokud by dokázala AI zvládnout některé úkoly průměrně. Z definice totiž platí, že v jakékoli skupině lidí, kteří dělají jakýkoli úkol, je padesát procent lidí podprůměrných. Pokud se zbavíte podprůměru, nebo třeba jen těm nejhorším chybám, které dělá deset procent nejhorších, tak už to samo o sobě může být přínosem. V masových konfliktech, jehož svědky jsme dnes v Evropě, může mít i mírné zlepšení velký vliv.

Obě strany konfliktu přitom navíc mají mnohem větší motivaci přijít jen s částečným řešením: „Požadujeme naprostou spolehlivost, požadujeme naprostou přesnost, [protože] nejsme v existenčním ohrožení jako Ukrajina,“ připomněl pro Breaking Defense již zmíněný Alexandr Kott: „Ukrajinci ale nepožadují dokonalost. To si nemohou dovolit.“

V plné verzi newsletteru TechMIX toho najdete ještě mnohem víc. Přihlaste se k odběru a budete ho dostávat každou středu přímo do své e-mailové schránky.

Reklama

Doporučované