Hlavní obsah

Zabíjeli létající roboti bez lidského řízení? Nevíme. Důležité je, že mohli

Foto: Seznam Zprávy

Bezpilotní dron.

Reklama

Mají mít autonomní drony povolení zabíjet dle svého vlastního „úsudku“? Odborníci před takovým krokem varují. Možná se ale už tak děje, aniž si toho většina lidí vůbec všimla.

Článek

Na dálkově vedené konflikty si lidé v posledních letech už zvykli. Z velké dálky pilotované americké drony jsou už natolik běžnou součástí vojenského arzenálu, že se práce „bezpilotního operátora vojenského dronu“ bere jako celkem běžná pozice. Zvláštní je na ní jen to, že musíte chodit spát podle časového pásma, ve kterém se vámi ovládaný letoun pohybuje.

Foto: Profimedia.cz

Američtí operátoři v New Jersey z divize Skydevils ovládají na dálku dron RQ-7B Shadow.

Dálkový pilot vidí na obrazovce mapu, záběry z dronu a další aktuální informace. Na základě toho může například určit, kam shodit naváděnou munici. Pokud je to možné, své rozhodnutí konzultuje s nadřízeným.

Co kdyby ale o zabíjení rozhodoval sám stroj? Organizace spojených národů (OSN) vydala v březnu letošního roku zprávu, podle které mohly být v Libyi nasazeny drony, jež mohou zaútočit bez příkazu operátora. Jinak řečeno – zbraně, které se zásluhou senzorů a svého programování samy rozhodnou, koho zabijí. Byť jsou zprávy z bojiště nespolehlivé, autonomní roboti-zabijáci evidentně již nejsou science fiction.

Pronásledování konvojů

V dlouholetém libyjském konfliktu byly události z března 2020 jen podkapitolkou. Síly podporující OSN uznanou libyjskou vládu Národní shody tehdy zahájily útok na jednotky „polního maršála“ Chalífy Haftara. V oblasti měly vojenskou a technologickou převahu, která upřela Haftarovým jednotkám vzdušnou podporu. Drony maršálových jednotek pak vyřadilo z boje elektronické rušení.

S pomocí dělostřelectva a raketometů letecké i námořní podpory pak provládní jednotky začaly systematicky „opotřebovávat“ síly protivníka. Jinak řečeno, na dálku ničily jeho techniku a zabíjely jeho vojáky, aniž by mohl účinně odpovídat. Když se Haftarovi vojáci dali na ústup, došlo k události, kterou zpráva OSN popisuje takto:

„Logistické konvoje a ustupující HAF (tak se označují Haftarovy jednotky, pozn.red.) byly následně pronásledovány a na dálku ničeny bezpilotními bojovými letouny nebo smrtícími autonomními zbraňovými systémy, jako je STM Kargu-2, a jinou bezpilotní vyčkávající municí. Smrtící autonomní zbraňové systémy byly naprogramovány tak, aby útočily na cíle, aniž by vyžadovaly datové spojení mezi operátorem a municí…“

Smrtící autonomní zbraňové systémy byly naprogramovány tak, aby útočily na cíle, aniž by vyžadovaly datové spojení mezi operátorem a municí…
Zpráva OSN o situaci v Libyi

Zpráva není zcela jednoznačná. Uvádí, že došlo k ničení konvojů „bezpilotními bojovými letouny nebo smrtícími autonomními zbraňovými systémy“. Netvrdí tedy jednoznačně, že autonomní roboti bez lidského dohledu zabíjeli. Říká, že na lidi a vozidla útočila kombinace dronů, kvadrokoptér a „vyčkávající munice“ a že kvadrokoptéry byly naprogramovány tak, aby pracovaly offline. Zda útoky probíhaly bez spojení s operátorem, není jasné.

Foto: Zpráva OSN

Zbytky pravděpodobně sebevražedného tureckého dronu nalezené v Libyi.

Krátká zmínka neprošla bez povšimnutí. Zřejmě prvním větším médiem, které ji zaznamenalo, byl časopis New Scientist, jenž byl brzy následován dalšími. Upozorňuje, že vojenské bezpilotní letouny mohly jednat autonomně a že mohly zabíjet, v dalších zprávách se nuance ztratila.

„Pokud je nám známo, tato oficiální zpráva OSN představuje první zdokumentovaný případ použití smrtícího autonomního zbraňového systému,“ napsala například skupina autorů, kteří na problém autonomních zbraní upozorňují již delší dobu, v časopise IEEE Spectrum. „Překročili jsme červenou čáru, jež vyznačuje okamžik, kdy zbraně začnou samy cílit na lidi,“ dodávají.

Na první pohled neškodný

Evidentně to je poněkud kategorické tvrzení, protože jednoduše nevíme, jaká je pravda. Kargu-2 sám o sobě není žádnou na pohled přelomovou zbraní. Kvadrokoptéra je výrobek turecké firmy STM, váží pouhých sedm kilogramů, vyrábí se ve větších sériích, je schopna letu v roji a je schopna letu, i když je GPS a rádiové spojení přerušeno. Prostě odolný vojenský dron i do nepříznivých podmínek.

Foto: Armyinform.com.ua

STM Kargu, „kamikaze dron“, vyráběný v Turecku.

Skutečná „revoluce“ se však skrývá v softwaru. Podle údajů výrobce kvadrokoptéry, společnosti STM, stroj využívá „algoritmy strojového učení zabudované v platformě“ k „účinné reakci na stacionární nebo mobilní cíle (tj. vozidlo, osobu atd.)“. Na ukázkových videích je vidět, co přesně to znamená. Například na následujícím klipu se kvadrokoptéra zaměřuje na cíl uprostřed skupiny stojících „osob“.

Změna tedy není v samotném dronu. Přináší ji skutečnost, že počítače se velmi zjednodušeně řečeno konečně naučily dívat vlastníma „očima“ – zvládly rozpoznávání obrazu.

Dlouho šlo o neřešitelný problém. Až do konce 20. století se stroje nedokázaly naučit, jak poznat auto od kočky či žirafu od Eiffelovky. Změna přišla na konci prvního desetiletí 21. století, kdy „dozrály“ nové metody programování, které zvládnou zjednodušeně řečeno napodobit některé rysy lidské intuice, tzv. „hluboké učení“, a hardware je dostatečně výkonný.

Dnes už na tom, že vás pozná telefon, nevidíme nic tak zvláštního, ale rychlé a přesné rozpoznávání obrazu počítačem – či chcete-li „umělou inteligencí“ – otevřelo nové možnosti. Jak naznačují nepotvrzené události v Libyi, ve vojenství mohou vznikat nové kategorie zbraní, případně se zcela zásadně rozrůstat řady existujících, ale zatím spíše okrajových zbraňových prostředků.

Co je tu nového?

Někteří vojenští odborníci totiž na sociálních sítích či v médiích (např. The Verge) vyjádřili názor, že útok autonomních dronů by sám o sobě byl něco zcela nového. Jak připomínají, autonomní zbraně v mnoha ohledech již existují. Jako příklad byl několikrát zmíněn izraelský bezpilotní letoun Harpy – jenž ale není jediný svého druhu na světě, dodejme.

Jde o zbraň navrženou speciálně pro údery na jeden typ cílů – radarové stanice. Odpaluje se ze země nad cílovou oblast, kde může zůstat ve vzduchu zhruba devět hodin. Zachycuje radarové emise systémů protivzdušné obrany. Pokud se jí podaří na nějaký zaměřit, sama se k němu vydá a pokusí se ho zničit.

Dron spadá do kategorie, která se označuje jako „vyčkávající munice“, protože je schopen čekat v daném prostoru na svou příležitost. V tomto případě jde o aspekt klíčový, protože obsluha radary často vypíná právě proto, aby protivník neodhalil jejich pozici.

Nabízí se celkem logická otázka: co je tedy na „dronech-zabijácích“ tak nového a čím se vlastně liší od předchozích generací „vyčkávající munice“? Na tuto otázku asi neexistuje jasná odpověď, v některých případech se obě kategorie budou překrývat. Evidentně také panuje zmatek v termínech označujících tuto kategorii zbraní. Různí experti používají pro stejnou zbraň jiný a shoda se z tohoto prozaického důvodu někdy hledá těžko.

Vzhledem k nejasnostem by se za „autonomní zbraně“ dalo označit leccos. Extrémním příkladem by mohly být miny nebo například automatické systémy, které mohou vypustit jaderné zbraně i v případě, že není nikdo, kdo by je mohl odpálit ručně. V americké vojenské terminologii se označují jako „fail-deadly“; což je uměle vytvořený protiklad ke slovu „fail-safe“, tedy „pojistka“.

Systémy s umělou inteligencí by mohly dítě chybně klasifikovat jako vojáka.
Zak Kallenborn, Schar School of Policy and Government

Přesto není důvod pochybovat, že jsme skutečně v nové situaci. Masové nasazení dronů, které jsou schopné rozpoznat lidi v cílovém prostoru – jenž nemusí být nutně bojištěm –, vytváří nové prostředí. Pro The Verge to shrnul Zak Kallenborn ze Schar School of Policy and Government: „Vyčkávající munice obvykle reaguje na radarové emise a dítě, které jde po ulici, nebude mít v batohu výkonný radar. Ale systémy s umělou inteligencí by mohly dítě chybně klasifikovat jako vojáka. (…) Přitom vůbec nevím, jak často k takovým chybám při reálném nasazení dochází.“

Nepřehledná válka

Nejasnosti kolem loňských událostí v Libyi dokazují, že zásadním problémem, abychom si na tuto a další případné otázky mohli odpovědět, bude právě nedostatek informací. Nikdo nevydal a ani nevydá tiskové prohlášení „Naše první nasazení autonomních robotů-zabijáků bylo úspěšné“. Není to v zájmu prakticky žádné válčící strany. Logickou reakcí je naopak nasadit vlastní podobnou techniku, vlastní autonomní drony a proti nim určené prostředky.

Ostatně přesně to se stalo v Libyi. Technologická převaha, zřejmá během březnová ofenzivy, nakonec vedla k tomu, že Haftarovy síly byly v průběhu roku 2020 v západní Libyi poraženy. Porážka ale nebyla drtivá, a to do značné míry proto, že v tu chvíli slabší strana, podporovaná Ruskem, ale i Spojenými arabskými emiráty, získala vybavení, které pomohlo síly do jisté míry vyrovnat.

Nedávejte policejním robotům zbraně!

Před využitím autonomních zabijáckých robotů varuje i americká organizace Electronic Frontier Foundation, která se zabývá ochranou lidských práv v kontextu technologií.

Ne, policie nesmí vyzbrojovat pozemní roboty ani vzdušné drony!
Matthew Guariglia, EFF

„Už to není sci-fi ani nepřiměřená paranoia. Je třeba to říci nyní: Ne, policie nesmí vyzbrojovat pozemní roboty ani vzdušné drony,“ varuje Matthew Guariglia. „To platí bez ohledu na to, zda jsou tato mobilní zařízení dálkově ovládána člověkem, nebo autonomně řízena umělou inteligencí, a bez ohledu na to, zda jsou zbraně maximálně smrtící (jako kulky), nebo méně smrtící (jako slzný plyn).“

Už nyní podle EFF používá americká policie roboty dost sporným způsobem, například k měření teploty bezdomovců.

Drony určené i proti jednotlivým pěšákům se používaly i v dalším konfliktu, kde měly zájmy stejní hráči jako v Libyi, tedy Rusko a Turecko. Během loňské války v Náhorním Karabachu měla podobně jako během zmíněné události v Libyi jedna strana – a to Ázerbájdžán – výraznou technickou převahu právě v této oblasti. A dosáhla jasného vítězství.

Není v zájmu USA, abychom usilovali o globální zákaz zbraní využívajících umělou inteligenci.
závěr Národní bezpečnostní komise USA

Využitím umělé inteligence při zabíjení se zabývala i americká speciální komise Národní bezpečnostní agentury. Její závěr z března 2021? „V současné době není ani proveditelné, ani v zájmu Spojených států, abychom usilovali o globální zákaz autonomních zbraňových systémů využívajících prvků umělé inteligence.“

Ani z Karabachu nemáme přesné informace o tom, jak se drony používaly a jak byly naprogramovány. Opravdu tedy nedokážeme přesně říci, zda jsou zprávy z Libye přehnané, či nikoli.

I kdyby ale přehnané byly, k sestrojení „robotů-zabijáků“ nemá dnešní technika rozhodně daleko. Bylo by asi dobré vědět, jaká je skutečně situace, než se objeví i jinde než na bojištích, na kterých nám evidentně nezáleží.

Reklama

Doporučované