Hlavní obsah

Americká armáda má pravidla pro „robotí zabijáky“. Moc toho ale neříkají

Foto: Profimedia.cz

Izraelský dron shazuje granáty se slzným plynem na protestující Palestince (ilustrační fotografie).

26. 2. 6:30

Spojené státy tento týden zveřejnily etická pravidla pro vojenské využivání umělé inteligence a autonomních zbraní. Mají zmírnit napětí a obavy z „robotů zabijáků“, před kterými v posledních letech opakovaně varovali přední vědci v oboru. Regule armády s největším rozpočtem na světě ale obsahují nejméně jedno problematické slovíčko.

Článek

Technologie už na to je, žádný stát na světě se ji ale zatím neodvážil použít. Nebo se o tom alespoň neví. Řeč je o zbraních založených na umělé inteligenci, které fungují samostatně, aniž by je člověk přímo ovládal. Debaty o tom, jak vývoj a používání takových zbraní regulovat, se řeší na diplomatické i veřejné úrovni už roky. Intenzivně se problematika probírá od roku 2015, kdy přes tisíc odborníků poslalo otevřený dopis, ve kterém požadují zákaz autonomních zbraní.

Text říká, že „technologie dosáhly bodu, kdy je nasazení autonomních zbraní prakticky dosažitelné během příštích let, a nikoliv dekád. A sázky jsou vysoké – autonomní zbraně můžeme považovat za třetí revoluci válčení po vynálezu střelného prachu a nukleárních zbraních“. Zakladatel Tesly a SpaceX Elon Musk i známý fyzik Stephen Hawking, kteří dopis rovněž podepsali, dokonce přímo řekli, že umělá inteligence je „největší hrozbou“ a může způsobit „konec lidstva“.

Po pěti letech odmítání zákazu i restrikcí Spojené státy přišly s etickým kodexem, kterým se zavazují při vývoji i použití autonomních zbraní řídit.

Užívání umělé inteligence v americké armádě musí splňovat pět hlavních zásad:

1. Zodpovědnost – Personál ministerstva obrany zajistí „odpovídající úroveň úsudku a péče“ a bude zodpovědný za veškerý vývoj, rozmístění a použití umělé inteligence.

2. Spravedlnost – Armáda vyvine maximální snahu, aby minimalizovala „nezamýšlenou“ činnost umělé inteligence.

3. „Sledovatelnost“ a dohled – Pentagon se zavazuje, že při použití umělé inteligence o ní budou daní pracovníci mít „odpovídající“ přehled. To zahrnuje transparentnost a kontrolovatelnost jejího fungování.

4. Spolehlivost – Schopnosti umělé inteligence budou mít explicitně a dobře definované možnosti použití. Bezpečnost bude podléhat testování, jehož výsledky se budou neustále ověřovat během celého „životního cyklu“ daných zařízení.

5. Ovladatelnost – Ministerstvo bude mít vždy možnost v případě detekce nezamýšlených následků umělou inteligenci deaktivovat.

Tato „doporučení“ jsou podle Pentagonu výsledkem 15měsíčního jednání s předními odborníky na umělou inteligenci z komerčního, vládního i veřejného sektoru. Ministerstvo obrany v oznámení zdůrazňuje roli zpětné vazby amerického národa, který měl podle něj mnoho možností do procesu zasáhnout. Ne všichni ale věří, že vytyčená pravidla budou fungovat tak, jak se to armáda snaží prezentovat.

Co to je „odpovídající“ úroveň?

Za projekt, který má vývoj a používání autonomních zbraní jen „eticky očistit“, označila etický kodex podle agentury AP Lucy Suchmanová, profesorka z univerzity v Lancasteru, která se problematikou zabývá. Problematické je podle ní slovo „odpovídající“, které poskytuje prostor pro „mnoho interpretací“. Slovo je obsažené v prvním a třetím bodě kodexu.

Kodex také explicitně nevylučuje možnost, že by umělá inteligence mohla sama rozhodovat, což je jedna z věcí, která je považována za nejnebezpečnější, tedy že se umělé inteligenci povolí, aby rozhodovala o životě a smrti lidí.

Ostatní velmoci se většinou omezovat nechtějí

V roce 2018 se do kampaně proti „robotím zabijákům“ zapojilo celkem 28 zemí. Nejsou mezi nimi žádné vojenské velmoci kromě Číny. Ta ovšem opatření podpořila s výjimkou – je proti používání autonomních zbraní, ale ne proti jejich vývoji. Čína ostatně podle časopisu Time už v roce 2016 oznámila testy autonomních zbraní ve vzduchu, na moři i na souši.

V OSN zákaz neprošel přes Spojené státy a Rusko. Rezoluci volající po mezinárodním zákazu ale v září roku 2019 schválil Evropský parlament. Mezi státy, které to odmítají, je ale například i Velká Británie, Austrálie nebo Izrael.

Jaké autonomní zbraně zatím známe?

Věc, jako je vývoj autonomních zbraní, je pochopitelně tajná a armády jednotlivých států toho zatím moc neukázaly. Jako ilustrační záběry si pro články a reportáže o autonomních zbraních média často vybírají záběry ze slavné série filmu Terminátor, kde po válkou zdecimované zemi pochodují humanoidní roboti se zbraní v robotických pažích. Z toho, co už bylo o autonomních zbraních prozrazeno, se ale dá očekávat, že zatím budou mít spíše podobu dronů, menších letounů nebo obrněných vozidel.

Americký dronový roj

Spojené státy například už před třemi lety zveřejnily video z testu malých autonomních dronů. 103 strojů se proletělo nad Kalifornií, aniž by je někdo ovládal. Jejich trasa letu se řídila čistě naprogramovaným algoritmem. „Drony jsou kolektivním organismem, jenž má jeden společný mozek, který rozhoduje o tom, jak se každý jeden dron z roje bude rozhodovat a adaptovat v prostředí,“ popsalo úspěšný pokus ministerstvo obrany. Drony nedisponovaly žádným zbrojním arzenálem. Z videa přesto mrazí, doporučujeme zapnout zvuk:

Ruský robotický tank

Ruská firma Kalašnikov už v roce 2017 oznámila, že v blízké budoucnosti odhalí autonomní bojový stroj, který dokáže sám dělat rozhodnutí a učit se. Vypadat by měl zřejmě podobně jako bezposádkový bojový vůz Uran-9, který se však dá řídit jen prostřednictvím lidských operátorů.

Poloautonomní letoun X-47B

Takto vypadá americký dosud oficiálně nepojmenovaný letoun, který dokáže zčásti fungovat autonomně.

Foto: Profimedia.cz

Letoun X-47B.

Americké námořnictvo nicméně uvedlo, že stroj při autonomních operacích není spolehlivý.

Sdílejte článek

Reklama

Doporučené