Hlavní obsah

EU chystá ambiciózní klec pro umělou inteligenci

Foto: koláž: Pavel Kasík, Seznam Zprávy, AI vizualizace

Evropská unie staví „klec“ pro umělou inteligenci (AI vizualizace).

Co může a co nemůže vaše firma svěřit umělé inteligenci? Na jakých datech se smí a nesmí trénovat? Evropský návrh regulace je oceňován za rychlou reakci. Někteří kritici se ale bojí, že je svazující a omezí evropské firmy.

Článek

O umělé inteligenci se sice mluví přes 70 let, ale posledních sedm měsíců je tato debata mnohem intenzivnější. S nástupem služeb jako ChatGPT, Bard nebo Midjourney se do popředí dostávají společenské, zákonné a etické otázky týkající se schopností neuronových sítí. A to jak těch u současných, tak především u těch budoucích systémů.

Zákony jsou obvykle několik let pozadu za technologickou realitou. Evropský parlament ale na tuto vlnu generativní umělé inteligence naskočil poměrně rychle. A to především díky tomu, že na zákonech (tzv. EU AI Act, Aktu EU o umělé inteligenci) Evropský parlament pracoval už od roku 2018.

Nově schválený návrh ještě musí projít tzv. „tripartitou“, jde o zkombinování znění z Parlamentu, Komise a Rady EU. Zatím tedy není jasné, jak bude konečný zákon vypadat. Odborníci se ale shodují, že jde ve světovém kontextu o významný regulační pokus, který se může stát vzorem pro další země.

Hodnocení na základě rizik

Regulace vznikala v době před současnou vlnou „generativní umělé inteligence“, snaží se ale od začátku volit technologicky neutrální definice. Namísto obecných povinností a definic volí přístup založený na riziku.

„Zákon má chránit především občany, a proto klasifikuje některé systémy jako vysokorizikové,“ uvedla pro SZ Byznys europoslankyně Markéta Gregorová (Piráti). „Jinak ponechává AI modely víceméně tržnímu řešení.“

Významný přínos regulace vidí Gregorová tam, kde by nasazení umělé inteligence mohlo vést k systematické diskriminaci, třeba v důsledku zkresleného vzorku dat, na kterých byl model trénovaný: „Největší výhody v tomto ohledu tedy přináší AI Akt především v oblasti povinností používání, tedy predikovatelnost, lidský dohled, doklad o nediskriminačním trénování modelů a původu datových setů či interpretovatelnost. To zajistí skutečně jasnou kontrolu a odpovědnost za výsledek použití.“

Míra rizikaPříkladyRegulace
Nepřijatelné rizikopodprahové ovlivňování, zneužívání zranitelných skupin obyvatel, vytváření „sociálního skóre“, identifikace dle biometrických údajů v reálném čase (kromě několika výjimek)tyto praktiky jsou zcela zakázány
Vysoké rizikobiometrická identifikace, kritická infrastruktura, vzdělávání a trénování lidí, zaměstnávání, přístup k veřejně dostupným službám, vyšetřování a policie, migrace, azylová řízení, celní správa, politické, justiční a další demokratické procesyregistrace, předběžné posouzení, regulace, sledování
Omezené rizikosystémy interagující s uživateli (chatboti), rozpoznávání emocí, biometrická kategorizace, nástroje pro manipulaci obrazu a videavyžadována transparentnost
Nízké rizikovše ostatnídoporučený vznik dobrovolného etického kodexu

U výčtu „zapovězených“ nasazení umělé inteligence se většina kritiků shoduje: jde o pochopitelnou a nutnou regulaci. Nikdo nechce, aby generativní umělá inteligence manipulovala zranitelnými skupinami obyvatel nebo porušovala základní lidská práva.

„Problém ale nastává u kategorie vysoké riziko, ta totiž pokrývá prakticky všechny zajímavé ekonomické aktivity,“ domnívá se Jan Klesla, ředitel Institutu pro digitální ekonomiku a spoluautor Národní strategie umělé inteligence. Podle něj bude regulace znamenat velkou nálož povinností.

Firmy by například musely předem doložit, co a jak plánují pomocí systémů strojového učení dělat a jak budou analyzovat, že nedochází k možnému zneužití či porušení občanských a lidských práv.

Nebezpečí hlavně pro začínající firmy

„Nevýhodou je prostě to, že když vývojář v USA nebo Británii dostane skvělý nápad, zavolá investorovi. Když ho dostane v Evropě, zavolá právníkovi,“ shrnuje svou hlavní námitku Klesla. „Nejhorší je změna přemýšlení, mentální brzda, kterou zákonodárce vytváří, protože nová evropská regulace AI Act obsahuje spoustu nejasných pasáží a gumových paragrafů. Vlastně ani nemá jasnou definici AI, takže pořádně neví, co reguluje.“

To podle něj povede k právní nejistotě. Nejvíc toto opatření podle Klesly dopadne na menší státy a jejich malé firmy. „Tedy tam, kde by měla EU naopak nové firmy nejvíce podporovat.“

Právní nejistota je nejhorší možný výsledek.
Jan Klesla, ředitel Institutu pro digitální ekonomiku a spoluautor Národní strategie umělé inteligence

Podobnou obavu má i Jan Kleindienst, spoluzakladatel firmy MAMA AI: „Jako hlavní problém regulace AI vnímáme možné dopady na konkurenceschopnost a schopnost inovovat u regulovaných společností. Už dnes jsou špičkové AI společnosti a rychlý inovativní pokrok spíše v USA a Číně než v Evropě. Necitlivá regulace může tuto regionální nerovnováhu ještě prohloubit. A to jak u firem, které AI řešení vytvářejí a poskytují, tak i u všech firem, které AI řešení využívají.“

Kleindienst připomíná, že už nyní Evropa zdaleka nepatří ke špičce v oblasti vývoje umělé inteligence. USA vedou co do talentu, výzkumu, vývoje a dostupnosti potřebného hardwarového vybavení, zatímco Čína boduje díky rychlé adopci nových technologií i dostupnosti velkého množství dat pro trénování.

Kdo bude na regulaci dohlížet?

„Prioritou Parlamentu je zajistit, aby systémy umělé inteligence používané v EU byly bezpečné, transparentní, sledovatelné, nediskriminační a šetrné k životnímu prostředí,“ vyjmenovává tisková zpráva Evropského parlamentu. „Na systémy umělé inteligence by měli dohlížet lidé, nikoliv automatizace, aby se předešlo škodlivým následkům.“ To by konkrétně znamenalo zavedení nových úřadů na úrovni jednotlivých států pro dohled nad dodržováním těchto podmínek a povinností.

„Každý stát bude muset fakticky postavit nový úřad, protože ze stávajících institucí to nikdo neumí,“ vyjmenovává problémy takového řešení Klesla. „Dále bude potřeba sehnat do nového úřadu lidi, a ti schopní zřejmě nebudou chtít jít pracovat za tabulkové platy…“

Klesla se také obává toho, že pro malé a začínající technologické firmy bude zkrátka obtížné zajistit, že splňují veškeré zákonné podmínky. „Právní nejistota je nejhorší možný výsledek. A to nás ještě čeká přetahování mezi Parlamentem a členskými státy v Radě, kdy vznikají ty největší překrucování a veletoče předpisů EU.“

Příkladem může být nedávné prohlášení francouzského ministra pro digitalizaci, Jeana-Noëla Barrota. Ten upozornil na to, že společnost Google se při uvedení svého chatbota Barda rozhodla prozatím vynechat evropské země. To podle Barrota naznačuje, že Evropa je možná už nyní dost přísná: „Cílem přece je, aby se v Evropě mohly rozvíjet podobné chatovací nástroje. Musíme brát tyto ukazatele v úvahu a vyvarovat se toho, abychom Evropu náhodou nevyřadili z technologických dějin.“

Bude Evropa lídrem, nebo brzdou?

„Jedná se o první takovou regulaci na světě a celý svět se dívá,“ domnívá se Gregorová. „Je zde tedy vysoká pravděpodobnost, že další – americká, britská apod. – budou následovat. Jelikož jsme první, bezpochyby budeme také první vychytávat chyby a nedokonalosti, i to se ale stane inspirací ostatním.“

Také Kleindienst se domnívá, že se evropská regulace stane mezinárodním vzorem: „EU je tradičně světový lídr v zavádění regulací. GDPR se více a více stává globálním standardem. To je zajisté chvályhodné a do jisté míry můžeme být hrdí na to, že těmito koncepty dláždíme cestu pro ostatní následovníky.“ Lze podle něj očekávat, že se celý svět bude v evropské AI regulaci inspirovat.

Klesla si to nemyslí: „Sen o tom, že z evropské regulace AI bude světový standard, jako tomu bylo u GDPR, se pomalu rozplývá. USA sice chtějí regulovat svůj Divoký západ, ale udělají to obezřetně. A Čína žádnou regulaci záměrně nechce. Udělá všechno pro to, aby domácí vycvičenou konkurenci dostala na bohatý evropský trh a ten zválcovala.“

Europoslankyně Gregorová také upozornila, že současná podoba evropské regulace by mohla omezit vývoj bezplatně dostupných modelů: „Co vidím jako problematickou část zákona je jeho přístup k open-source modelům. Ty by ideálně měly mít výjimku oproti komerčním modelům. Teď hrozí, že se zcela zadupe do země sdílení opensourcových řešení.“

Pokud by se nakonec výjimka do finálního návrhu nedostala, vnímala by to Gregorová jako možný důvod k hlasování proti.

Umělá inteligence na vzestupu

Strojové učení není žádnou novinkou. Teprve v posledních letech se ale ke slovu dostaly tzv. velké jazykové modely. Nejznámější ukázkou je populární ChatGPT, jehož fungování podrobně popisujeme v tomto článku:

Důležitým faktorem aktuální popularity systému umělé inteligence je velké množství textů dostupných na internetu. A také rychlý hardware, který umožnil vytrénování řádově výkonnějších modelů. Takových, ve kterých se objevuje „emergentní chování“, jež se v některých ohledech vyrovná lidské inteligenci:

To samozřejmě vyvolává debatu o tom, zda nová vlna automatizace nahradí lidskou práci. V tomto článku shrnujeme současné poznatky a predikce ohledně toho, jak AI změní pracovní trh a kterých profesí se dotkne nejvíce:

Související témata:

Doporučované