Článek
Zatímco firmy po celém světě začleňují generativní umělou inteligenci do svých procesů – od psaní textů až po analýzu dat -, kyberexperti upozorňují, že spolu s efektivitou často mizí i kontrola nad informacemi.
Podle dat společnosti Check Point se s rizikem úniku citlivých dat setkalo 91 procent organizací, které nástroje generativní umělé inteligence pravidelně využívají.
Každý 54. prompt, tedy dotaz či zadání, představoval v září velmi vysoké riziko úniku citlivých dat. Patnáct procent interakcí pak obsahovalo informace, které by mohly být zneužity – například osobní data zákazníků, části interní komunikace nebo fragmenty kódu.
„Generativní AI, jako je ChatGPT, skutečně přináší pro firmy riziko úniku interních dat. Zásadní roli tady hrají samotní zaměstnanci. Riziko vzniká ve chvíli, kdy člověk do promptu vloží interní informace, například zdrojový kód, obchodní strategii nebo zákaznická data. Tyto údaje se pak ukládají na serverech poskytovatele AI nástroje a mohou být využity pro další trénink modelu,“ popisuje technický ředitel v pražské pobočce společnosti ESET Jindřich Mičán.
Podotýká, že v praxi to znamená, že firma ztrácí kontrolu nad tím, co se s daty děje. S ohledem na globální dosah těchto nástrojů není podle něj podobný incident vyloučený kdekoli ve světě, a to ani v České republice.
„Na tato rizika například poukázal incident ve společnosti Samsung Electronics, kdy zaměstnanci nahráli do aplikace ChatGPT citlivá interní firemní data, a tím je vyzradili veřejnosti,“ upozorňuje.
Rizika lze snížit
Odborníci doporučují, aby firmy práci s umělou inteligencí lépe kontrolovaly – využívaly jen prověřené nástroje a zároveň vzdělávaly zaměstnance v bezpečném zacházení s daty.
„Zaměstnanci vždycky budou hledat cestu, jak použít ty nejlepší nástroje a jak si maximálně zjednodušit práci. A pokud jim je nenabídneme, začnou používat jejich rizikovější alternativy – bezplatné verze, často i mimo firemní účty,“ popisuje expert na digitální inovace a AI Filip Dřímalka.
Mezi nejčastěji používané chatboty a kódovací asistenty patří podle Jiřího Kohouta z kyberbezpečnostní společnosti Check Point Software Technologies především ChatGPT, poté Microsoft CoPilot, Perplexity, Gemini, Claude a GitHub Copilot.
„Co se týče možného úniku citlivých dat kvůli neopatrnému nakládání s informacemi ze strany uživatelů, má většina nástrojů podobná rizika. S osobními informacemi, zneužitelnými firemními daty nebo částmi zdrojového kódu je zkrátka potřeba pracovat opravdu velmi obezřetně,“ popisuje Kohout.
Dodává, že u některých nástrojů lze zvolit varianty použití nebo předplatného, které garantují, že data zadávaná do promptů nebudou použita pro další učení veřejného modelu, a následně tak dostupná i pro ostatní uživatele, což problém možného úniku do jisté míry snižuje. I přesto podle něj stále existuje riziko, že dojde k narušení bezpečnosti daného systému a k zadávaným datům se stejně někdo dostane.
Podobně uvažuje i Mičán, který by uživatelům doporučil používat komerční a důvěryhodné nástroje umělé inteligence, ideálně v placených verzích. Podotýká, že u placených verzí je možné vypnout historii dotazů a jejich sdílení pro analýzu, tedy trénování AI.
„U verzí, které jsou zdarma, můžeme mít téměř stoprocentní jistotu, že se informace budou využívat minimálně pro analýzu dotazů a trénování. U méně důvěryhodných poskytovatelů může v nejhorším případě vyloženě dojít i ke zneužití dat. Obzvlášť pak tato doporučení samozřejmě platí pro firmy, které by si měly zvolit takového poskytovatele, u kterého bude možné nástroj nakonfigurovat maximálně s ohledem na ochranu dat zákazníka,“ říká Mičán.
„Pro další omezení těchto rizik ve firemním prostředí je klíčové nastavit také interní pravidla: nikdy nezadávat do AI citlivé informace, používat schválené nástroje s anonymizací dat a pravidelně školit zaměstnance. Pro kritické procesy je vhodné zvážit vlastní řešení, které běží v kontrolovaném prostředí,“ dodává.
Lidé jsou nejslabším i nejsilnějším článkem
Podle Dřímalky stále drtivá většina zaměstnanců s AI neumí pracovat správně. Neumí ověřit správnost odpovědí, spoléhají se na AI jen jako na náhradu vyhledávače nebo neví, kdy použít jaký nástroj pro jaký úkol. Firmy proto podle něj musejí investovat do intenzivního vzdělávání a zároveň dát správné a bezpečné využívání AI v týmech jako odpovědnost manažerům.
„Naštěstí si to čím dál víc našich klientů uvědomuje. Buď nabízejí lidem opravdu ty nejlepší aplikace, nebo integrují nejlepší modely do svého interního AI nástroje – a tím pádem lidé nemají tendenci chodit jinam. Ostatní firmy je pak budou muset následovat, a to nejen kvůli bezpečnosti. Jak už brzy uvidíme na trhu, začne platit, že pokud nenabídnete lidem ty nejlepší nástroje, ti nejlepší pro vás prostě nebudou chtít pracovat,“ uzavírá.

















