Hlavní obsah

Microsoft chce do firem nasadit chytrou ostrahu. Má prokouknout hackery

Foto: koláž: Pavel Kasík, Seznam Zprávy

Chatbot jménem Microsoft Security Copilot by měl radit ajťákům, jak reagovat na bezpečnostní hrozby.

Reklama

Svět bezpečnostních hrozeb je nepřehledný, dokonce i pro profesionály. Microsoft jim chce dát k ruce chytrého asistenta, který jim dá okamžité odpovědi ohledně útoku. Umělou inteligenci ale samozřejmě používají i hackeři.

Článek

Umělá inteligence do každého našeho produktu! Taková je zjevně tento rok mantra společnosti Microsoft, která ve spolupráci s firmou OpenAI postupně do svých služeb přimíchává nástroje na textovou komunikaci. V posledních týdnech ukázali asistenta pro vyhledávání nebo kopilota pro práci v kanceláři. Teď se zaměřila na počítačovou bezpečnost.

„V posledních několika letech jsme byli svědky prudkého nárůstu četnosti kybernetických útoků, jejich sofistikovanosti i intenzity,“ říká Vasu Jakkalová, viceprezidentka společnosti Microsoft pro bezpečnost. „A obráncům nezbývá mnoho času na to, aby zabránili eskalaci takových útoků. Momentálně je poměr sil vychýlen ve prospěch útočníků.“

Microsoft už nyní nabízí firmám několik řešení pro monitorování sítě a řešení bezpečnostních rizik v reálném čase. Ve chvíli, kdy na firemní síť někdo útočí, je ale každá minuta drahá. A zdaleka ne každá firma si může dovolit provozovat své vlastní specializované středisko rychlé reakce.

V nouzi si popovídejte s expertem

Podle Microsoftu by IT expertům v takové chvíli mohl pomoci specializovaný konverzační nástroj nazvaný Security Copilot, tedy „druhý pilot“.

Nástroj využívá obecný jazykový model GPT-4 od OpenAI a také specifickou datovou sadu orientovanou na otázky týkající se kyberbezpečnosti, kterou sestavil přímo Microsoft. „Tento specifický bezpečnostní model zase zahrnuje rostoucí soubor specifických bezpečnostních dovedností a je založen na jedinečném globálním zpravodajství společnosti Microsoft o hrozbách a více než 65 bilionech informací denně,“ chlubí se firma.

V praxi by pak mohlo použití vypadat následovně: uživatel napíše zprávu, ve které se zeptá, v čem spočívá hrozba nebo jak se proti ní bránit. Asistent Security Copilot na základě daného kontextu sestaví odpověď a bude připraven zodpovědět i případné doplňující dotazy. Odpověď umí také vizualizovat (nakreslit pomocný obrázek), nebo přímo sestavit zdrojový kód na míru.

+2

„Security Copilot neumí vždy odpovědět na všechno správně. Obsah generovaný umělou inteligencí může obsahovat chyby,“ připomíná Jakkalová. „Security Copilot je však systém s uzavřenou smyčkou učení. To znamená, že se neustále učí od uživatelů a dává jim možnost poskytnout přímou zpětnou vazbu pomocí funkce, která je zabudována přímo v nástroji.“

Poradí, ale nic nevyzradí

A pro koho vlastně bude tento nástroj určen? Na dotaz Seznam Zpráv během schůzky s novináři Jakkalová uvedla, že je nástroj cílený na IT profesionály, kteří počítačové bezpečnosti rozumí a jimž nástroj umožní reagovat rychleji. Mohli by tak třeba reagovat v řádu minut na něco, co by jim jinak trvalo několik hodin.

Důležité podle Microsoftu je, že Security Copilot komunikuje v přirozeném jazyce. Umožní tak rychle vytvářet průběžnou zprávu o situaci, která bude srozumitelná pro nově příchozí nebo pro lidi mimo nejužší bezpečnostní tým.

Microsoft ovšem zdůrazňuje, že firemní data zůstávají ve vlastnictví firmy a Microsoft si na soukromých datech netrénuje umělou inteligenci a data nesdílí s dalšími firmami: „Systém Security Copilot jsme vytvořili s ohledem na bezpečnostní týmy - vaše data jsou vždy vaše data a zůstávají pod vaší kontrolou. Nepoužívají se k trénování základních modelů umělé inteligence a ve skutečnosti jsou chráněna nejkomplexnějšími podnikovými kontrolami dodržování předpisů a zabezpečení.“

Nástroj by měl komunikovat s dalšími službami společnosti Microsoft a prý i s vybranými nástroji třetích stran. Zatím je k dispozici v testovacím režimu pouze vybraným společnostem, uvedla firma Microsoft na blogu.

Falešný pocit bezpečí?

Microsoft ve svém textu zmiňuje, že nástroj Security Copilot řeší nedostatek profesionálů na trhu. Podle některých by ale mohl vést k falešnému dojmu bezpečí, pokud by se na něj firma až příliš spolehla, namísto aby investovala do lidských zdrojů.

„Nástroj je určen především k úspoře času a je integrován přímo do stávajících nástrojů. Takovéto nástroje mohou přinášet falešné nebo příliš obecné výsledky,“ upozorňuje Chris Cowling, odborník na kyberbezpečnost a etický hacker ze společnosti Unicorn Systems. „Proto stále potřebujete kompetentní pracovníky, kteří plně rozumí situaci, abyste mohli ověřit, že to, co nástroj produkuje, odpovídá skutečnosti.“

Ostatně bezpečnostní nástroje používají prvky umělé inteligence již delší dobu. „Což znamená, že útočníci již umí takové nástroje obejít, aby dosáhli svých cílů,“ domnívá se Cowling, který se specializuje na penetrační testy na objednávku, a má tak s překonáváním zabezpečení zkušenosti.

„Firmy by měly k tomuto nástroji přistupovat jako k jakémukoli jinému nástroji,“ zdůraznil pro Seznam Zprávy Cowling. „Tedy jako k něčemu, co má sloužit ke zlepšení procesů a schopností týmu, nikoli k jejich nahrazení.“

Útoky přímo vám na míru

Microsoft chce tedy dát obráncům kybernetické bezpečnosti do rukou sílu generativní umělé inteligence. Ale také hackeři samozřejmě používají nové nástroje generativní umělé inteligence. Například známá konverzační služba ChatGPT je podle analytiků využívána i na opačné straně barikády.

Co umí ChatGPT?

Bezplatná služba ChatGPT je konverzační generátor textu založený na velkém jazykovém modelu GPT-3.5 a GPT-4. Uživatelé mohou s „chatbotem“ komunikovat pomocí textu, a to prakticky na jakékoli téma.

ChatGPT ohromuje tím, že umí smysluplně odpovídat, vést debaty, psát články, básně nebo eseje přesně dle zadání, generovat funkční zdrojový kód… A také pořádně kecat, jak jsme popsali v tomto článku:

V praxi lze ChatGPT využít třeba ke generování textů, psaní e-mailů, překládání, vytváření různých nápadů, programování nebo rychlé analýze a přepsání textu. Více tipů v našem článku:

O podobné nástroje se intenzivně zajímají ruští hackeři. Už v únoru se třeba na ruském webu objevilo vlákno s návodem, jak využít ChatGPT navzdory zákazům OpenAI (standardně je nástroj z Ruska nedostupný).

„ChatGPT je totiž možné jednoduše použít k vytváření škodlivých e-mailů a kódů. Velmi rychle jsme objevili konkrétní případy, kdy se kyberzločinci, včetně úplných začátečníků, snaží použít umělou inteligenci k útokům. Je to obrovské riziko, kterému budeme v roce 2023 čelit,“ uvedl v únoru Pavel Krejčí, Security Engineer z kyberbezpečnostní společnosti Check Point Software Technologies.

S příchodem nové verze (GPT-4) trvá obava z případného zneužití. „Hackeři by mohli vzhledem k rychlé reakci ChatGPT překonávat jednoduše technické problémy při vývoji a vylepšování malwaru. Nový GPT4 může, stejně jako prakticky všechny průlomové technologie, sloužit dobrým i špatným účelům,“ upozorňuje Krejčí.

Nová verze jazykového modelu GPT4 se sice podle Krejčího v mnoha ohledech jednoznačně zlepšila, ale zároveň stále existuje mnoho scénářů, jak by mohli tohoto mocného nástroje využít i technicky méně zdatní kyberzločinci. ChatGPT třeba během testování pomohla s tvorbou škodlivého kódu. Stačilo si vymyslet legitimní důvod, proč tazatel takový kód potřebuje.

Další hrozbou je důvěryhodně znějící phishing. Umělá inteligence – konkrétně velké jazykové modely – umožňuje napsat velké množství textu, který cílí na konkrétní uživatele. Hacker tak pomocí věrohodnějšího textu může vylákat přihlašovací údaje nebo jinou formu spolupráce.

Přestože se on-line nástroje jako ChatGPT snaží takovýmto snahám hackerů čelit různými omezeními, existují i jiné modely, které mohou hackeři spustit přímo na svém osobním počítači. Pak mohou v klidu vygenerovat libovolné množství důvěryhodně znějících textů a nikdo jim v tom nemůže zabránit.

Reklama

Doporučované