Aleš Špidla, odborník na kybernetickou bezpečnost a prezident Českého institutu manažerů informační bezpečnosti (ČIMIB), poskytl během veletrhu Future Forces Forum redakci Security Magazínu rozhovor především na téma role umělé inteligence v kybernetické bezpečnosti a kybernetickém zločinu. Ptá se: „Nepřekročili jsme náhodou kritické množství prvků, za nímž si systém uvědomí sám sebe? Kdo to ví?“
- Jsme na Future Forces Forum, jak se vám tady líbí?
Líbí se mi tady moc, protože je tady sekce kybernetické bezpečnosti, a to je téma, které mě vždy zajímalo a doufám, že ještě nějaký čas zajímat bude.
- Český institut manažerů informační bezpečnosti tady je přítomen, představíte nám tuhle společnost?
Český institut manažerů informační bezpečnosti je spolek, nezisková instituce, která sdružuje profesionály v oboru informační bezpečnosti, proto i ten název. Většinou jsou to manažeři informační bezpečnosti. Jsem velice rád, že máme své členy napříč celou Českou republikou, ať manažery ze státní správy, z podnikatelské sféry. Jsou to opravdoví profesionálové. My jako rada Českého institutu manažerů informační bezpečnosti jim rádi poskytujeme své služby, hlavně pořádáme konference, pořádáme kulaté stoly, což jsou monotématická setkání nad nějakým tématem. Není to souhrn nějakých přednášek, ale opravdu se věnujeme jednomu tématu. Kulaté stoly děláme zhruba jednou za dva měsíce a máme s nimi obrovský úspěch.
Psali jsme: Aleš Špidla (ČIMIB): novela zákona o registru smluv je sama o sobě pirátská
- Hodně často v našich rozhovorech zaznívá termín umělá inteligence. Co umělá inteligence v kyberbezpečnosti?
Já už nějaký čas na toto téma přednáším a vidím čím dál větší důležitost uplatnění umělé inteligence v kybernetické bezpečnosti, protože když si uvědomíme, kolik dat teče, a jsou to informace o bezpečnostní situaci, o incidentech, tak jak se násobí tok těch zpracovávaných, užitečných informací, obrovsky se znásobil tok bezpečnostních informací. A ty musí někdo někde vyhodnotit. A musí zjistit, které z těch bezpečnostních informací jsou významné pro nějakou akci. To znamená pro nějaké zastavení útoku, a tak dále.
Představte si, že vyhodnotíte situaci, že váš zaměstnanec se přihlásil k počítači v Praze, prošel turniketem na vaší pobočce v Šanghaji, a v Paříži na vaší pobočce v kantýně zaplatil kartou. V jednom okamžiku. Nebo v nějakém časovém rozestupu, který ale nejde lidskými silami stihnout. A teď ano: když je to jedna událost, jeden tzv. alert, tak analytik u monitoru to vyhodnotí jako bezpečnostní incident a spustí nějakou akci. Ale když máte sto tisíc zaměstnanců, nebo sto tisíc entit, které hlídáte, tak i když máte obrovské dohledové centrum, máte tam sto lidí, tak ti lidé se nespojí v nějakém vrcholu, kde by někdo rozhodl: pozor, toto je velký, závažný bezpečnostní incident. Na to už opravdu potřebujete nástroj, který ty incidenty dokáže vyhodnotit, dokáže je dát do nějakých korelací, a dokáže spustit nějakou akci. A to není v současné době v lidských silách, a v budoucí době to už vůbec nebude možné.
A když si k tomu ještě přičtete internet věcí, kdy v roce 2020 bude připojeno 50 miliard zařízení, a každé to zařízení je jakousi bezpečnostní hrozbou, to zařízení se musí hlídat, musí se vyhodnotit jeho chování. Neumím si představit, že by se to dalo zvládnout bez použití umělé inteligence. Bohužel umělou inteligenci používá i ta „temná strana síly“. To jsou ti škůdci, ti útočníci. Používají ji pro informační operace. Používají ji pro detekci detekce, to znamená, že ti útočníci jsou schopni využít umělou inteligenci na to, aby zjistili, jestli náhodou nejsou detektováni. A ten škodlivý software sám přizpůsobí své chování, protože má prvky umělé inteligence, aby jej nebylo možné nalézt.
Psali jsme: Mezinárodní konference bezpečnostního managementu 2017
- Teď mě napadá, jestli umělá inteligence není vlastně křehká záležitost, která je poměrně „snadno“ zneužitelná?
Zneužitelná v každém případě je. Já se obávám, že jednoho krásného dne zneužije sama sebe. Protože nás prostě přestane potřebovat. Báječně to popsal A.C. Clark ve své povídce A ozve se Frankenstein, kterou napsal v roce 1965. Popsal tam teorii kritického množství prvků propojených do jednoho systému. Když se toto množství překročí, tak ten systém si uvědomí sám sebe, a začne se chovat jako bytost. Podotýkám: napsal to v roce 1965. Samozřejmě nikdo neví, které množství těch prvků je kritické. A teď si představte ty systémy, i ty umělé inteligence propojené do jednoho systému skrze internet. Nepřekročili jsme náhodou to kritické množství? Kdo to ví? Když si umělá inteligence dělá, co chce – vědci propojili dva systémy s umělou inteligencí, aby zvýšili jejich výkon – a museli to vypnout, protože ty dva systémy si vymyslely vlastní jazyk, kterým spolu komunikovali naprosto mimo kontrolu těch vědců.
- Skoro se bojím položit další otázku, a to jsou nové trendy v kyberbezpečnosti.
Jedním z těch trendů je používání té umělé inteligence. Jak na jedné straně, tak na druhé straně. Velkým trendem je obrovský nárůst výnosů z kybernetické kriminality. Jeden a půl bilionu dolarů. Ročně. Má to stoupat až k šesti bilionům dolarů. Z toho největší procento, asi 860 miliard dolarů, zabírá ilegální internetový obchod s ilegálním zbožím. Následuje prodej ukradeného obchodního tajemství, porušování autorských práv, atd. atd. Obrovský trend je nárůst počítačové kriminality. Ono je daleko jednodušší vyloupit banku skrze krádež účtu, zfalšování tzv. swift pokynů pro vyplácení peněz, než jít probourat pětimetrovou betonovou stěnu do nějakého trezoru. To je obrovský trend.
Samozřejmě ty technologie jsou čím dál tím sofistikovanější. Český institut manažerů informační bezpečnosti pořádal konferenci, kde jsme měli kolegy z Ukrajiny, kteří forenzně šetřili útok black energy. To bylo vypnutí distribuční soustavy na Ukrajině, kdy stovky tisíc domácností přišly o dodávku elektrické energie. Ti nám popisovali tzv. matrjošku. Kdy útok je zapouzdřený v útoku, ten je zapouzdřený v dalším útoku a pak v dalším útoku. Takže spousta krycích manévrů nad sebou. Sami se nám přiznali, že ten útok nešlo zastavit. Nebylo síly, která by to zastavila.
Nebo puzzle. Máte kousíčky škodlivého kódu rozmístěné v infrastruktuře – nicneříkající kousíčky nějakého textu. A v okamžiku, kdy „šéf“ vydá pokyn, tak se ty kousíčky propojí, a vytvoří funkční škodlivý kód, který zaútočí. Nedetekovatelné, neodhalitelné.
Psali jsme: Na ASIS Security summitu 2018 se diskutovaly nejaktuálnější bezpečnostní hrozby
- Pojďme zpátky na Future Forces Forum, zaujalo vás tady něco konkrétního?
Už jsem říkal, že oblíbeným tématem je umělá inteligence. Zaujala mě přednáška, resp. workshop na téma už technologie, která používá umělou inteligenci právě na odhalování incidentů, na odhalování rizikových míst, na odhalování rizikového chování uživatelů, atd., tzv. risk scoring. To bylo velmi zajímavé, a těším se na další pokračování, neboť na toto téma bude Český institut manažerů informační bezpečnosti pořádat na jaře konferenci.
- Já vám moc děkuju za rozhovor. Já si jdu odhlásit e-mail, facebook, běžný účet, stěhuju se do lesa, vypínám elektrický proud, a vám přeju hodně štěstí.
Finančák vás dožene.