1352_GAMO_POI9-foto-7 copy

AI ako nástroj kybernetických hrozieb: nová éra útokov

V posledných mesiacoch výrazne pribúda incidentov, pri ktorých útočníci využívajú AI na vykonávanie vysoko sofistikovaných kybernetických útokov. Až 78 % CISO dnes priznáva, že kybernetické hrozby poháňané umelou inteligenciou majú na ich organizáciu zásadný dopad.

Umelá inteligencia sa za posledných pár rokov stala neoddeliteľnou súčasťou digitálneho sveta. Podniky a organizácie s jej pomocou dokážu automatizovať procesy, zvyšovať efektivitu či analyzovať veľké objemy dát. Na druhej strane však zneužívanie AI začína značne ohrozovať kybernetickú bezpečnosť. Podľa prieskumu spoločnosti Darktrace označili odborníci za najväčšiu prekážku pri obrane proti AI útokom nedostatok kvalifikovaných expertov a obmedzené poznatky či využívanie protiopatrení založených na umelej inteligencii.

Kybernetickí útočníci rýchlo zistili, ako rôznymi spôsobmi z AI spraviť svojho najnebezpečnejšieho spojenca. Jedným z najbežnejších je generovanie phishingových kampaní. Podľa VIPRE Security Group bolo v minulom roku až 40 % všetkých firemných phishingových e-mailov vygenerovaných prostredníctvom AI. Vďaka jazykovým modelom ako je napríklad ChatGPT dokážu útočníci vytvárať gramaticky korektné, lokalizované a personalizované e-maily, ktoré často imitujú firemnú komunikáciu alebo oficiálne oznámenia.

Tieto správy sú navrhnuté tak, aby presvedčili prijímateľa kliknúť na škodlivý odkaz alebo poskytnúť citlivé informácie. Ako uvádza štúdia publikovaná na arXiv (2021), generatívne modely zvyšujú efektivitu phishingových útokov a znižujú nároky na jazykovú znalosť útočníka. Medzi najčastejšie používané techniky pritom patrí spear phishing, e-mail spoofing, e-mail manipulácia a phone phishing.

Nová generácia kybernetických hrozieb

Ešte znepokojivejším trendom je využívanie deepfake technológií. Umelá inteligencia dnes umožňuje v reálnom čase generovať videá a hlasové nahrávky, ktoré dokážu s vysokou mierou presnosti imitovať skutočné osoby.

Zneužívanie týchto technológií vedie k vytváraniu falošných vyjadrení manažérov, politikov či známych osobností, ktoré sa následne používajú na vydieranie, manipuláciu verejnej mienky alebo získavanie prístupu do systémov prostredníctvom tzv. voice phishingu.

Nárast incidentov s deepfake technológiami zaznamenalo v uplynulom roku až 61 % organizácii, pričom v troch štvrtinách prípadov išlo o imitáciu CEO alebo iného člena vrcholového manažmentu. Odborníci sa domnievajú, že tento typ podvodov v roku 2025 vzrastie o viac než polovicu.

AI-riadený malvér

AI sa čoraz viac uplatňuje aj pri šírení škodlivého softvéru. Adaptívny malvér riadený umelou inteligenciou sa dokáže učiť zo svojho prostredia, meniť správanie v reálnom čase a vyhýbať sa tradičným detekčným mechanizmom. Niektoré typy malvéru využívajú behaviorálne vzory na to, aby zostali nepozorované, prípadne sa aktivovali len za presne definovaných podmienok. Podľa štúdie publikovanej v SpringerLink (2023) takéto prístupy znižujú úspešnosť antivírových nástrojov a predlžujú dobu zotrvania útoku v sieti. Za posledný rok vzrástol počet prípadov malvéru generovaného pomocou AI až 1,25-násobne.

Dôležitým aspektom exploitácie umelej inteligencie je aj automatizované skenovanie zraniteľností. AI modely trénované na historických dátach dokážu s vysokou presnosťou predikovať slabé miesta v systémoch a navrhovať možnosti ich zneužitia. Podľa správy spoločnosti Fortinet dosiahlo aktívne skenovanie v kyberpriestore bezprecedentnú úroveň, s medziročným nárastom o 16,7 % a priemernou intenzitou 36 000 skenov za sekundu. Tento masívny zber dát umožňuje presné mapovanie vystavených služieb ako SIP, RDP, či protokolov OT/IoT typu Modbus TCP. Vďaka týmto informáciám sú AI modely schopné fungovať v reálnom čase a samostatne riadiť využitie zero-day zraniteľností, čím zvyšujú úspešnosť útokov a skracujú reakčný čas obrancov.

Ako sa pred útokmi chrániť

Rýchly technologický vývoj a eskalácia hrozieb nútia organizácie reagovať včasným zavádzaním pokročilých bezpečnostných riešení. Jedným z nich je implementácia vlastných AI nástrojov na detekciu anomálií a predikciu útokov. Zároveň je potrebné zvyšovať kybernetickú gramotnosť zamestnancov a zavádzať princípy Zero Trust architektúry.

Mnohé organizácie sa však stále spoliehajú na tradičné stratégie – až 41 % podnikov naďalej využíva nástroje detekcie a reakcie na koncové body (EDR) ako hlavnú obranu proti AI útokom, hoci viac než polovica opýtaných v prieskume Ponemon Institute priznala, že tieto riešenia sú voči novým typom hrozieb neúčinné. Napriek týmto obmedzeniam plánuje takmer tretina organizácií investície do EDR nástrojov ďalej zvyšovať. V kontexte rastúcej zložitosti hrozieb sa však čoraz viac zdôrazňuje aj potreba pravidelného auditu AI systémov a zabezpečenia transparentnosti algoritmov, ktoré sú v prostredí firmy využívané.

Exploitácia AI v kybernetických útokoch nie je témou budúcnosti, ide o realitu, ktorá už dnes formuje podobu digitálnych hrozieb. Firmy, ktoré sa na tieto výzvy nepripravia, riskujú nielen stratu dôvery, ale aj zásah do svojej prevádzky a reputácie. Včasná identifikácia rizík ako aj adaptívna bezpečnostná stratégia sa preto stávajú nevyhnutnosťou.

Publikované: 24. júna 2025

Diana Filadelfi

Obchod

GAMO a.s.

Tento článok je súčasťou magazínu č.

Publikované: 24. júna 2025

reklama

Diana Filadelfi

GAMO a.s.

Phishing, teda podvodný e-mail vydávajúci sa za dôveryhodnú komunikáciu, sa stále radí medzi najefektívnejšie nástroje útočníkov. Relatívne jednoducho im umožňuje...

Adam Majoroš

GAMO a.s.

Hľadáte nový impulz pre svoje IT podnikanie? Rastúci dopyt po digitálnych riešeniach so sebou prináša potrebu moderných, bezpečných a lokálnych...

Jana Kohárová

GAMO a.s.

Myslíte si, že antivírus stačí? Realita je zložitejšia. To, čo mnohí považujú za dostatočnú ochranu, je dnes často len základ....
reklama