Webová stránka používa súbory cookie na poskytovanie služieb v súlade so Zásadami používania súborov cookie. Vo svojom prehliadači môžete definovať podmienky pre ukladanie alebo prístup k mechanizmu cookies.
Deepfaky predstavujú vážne riziko pre firmy. Zistite, ako fungujú, aké hrozby prinášajú a čo môžete urobiť pre ochranu.
Deepfaky sa stávajú súčasťou kultúry dezinformácií. Ich rastúce zneužívanie na podvody a ďalšie kybernetické útoky zasahuje naprieč odvetviami. Počet prípadových štúdií, v ktorých boli deepfaky použité pri kyberútokoch, rýchlo rastie. V jednom nedávnom prípade sa obeťou stala britská inžinierska firma Arup, ktorá na základe deepfake videohovoru odoslali podvodníkom 25 miliónov dolárov.
Nedávna štúdia spoločností TitanHQ a Osterman Research odhalila tento bezpečnostný trend: 11 % oslovených organizácií zažilo počas posledného roka útok s využitím deepfake technológie. Možno sa toto číslo zdá nízke v porovnaní s bežnými phishingovými útokmi, ale je to len začiatok… Odhady uvádzajú, že do konca roka 2025 bude zdieľaných približne 8 miliónov deepfakov – mnohé z nich budú zneužité na nekalé účely.
Čo je deepfake kyberútok?
Slovo „deepfake“ vzniklo v roku 2017 na Reddite, kde používateľ s touto prezývkou založil komunitu zdieľajúcu pornografické deepfaky celebrít vytvorené pomocou open-source technológie na výmenu tvárí. Odvtedy sú deepfaky zneužívané v rôznych škodlivých formách.
Deepfake obsah manipuluje s autentickým médiom – napríklad videom – a upravuje ho podľa potrieb útočníka. Technológia, ktorá stojí za deepfakmi, je typ umelej inteligencie nazývaný hlboké učenie (deep learning), čo je forma strojového učenia využívajúca neurónové siete. Algoritmy, ktoré vytvárajú deepfaky, sú natoľko pokročilé, že dokážu vytvoriť veľmi realistické falošné záznamy. Práve táto vierohodnosť robí z deepfakov nebezpečný nástroj pri kyberútokoch. Deepfaky manipulujú obeť, aby vykonala akciu v prospech kyberzločinca. Môžu byť jedným z najsilnejších nástrojov sociálneho inžinierstva pri kybernetických útokoch.
Príklady hrozieb spojených s umelou inteligenciou a deepfake útokmi
Deepfake útoky využívajú pokročilé technológie, no ich podstata zostáva rovnaká – manipulácia ľudského správania. V kybernetickom prostredí sa čoraz častejšie objavuje kombinácia obsahu generovaného pomocou veľkých jazykových modelov (LLM) a deepfake technológií. Príklady využitia deepfakov poukazujú na ich rastúce zapojenie do podvodov a phishingu:
Deepfake výmena tvárí (Face Swapping)
Algoritmy na tvorbu deepfakov sú natoľko pokročilé, že dokážu meniť tváre v reálnom čase. Jeden nedávny útok využil túto technológiu na napadnutie podnikateľa zo severnej Číny. Útočníci počas videohovoru použili technológiu výmeny tváre, aby podnikateľa presvedčili, že hovorí so svojím dôveryhodným známym, ktorý potrebuje peniaze na verejné obstarávanie. Muž prišiel o 4,3 milióna jüanov (približne 622 000 dolárov). Správa spoločnosti iProov z roku 2024 zaznamenala nárast deepfake útokov typu „Face Swap“ o 704 %.
Deepfake + AI agenti = sofistikovanejšie a nebezpečnejšie kyberútoky
Varovania pred hyperpersonalizovanými phishingovými útokmi generovanými AI agentmi naberajú na intenzite. Správy zaznamenali prípady falošných, no veľmi osobných e-mailov vytvorených na základe informácií získaných pomocou generatívnej AI. AI agenti, ako napríklad Operator od OpenAI, sú už dnes natoľko vyspelí, že dokážu pracovať s webovými stránkami, písať kód a predstavujú ideálny základ pre tvorbu, automatizáciu a realizáciu kyberútokov. Ak sa k tejto schopnosti pridá vierohodnosť deepfakov, vzniká ideálna búrka – bezpečnostné prostredie plné komplexných a vysoko pokročilých hrozieb.
Útoky vydávajúce sa za Microsoft Copilot
Microsoft Copilot je digitálny asistent využívajúci umelú inteligenciu. Výskumníci zaznamenali phishingové kampane zamerané na používateľov Microsoft Copilot. Phishingové e-maily sa tvária ako oficiálna komunikácia od Copilota a nabádajú používateľov, aby klikli na odkaz. Tento typ phishingu môže byť spojený s deepfake videohovorom, podobne ako v prípade podvodu za 25 miliónov dolárov, ktorého obeťou bola firma Arup.
Vzhľadom na aktuálne trendy v oblasti deepfake hrozieb by firmy a poskytovatelia MSP služieb mali očakávať, že sa deepfaky budú čoraz viac objavovať v rámci phishingových a sociálno-inžinierskych útokov. Odborníci predpovedajú, že sa útočníci zamerajú na osobný život vedúcich firemných pracovníkov. Cieľom deepfake videí alebo zvukových nahrávok bude vyvolať emocionálnu reakciu, čo je typické pre útoky založené na sociálnom inžinierstve. Takáto reakcia môže viesť k impulzívnemu rozhodnutiu – odoslaniu peňazí alebo zdieľaniu citlivých informácií.
Výzvy pri detekcii deepfakov
Identifikácia deepfakov je stále náročná. Najčastejšie sa využíva strojové učenie, ktoré sa snaží odhaliť nezvyčajnosti vo videu alebo zvuku. Úspešnosť týchto metód však zatiaľ nie je ideálna – napríklad podľa spoločnosti Thomson Reuters zostáva 95 % syntetických identít použitých pri overovaní totožnosti (KYC) neodhalených. Jednou z metód na zlepšenie detekcie deepfakov je test živosti založený na biometrickom rozpoznávaní tváre. Tieto testy sa neustále zdokonaľujú, no zatiaľ nie sú úplne spoľahlivé.
Ako deepfaky ovplyvňujú overovanie identity pri e-mailovej komunikácii?
Deepfaky možno považovať za formu krádeže identity. Deepfake videá, fotografie alebo zvukové nahrávky slúžia na to, aby útočník napodobnil skutočnú osobu a mohol vykonávať akcie vyžadujúce overenie totožnosti. Ak hacker získa neoprávnený prístup k e-mailovému účtu a zároveň má deepfake verziu dokladov totožnosti, ako je pas alebo vodičský preukaz, má všetko potrebné na otvorenie bankového účtu alebo vytvorenie falošnej digitálnej identity.
Biometrická spoločnosť iProov zaznamenala masívny nárast deepfakov používaných pri digitálne injekovaných útokoch. Tieto útoky umožňujú škálovanie deepfake hrozieb. Digitálna injekcia funguje tak, že sa deepfake obraz alebo video „vstrekne“ do dátového toku alebo obíde kameru zariadenia, čím sa vyhne bezpečnostným opatreniam pri overovaní identity – napríklad pri prístupe do e-mailového účtu.
Nástroje a stratégie na odhaľovanie deepfakov
Firmy aj poskytovatelia MSP služieb by mali počítať s tým, že deepfaky budú čoraz realistickejšie. To predstavuje vážnu výzvu pre ich odhaľovanie. Výskumníci zo spoločnosti Osterman Research však odporúčajú kombináciu stratégií riadenia ľudského rizika (Human Risk Management, HRM) a e-mailových bezpečnostných riešení s podporou obrannej umelej inteligencie. Táto kombinácia bezpečnosti zameranej na človeka a AI umožňuje budovať inteligentné vrstvy ochrany schopné čeliť aj veľmi pokročilým AI asistovaným útokom:
Human Risk Management (HRM)
Spoločnosť Osterman kladie stratégie riadenia ľudského rizika do centra boja proti útokom využívajúcim umelú inteligenciu, vrátane deepfakov. HRM je dátovo riadený prístup k minimalizácii rizík, založený na školeniach zameraných na správanie a simuláciách phishingových útokov. Výskumy ukazujú, že najefektívnejšou stratégiou je zavedenie školení a simulácií kybernetických útokov využívajúcich AI, ktoré zvyšujú bezpečnostné povedomie zamestnancov.
E-mailová bezpečnosť s podporou obrannej AI
Phishingové útoky podporené AI sa často kombinujú s deepfakmi a cielia na emócie a dôveru ľudí. Podľa výskumu spoločnosti Osterman sú nástroje na zabezpečenie e-mailovej komunikácie kľúčovým doplnkom k HRM stratégiám. Riešenia využívajúce umelú inteligenciu dokážu identifikovať nové hrozby a pomáhajú zastaviť útoky posilnené generatívnou AI a deepfakmi. Technológie ako PhishShield využívajú pokročilé AI nástroje, ako je spracovanie prirodzeného jazyka (NLP) a strojové učenie, na detekciu AI asistovaných kyberútokov.
Nasadenie inteligentnejších, na človeka zameraných bezpečnostných vrstiev je efektívny spôsob, ako sa brániť hrozbám v podobe deepfakov. Firmy a MSP poskytovatelia môžu vďaka HRM stratégiám a e-mailovej ochrane s podporou AI predísť čoraz sofistikovanejším kyberútokom, ako sú napríklad podvody typu Business Email Compromise (BEC).
Chcete posilniť svoju obranu pomocou inteligentnej e-mailovej bezpečnosti?
Ozvite sa nám a zistite, ako vám prepojenie stratégií zameraných na človeka a ochrany s podporou AI pomôže zostať o krok pred modernými kyberhrozbami. Vyžiadajte si bezplatnú ukážku a presvedčte sa, ako funguje v praxi.
Pre viac informácií nás kontaktujte.
Ružová 50
040 11 Košice
IČO: 56126425
DIČ: 2122229758
IČ DPH SK2122229758
+421 950 548 010