Deepfake je len taký silný, aké slabé zostane kritické myslenie
Hoci je deepfake symbolom digitálnych hrozieb, podľa odborníkov zo slovenskej spoločnosti Innovatrics je skutočný problém inde. Zatiaľ čo biometrické systémy dokážu syntetický obraz s vysokou presnosťou odhaliť, ľudské oko v tomto súboji často prehráva. V kontexte varovaní Národného bezpečnostného úradu pred nárastom sofistikovaných útokov v roku 2026 sa ukazuje, že najúčinnejšou obranou nebude len softvér, ale predovšetkým digitálna hygiena a kritické myslenie. Skutočným rizikom totiž nie je prelomenie bankových systémov, ale manipulácia s dôverou prostredníctvom sociálneho inžinierstva.
Podľa najnovšej prognózy NBÚ bude kybernetický priestor v roku 2026 charakterizovaný dynamickým ekosystémom útočníkov: od ransomvérových gangov až po scam call centrá. Úrad varuje, že AI posunie phishing a sociálne inžinierstvo na novú úroveň. Syntetické identity, falošné profily či deepfake videá budú slúžiť na efektívnejšie budovanie dôvery a následné finančné podvody.
Odborníci zo spoločnosti Innovatrics, ktorá vyvíja biometrické riešenia aj pre finančný sektor a vlády, však upozorňujú na dôležitý paradox. Napriek varovaniam NBÚ nie je samotná technológia deepfake pre zabezpečené systémy fatálnou hrozbou.
Útočníci sa pri podvodoch nespoliehajú na prelomenie šifrovania či oklamanie biometrického algoritmu, ale na oklamanie ľudských zmyslov. „Hoci sú deepfakes fascinujúce a v spoločnosti vnímané ako veľká hrozba, skutočné nebezpečenstvo nespočíva v tom, že hackeri oklamú špecializovaný biometrický systém. V prvom rade chcú oklamať samotného človeka a manipulovať s jeho emóciami,“ vysvetľuje Igor Jánoš, Head of R&D spoločnosti Innovatrics. Uvádza, že fenomén deepfake bude v budúcnosti len natoľko silný, nakoľko slabé bude kritické myslenie spoločnosti.
Súboj vnímania: Čo vidí stroj a čo človek
Dôvodom, prečo technológia v odhaľovaní podvodov vyhráva nad človekom, je rozdielne vnímanie reality. Kým ľudské oko hľadá známe črty tváre, mimiku a emócie, AI modely pracujú v takzvanom latentnom priestore. Algoritmy vidia pixelové anomálie a matematické vzorce, ktoré sú pre bežného pozorovateľa neviditeľné. Kritické myslenie v digitálnej ére preto podľa odborníkov znamená uvedomenie si vlastných biologických limitov.
Ľudia sa musia naučiť nespoliehať na prvý dojem, ale na nástroje, ktoré vidia pod povrch. Problém nastáva v momente, keď útočník cieli priamo na emócie a dôverčivosť obete. Napríklad cez phishing alebo podvodné investičné videá.
Útoky nejdú cez kameru, ale poza ňu
V kontexte varovaní NBÚ pred impersonáciou osôb je dôležité rozumieť technickému prevedeniu útokov. K priamemu oklamaniu živej kamery dochádza zriedkavo. Väčšina útokov prebieha formou takzvaných injection attacks, keď sa útočník snaží obísť kameru zariadenia a vložiť do systému predpripravený súbor.
„Deepfake je často vložený ako alternatíva toho, že sa človek odfotí kamerou. Ak však máme zabezpečený celý reťazec od kamery v mobile až po server a dáta sú šifrované, deepfake sa do systému nemá ako dostať. Keď zraniteľné miesto odstránime, technológia ako taká nás neohrozí,“ objasňuje technické pozadie Igor Jánoš.
Ak je bezpečnostný reťazec uzavretý, technológia útok odrazí. Riziko nastáva pri priamej interakcii s obeťou mimo zabezpečených aplikácií, napríklad cez sociálne siete alebo telefonáty.
Skrytá hrozba morfing
Okrem deepfake videí ostáva vážnou hrozbou morfing. Ide o digitálne zlúčenie tvárí dvoch rôznych osôb do jednej fotografie na doklade totožnosti. Výsledok sa podobá na páchateľa aj na obeť, čo môže oklamať ľudskú kontrolu, pokiaľ nie je podporená adekvátnou technológiou.
Tlak na riešenie týchto hrozieb rastie aj zo strany regulátorov, čo potvrdzuje aj aktuálne vyšetrovanie Európskej komisie voči platforme X pre nedostatočný zásah proti šíreniu AI generovaného obsahu.
Ostražitosť ako digitálna hygiena
Odborníci sa zhodujú, že odpoveďou na prognózy nemá byť panika, ale edukácia s cieľom zaviesť digitálnu hygienu. Ak verejnosť pochopí, že video na sociálnej sieti nie je automaticky dôkazom pravdy a že existujú nástroje na jeho overenie, deepfake prestane byť strašiakom a stane sa riešiteľným technickým problémom.
O spoločnosti Innovatrics
Líder v biometrii zo Slovenska už viac ako 20 rokov vyvíja biometrické riešenia, ktoré pomáhajú vládam, firmám aj organizáciám bezpečne a spoľahlivo overovať identitu ľudí. Technológie spoločnosti sa nasadzujú pri vydávaní občianskych preukazov, registrácii voličov, ochrane hraníc či vyšetrovaní trestnej činnosti, rovnako v bankách, telekomunikáciách či pri zabezpečovaní bezpečnosti podujatí. Vďaka rýchlym a presným algoritmom, ktoré podľa globálnych rankingov patria medzi najlepšie na svete, dokáže Innovatrics prepájať vysokú mieru bezpečnosti s jednoduchým a komfortným používaním technológií.