
Deepfake videá už vedia napodobniť aj pulz srdca a môžu byť neodhaliteľné
Kvalita falošných videí generovaných umelou inteligenciou (deepfake) dosahuje nový stupeň vierohodnosti. Najnovší výskum ukazuje, že nové deepfake videá dokážu napodobniť aj jemné fyziologické signály – napríklad ľudský srdcový pulz, ktorý sa na zázname prejavuje ako nepatrné rytmické zmeny farby pokožky. Donedávna pritom platilo, že práve prítomnosť autentického tepu v obraze bola spoľahlivým znakom, podľa ktorého algoritmy odlíšili skutočné video od syntetického.
Vedci z Humboldtovej univerzity v Berlíne však vytvorili sériu deepfake klipov, v ktorých AI „zdedila“ tep z reálnej predlohy – a pokročilé detekčné programy ich nesprávne vyhodnotili ako pravé zábery. Ukazuje sa tak, že indikátory ako srdcová frekvencia či pulzová vlna už nemusia stačiť na odhalenie sofistikovaných podvrhov.
„Prvýkrát ukazujeme, že moderné deepfake videá môžu obsahovať realistický tep a nepatrné zmeny odtieňa tváre, čo ich robí omnoho ťažšie odhaliteľnými,“ uviedol profesor Peter Eisert, spoluautor štúdie publikovanej v časopise Frontiers in Imaging. Tento posun zvýhodňuje tvorcov deepfake obsahu v nekonečnom súboji s tými, ktorí sa ho snažia odhaliť. Experti varujú, že ak sa technológia generovania falošných videí bude ďalej zlepšovať takýmto tempom, čoskoro môže byť pre bežného človeka takmer nemožné rozlíšiť pravý záznam od podvrhu.
Pojem deepfake označuje metódu, keď neurónové siete na základe strojového učenia upravia obraz alebo zvuk tak, že vytvoria veľmi realistickú ilúziu. Môže ísť o zámenu tváre vo videu, synteticky vygenerovaný hlas či úplne falošnú podobizeň neexistujúcej osoby. Hoci existujú aj neškodné využitia (napríklad v reklame alebo filme), technológia si získala zlú povesť najmä vďaka masovému zneužívaniu. Na internete sa šíria státisíce deepfake videí pornografického charakteru, kde sú bez povolenia použité tváre skutočných ľudí.
Objavujú sa aj prípady, keď podvodníci pomocou vygenerovaného hlasu napodobnia príbuzného alebo šéfa firmy a pokúsia sa vylákať peniaze – ide o tzv. audio deepfake podvod. Okrem toho panujú obavy, že by sa deepfake videá dali zneužiť na šírenie dezinformácií – napríklad vytvorením falošného prejavu politika. Už v minulosti kolovali známe falzifikáty prezidentov (Baracka Obamu, Donalda Trumpa a ďalších), ktoré vyzerali na prvý pohľad presvedčivo.
Na rastúcu hrozbu deepfake technológií reagujú aj vlády a firmy. Americký Kongres práve schválil zákon s názvom „Take It Down Act“, ktorý postihuje vytváranie a šírenie nežiaduceho sexuálneho obsahu vrátane deepfake videí ako trestný čin. Technologické spoločnosti zase vyvíjajú nové nástroje na odhaľovanie a označovanie umelo vytvoreného obsahu. Niektoré pokročilé detektory sa už nespoliehajú len na biologické stopy typu pulz – analyzujú napríklad drobné odchýlky v jase pixelov alebo vkladajú do súborov digitálne vodoznaky, aby bolo možné zistiť, či obsah vznikol pomocou AI.
Odborníci však zdôrazňujú, že ide o preteky v zbrojení: akonáhle sa ujme jeden spôsob detekcie, tvorcovia deepfake ho zakrátko obídu. Najnovšie zistenia vedcov z Berlína preto slúžia ako pripomienka, že boj proti digitálnym podvrhom si bude vyžadovať neustále inovácie a kombináciu viacerých metód, aby držal krok s rýchlo sa zlepšujúcimi algoritmami generatívnej AI.
Zdroj: popsci.com
Zdroj Foto: depositphotos.com.