
Digitálne vyzliekanie: Desivý vzostup AI aplikácií, ktoré bez súhlasu vytvárajú nahé fotky žien
Predstavte si, že na internete objavíte svoju realistickú nahú fotografiu, ktorú ste nikdy neurobili. Vznikla v priebehu niekoľkých sekúnd z bežnej, oblečenej fotky, ktorú ste zverejnili na sociálnych sieťach, pomocou voľne dostupnej aplikácie s umelou inteligenciou. Toto nie je zlý vtip, ale nová forma digitálneho násilia a technológiami sprostredkovaného sexuálneho zneužívania.
Vzostup AI aplikácií na „vyzliekanie“ predstavuje nebezpečnú eskaláciu digitálneho obťažovania, ktorá demokratizuje schopnosť vytvárať syntetickú pornografiu. Tieto nástroje spôsobujú obetiam hlbokú traumu a predstavujú naliehavú hrozbu pre súkromie, bezpečnosť a digitálnu dôveru. Jadrom tejto technológie sú generatívne adverzné siete (GANs), systém dvoch súperiacich neurónových sietí: „generátor“ vytvára fakeové obrázky a „diskriminátor“ sa snaží určiť, či sú skutočné, čím generátor neustále zdokonaľuje svoje schopnosti.
Na vytvorenie falošných nahých fotografií AI analyzuje oblečenú fotografiu, identifikuje odev a nahradí ho synteticky vygenerovaným nahým telom, ktoré zodpovedá póze, osvetleniu a tónu pleti osoby. To, čo bolo kedysi technicky náročným procesom, je dnes dostupné v podobe užívateľsky prívetivých aplikácií ako Undress.app alebo Nuditify, čo znamená, že ktokoľvek so smartfónom a zlými úmyslami sa môže stať tvorcom explicitného materiálu bez súhlasu.
Dôsledky pre obete, ktorými sú prevažne ženy a dievčatá, sú zničujúce. Výskumy potvrdzujú pocity poníženia, hanby, hnevu a sebaobviňovania, ktoré vedú k vážnemu a pretrvávajúcemu emočnému stresu. Šírenie týchto falošných obrázkov môže viesť k šikane, poškodeniu osobnej i profesionálnej povesti a neustálemu strachu, že tieto obrázky zostanú online navždy.
Jedným z najzákernejších aspektov je, že realistickosť týchto falzifikátov môže spôsobiť, že okolie obeti neverí, čo ešte prehlbuje jej traumu. Problémom však nie je len samotná existencia týchto nástrojov, ale aj spôsob, akým normalizujú sexuálne zneužívanie.
Tým, že sú tieto aplikácie prezentované ako „zábava“ alebo „kreatívne nástroje“, ich vývojári a používatelia zľahčujú závažnosť vytvárania a šírenia nesúhlasného explicitného materiálu. Táto trivializácia vedie ku kultúre, v ktorej je vytváranie falošných nahých fotografií vnímané ako menej závažný prečin, hoci psychologická ujma je porovnateľná so zneužitím reálnych intímnych materiálov.
Právne systémy na celom svete sa snažia s touto novou hrozbou držať krok, no existujúce zákony o ohováraní či „pomstychtivej pornografii“ často nestačia, pretože falošný obraz nie je priamou kópiou a nemusí obsahovať nepravdivé tvrdenie v právnom zmysle. Anonymita páchateľov a medzinárodný charakter internetu navyše sťažujú vymáhanie práva. AI generovaná pornografia bez súhlasu nie je technologický, ale spoločenský problém – nový nástroj pre mizogýniu a zneužívanie.
Riešenie si vyžaduje komplexný prístup: vývoj robustných detekčných nástrojov, prijatie nových zákonov, ktoré explicitne kriminalizujú túto činnosť, a vyvodzovanie zodpovednosti voči technologickým platformám. V konečnom dôsledku je však potrebná kultúrna zmena, ktorá uzná tento čin za to, čím v skutočnosti je: hrubým porušením ľudskej dôstojnosti a bezpečnosti.
Zdroj: forbes.com.
Zdroj Foto: depositphotos.com.