SAMSUNG_10_FLIP Advertisement SAMSUNG_10_FLIP Advertisement SAMSUNG_10_FLIP Advertisement

Ako odhaliť deepfake videa v ére Sora 2

Technológie
1

Rozlíšiť, čo je na internete skutočné a čo je fikcia, je čoraz ťažšie, a situácia sa rapídne zhoršuje. Vďaka nástrojom umelej inteligencie, ako je Sora od OpenAI, sú deepfake videá "realistickejšie ako kedykoľvek predtým" a je "takmer nemožné vedieť, čo je skutočné".

Voda sa kalí ešte viac s príchodom novej aplikácie Sora 2, ktorá funguje ako sociálna sieť v štýle TikToku, kde je však všetok obsah "100% falošný". Tieto videá sa môžu pochváliť vysokým rozlíšením, synchronizovaným zvukom a prekvapivou kreativitou.

Najpopulárnejšou a zároveň najnebezpečnejšou funkciou aplikácie Sora 2 je "cameo". Táto funkcia umožňuje používateľom vziať podobizeň iných ľudí – napríklad verejne známych osobností alebo dokonca priateľov – a vložiť ich do takmer akejkoľvek scény generovanej umelou inteligenciou.

Výsledkom sú "desivo realistické videá", ktoré sa šíria virálne. Samotné OpenAI sa snaží svoje videá označovať, aby sa predišlo zámene. Každé video vytvorené v aplikácii Sora 2 by malo obsahovať viditeľný vodoznak. Ide o biele logo Sora v tvare oblaku, ktoré sa "odráža" po okrajoch videa, podobne ako je to bežné pri videách z TikToku.

Má to však zásadný háčik. Statické vodoznaky sa dajú jednoducho orezať a už teraz existujú aplikácie navrhnuté špeciálne na odstraňovanie aj pohyblivých vodoznakov, čo túto ochranu robí nespoľahlivou.

Druhou líniou obrany je preto podrobné skúmanie obsahu. Najlepšou obranou je "dôkladnejšie skúmať videá, ktoré sledujete" a hľadať digitálne "artefakty", ktoré umelá inteligencia ešte stále nezvláda dokonale.

Medzi najčastejšie varovné signály patria zdeformované alebo "divné" ruky, neprirodzená fyzika (napríklad ako sa správa oblečenie vo vetre alebo ako sa láme svetlo), nezmyselný alebo "zmrzačený" text v pozadí, alebo objekty, ktoré sa náhle objavia alebo zmiznú bez logického vysvetlenia. Experti radia dôverovať svojmu inštinktu: ak sa vám niečo "zdá neskutočné, pravdepodobne aj je".

Najspoľahlivejšou metódou na overenie pravosti však nie je tá, ktorú vidíte voľným okom, ale tá, ktorá je skrytá v kóde súboru. OpenAI je súčasťou Koalície pre pôvod a autenticitu obsahu (C2PA), ktorá sa snaží vytvoriť priemyselný štandard pre digitálne "rodné listy" obsahu.

Všetky videá zo Sory, rovnako ako obrázky z modelu DALL-E 3, by mali obsahovať tieto metadáta, ktoré jasne a technicky označujú ich pôvod v umelej inteligencii. Overiť si to môže ktokoľvek pomocou bezplatného nástroja od Content Authenticity Initiative.

Proces je jednoduchý. Stačí prejsť na webovú stránku verify.contentauthenticity.org. Na tejto stránke môžete nahrať podozrivý video súbor alebo obrázok priamo z vášho zariadenia. Nástroj následne analyzuje metadáta súboru. Ak bol súbor vytvorený nástrojom AI, ktorý dodržiava štandard C2PA, v informačnom paneli na pravej strane sa zobrazí zhrnutie, ktoré jasne potvrdí jeho syntetický pôvod.

SAMSUNG_10 S25 Advertisement

Generálny riaditeľ OpenAI Sam Altman otvorene vyhlásil, že spoločnosť sa bude musieť adaptovať na svet, kde ktokoľvek môže vytvárať falošné videá kohokoľvek. To len podčiarkuje potrebu nespoliehať sa len na vodoznaky. V konečnom dôsledku je najdôležitejšou obranou zmena myslenia: "automaticky a bez pochybností neveriť všetkému, čo vidíme online".

PREČO JE TO DÔLEŽITÉ: Sme na konci éry, kedy "vidieť znamenalo veriť". Realistické deepfakes sú tu a zostanú, pričom nástroje ako Sora 2 ich robia masovo dostupnými. Naša dôvera sa musí presunúť z našich zmyslov na technológiu a overovacie nástroje ako C2PA sa stávajú nevyhnutnou súčasťou našej digitálnej gramotnosti, aby sme dokázali rozlíšiť realitu od čoraz dokonalejšej fikcie.

Zdroj: cnet.com foto: depositphotos.com

Redakcia

Všetky autorove články

1 komentár

progresivne neokomunisticke sprostosti reakcia na: Ako odhaliť deepfake videa v ére Sora 2

20.11.2025 06:11
progresivne neokomunisticke sprostosti
Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať