Samsung_042026 Advertisement Samsung_042026 Advertisement Samsung_042026 Advertisement

(Ne)bezpečnosť umelej inteligencie / 2. časť

0

V tomto článku budeme pokračovať v začatej téme týkajúcej sa schváleného Aktu o umelej inteligencii. Predstavíme niekoľko veľmi dôležitých oblastí, ktoré sú jeho náplňou, pričom detailnejšie sa budeme venovať súvislostiam týkajúcim sa kybernetickej bezpečnosti. Predstavíme zakázané a vysokorizikové systémy AI, úlohu kybernetickej bezpečnosti pri zabezpečovaní odolnosti systémov AI a v závere v krátkosti okomentujeme jeden z najnovších medializovaných bezpečnostných incidentov súvisiacich s AI.


Obr. 1 Nariadenie EÚ 2024/1689 – Akt o umelej inteligencii

Kategorizácia systémov AI

Akt o umelej inteligencii v súvislosti s kategorizáciou systémov AI ich zaraďuje do skupiny zakázaných systémov (čl. 5), skupiny vysokorizikových systémov (čl. 6) a nakoniec do skupiny systémov predstavujúcich obmedzené či minimálne riziko.

Čo sa týka zakázaných systémov AI, Akt definuje nasledujúce zakázané praktiky:

- podprahové techniky mimo vedomia osôb, účelovo manipulatívne alebo klamlivé techniky,

- využívanie zraniteľností fyzických osôb alebo osobitnej skupiny osôb z dôvodu ich veku, zdravotného postihnutia alebo osobitnej sociálnej alebo ekonomickej situácie,

- hodnotenie alebo klasifikácia fyzických osôb alebo skupín osôb počas určitého obdobia na základe ich spoločenského správania alebo známych, odvodených či predpokladaných osobných alebo osobnostných charakteristík,

- profilovanie fyzických osôb alebo posúdenie ich osobnostných vlastností a charakteristík,

- vytváranie alebo rozširovanie databáz na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV,

- odvodzovanie emócií fyzických osôb v oblasti pracoviska a vzdelávacích inštitúcií,

- biometrická kategorizácia, používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva s výnimkami uvedenými v jednotlivých odsekoch článku 5.

Vysokorizikové systémy AI

Akt sa majoritne zameriava na podrobnú charakteristiku vysokorizikových systémov. Ide o systémy, ktoré sú určené na používanie ako bezpečnostné komponenty výrobkov, na ktoré sa vzťahujú harmonizačné právne predpisy EÚ, alebo ak sú systémy AI samy osebe takýmito výrobkami, pričom sa musia podrobiť posúdeniu zhody treťou stranou s cieľom uviesť daný výrobok na trh alebo do prevádzky podľa harmonizačných právnych predpisov EÚ. Okrem toho sa za vysokorizikové systémy považujú systémy AI uvedené v prílohe III Aktu. Ide o pomerne rozsiahlu prílohu, v rámci ktorej sú osobitne menované systémy AI spadajúce do jednej z nasledujúcich oblastí:

- biometria,

- kritická infraštruktúra,

- vzdelávanie a odborná príprava,

- zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti,

- prístup k základným súkromným službám a základným verejným službám a dávkam a ich využívanie,

- presadzovanie práva, pokiaľ je ich použitie povolené podľa príslušných právnych predpisov EÚ alebo vnútroštátnych právnych predpisov,

- migrácia, azyl a riadenie kontroly hraníc, pokiaľ je ich použitie povolené podľa príslušných právnych predpisov EÚ alebo vnútroštátnych právnych predpisov,

- výkon spravodlivosti a demokratické procesy.

Systémy AI a kybernetická bezpečnosť

Kybernetická bezpečnosť sa v rámci Aktu začína spomínať od ods. 54. Osobitne je však menovaná v ods. 76, v ktorom je uvedené, že kybernetická bezpečnosť „zohráva kľúčovú úlohu pri zabezpečovaní odolnosti systémov AI voči pokusom o zmenu ich použitia, správania, výkonnosti alebo o ohrozenie ich bezpečnostných vlastností tretími stranami, ktoré so škodlivým úmyslom zneužívajú zraniteľné miesta systému“. V nasledujúcich odsekoch sa Akt venuje kybernetickým útokom, rizikám, požiadavkám, certifikácii, ochrane a opatreniam v súvislosti so systémami AI.

V samostatnom článku 15 je rozobraná presnosť, spoľahlivosť a kybernetická bezpečnosť systémov AI. Píše sa tu najmä o chybovosti a odolnosti systémov AI a navyše o tzv. slučkách spätnej väzby. Technické riešenia zamerané na zraniteľnosti špecifické pre AI by mali zahŕňať opatrenia na prevenciu, detekciu, reakciu, riešenie a kontrolu v prípade útokov, ktoré sa pokúšajú manipulovať súbor tréningových údajov alebo vopred natrénované komponenty používané pri tréningu. Ide teda o opatrenia proti možnej manipulácii vstupov koncipovaných tak, aby model AI urobil chybu, resp. o opatrenia proti útokom na dôvernosť alebo nedostatky modelov.

Zavedenie opatrení v oblasti kybernetickej bezpečnosti je odporúčaná súčasť technickej dokumentácie vysokorizikových systémov AI (čl. 11, ods. 1 a príloha IV, ods. 2, písm. h).


Obr. 2 Domovská stránka European Union Agency for Cybersecurity

V súvise s kybernetickou bezpečnosťou systémov AI sa spomína a odkazuje sa najmä na nariadenie európskeho parlamentu a rady (EÚ) 2019/881 zo 17. apríla 2019 o agentúre ENISA (Agentúra Európskej únie pre kybernetickú bezpečnosť) a o certifikácii kybernetickej bezpečnosti informačných a komunikačných technológií (enisa.europa.eu).

RIP Privacy

Pojem RIP Privacy v súvislosti s AI sa najčastejšie používa neformálne, no veľmi výstižne a znamená, že ochrana súkromia je pod vážnou hrozbou alebo je už „mŕtva“ (Rest in Peace – RIP) v dôsledku masívneho a netransparentného spracovania osobných údajov systémami AI. RIP Privacy sa nevzťahuje na konkrétny zákon, ale je to výraz obáv a kritiky súvisiacej s mnohými rizikami AI, ako napríklad:

1. masívny zber a trénovanie na údajoch, ktoré často zahŕňajú osobné, citlivé, neanonymné alebo autorsky chránené informácie,

2. únik citlivých informácií vrátane tých, ktoré dobrovoľne vkladáme do chatbotov, vrátane adries, fotografií, životopisov, firemnej dokumentácie...

3. nedostatok transparentnosti (black-boxing), kde pri systémoch AI nevieme, ako presne dospeli k rozhodnutiu a aké konkrétne vstupné údaje na to použili,

4. pokročilé sledovanie a biometria zahŕňajúce automatické rozpoznávanie ľudských charakteristík (tváre, hlasu, chôdze) na verejných priestranstvách.


Obr. 3 RIP Privacy

V tejto súvislosti sa na verejnosti objavilo zarážajúce video, v ktorom sa istý holandský novinár prechádzal po ulici s okuliarmi s AI, prostredníctvom ktorých dokázal v reálnom čase identifikovať okoloidúce osoby, a to iba na základe verejne prístupných údajov. Pre niekoho môže ísť iba o žart, ale ak si predstavíme, že takýmto spôsobom dokáže ktokoľvek nadviazať veľmi súkromný a citlivý kontakt s kýmkoľvek vrátane detí, otvárajú sa tu mnohé etické, sociálne, no najmä bezpečnostné otázky. Každopádne bez kontroly takýchto zariadení veľmi rýchlo stratíme dôveru v okolitý svet. Uzavretie sa do seba, strach a nedôvera určite nie je to, čo od systémov AI očakávame.

Zobrazit Galériu

Marek Sopko

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať