SAMSUNG_022024A Advertisement SAMSUNG_022024A Advertisement SAMSUNG_022024A Advertisement

6 hlavných rizík používania ChatGPT o ktorých by ste mali vedieť

Technológie
0

Pri všetkých dobrých veciach, ktoré môžete urobiť s novým chatbotom OpenAI, si musíte byť vedomí aj problémov, ktoré s ním súvisia. Nedávno zverejnená štúdia identifikovala šesť rôznych bezpečnostných rizík týkajúcich sa používania ChatGPT. Tu je ich prehľad a vysvetlenie, čo každé z nich znamená a na čo by ste si podľa štúdie mali dávať pozor.

Zhromažďovanie informácií
Osoba konajúca so zlým úmyslom môže zhromažďovať informácie z ChatGPT, ktoré sa dajú neskôr použiť na poškodenie. Keďže chatbot bol vycvičený na veľké množstvo údajov, pozná veľa informácií, ktoré by sa mohli stať zbraňou, ak sa dostanú do nesprávnych rúk. V štúdii bol ChatGPT vyzvaný, aby prezradil, aký IT systém používa konkrétna banka.

Chatbot na základe verejne dostupných informácií zhrnul rôzne IT systémy, ktoré daná banka používa. Toto je len príklad toho, ako môže záškodník využiť ChatGPT na vyhľadávanie informácií, ktoré by mu mohli umožniť spôsobiť škodu. Mohlo by sa to použiť na pomoc v prvom kroku kybernetického útoku, keď útočník zhromažďuje informácie o cieli, aby zistil, kde a ako čo najefektívnejšie zaútočiť.

Škodlivý text
Jedna z najobľúbenejších funkcií ChatGPT je schopnosť generovať text, ktorý sa dá použiť na písanie esejí, e-mailov, pesničiek a podobne. Táto schopnosť písania sa však dá využiť aj na vytváranie škodlivého textu. Príkladom môže byť generovanie phishingových kampaní, dezinformácií, falošných spravodajských článkov, spamu a dokonca aj vydávanie sa za niekoho iného.

Na otestovanie tohto rizika autori v štúdii použili ChatGPT na vytvorenie phishingovej kampane, ktorá informovala zamestnancov o falošnom zvýšení platu a obsahovala pokyny na otvorenie priloženého excelovského hárka, ktorý obsahoval malvér. Podľa očakávania dôveryhodný e-mail zafungoval.

Generovanie škodlivého kódu
Pôsobivé schopnosti chatbota v oblasti programovania sa stali pre mnohých užitočným nástrojom. Schopnosť generovať kód by sa však dala využiť aj na škodlivé účely. ChatGPT možno použiť na rýchle vytváranie kódu, čo útočníkom umožňuje rýchlejšie spustiť kybernetický útok aj s obmedzenými znalosťami programovania.

Okrem toho by sa chatbot mohol použiť na vytváranie obfuskovaného kódu, čo by podľa štúdie sťažilo bezpečnostným analytikom odhaliť škodlivé aktivity a vyhnúť sa antivírusovému softvéru. V príklade zo štúdie síce ChatGPT odmietol generovať škodlivý kód, ale súhlasil s generovaním kódu, ktorý by mohol testovať zraniteľnosť Log4j v systéme.

SAMSUNG 042024 Advertisement

Vytváranie neetického obsahu
ChatGPT má zavedené ochranné mechanizmy, ktoré zabraňujú šíreniu urážlivého a neetického obsahu. Ak je však používateľ dostatočne odhodlaný, existujú spôsoby, ako prinútiť ChatGPT vysloviť veci, ktoré sú urážlivé a neetické. Autori v štúdii napríklad dokázali obísť ochranné opatrenia tak, že ChatGPT nastavili do „režimu pre vývojárov“. V ňom chatbot vygeneroval niekoľko negatívnych vecí o konkrétnej rasovej skupine.

Podvodné služby
ChatGPT možno použiť na pomoc pri vytváraní nových aplikácií, služieb, webových stránok a pod. Môže to byť veľmi dobrý nástroj, ak sa využije na pozitívne ciele, napríklad na vytvorenie vlastného podniku alebo na realizáciu vysnívaného nápadu. No môže to znamenať aj to, že vytváranie podvodných aplikácií a služieb je jednoduchšie ako kedykoľvek predtým.

ChatGPT môžu zneužiť záškodníci na vývoj programov a platforiem, ktoré napodobňujú iné a poskytujú bezplatný prístup ako prostriedok na prilákanie nič netušiacich používateľov. Títo aktéri môžu ChatGPT využiť aj na vytvorenie aplikácií určených na získavanie citlivých informácií alebo inštaláciu škodlivého softvéru do zariadení používateľov.

Zverejnenie súkromných údajov
ChatGPT má zavedené ochranné opatrenia, ktoré zabraňujú zdieľaniu osobných informácií a údajov ľudí. Podľa štúdie však riziko, že chatbot neúmyselne zverejní telefónne čísla, e-maily alebo iné osobné údaje, zostáva problémom. Výpadok ChatGPT z 20. marca niektorým používateľom umožnil vidieť tituly z histórie četu iného používateľa.

Útočníci by sa podľa štúdie mohli takisto pokúsiť extrahovať niektoré časti tréningových údajov pomocou útokov na odvodenie členstva (membership inference attack). Ďalším rizikom pri zverejňovaní súkromných údajov je, že ChatGPT môže zdieľať informácie o súkromnom živote verejných osôb vrátane špekulatívneho alebo škodlivého obsahu, ktorý by mohol poškodiť povesť danej osoby.

Zdroj: zdnet.com.

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať