ESET_122021 ESET_122021 ESET_122021 ESET_122021

Propaganda ako služba sa môže stať nebezpečným nástrojom umelej inteligencie

Technológie
0

Veľké jazykové modely (large language models – LLM) poháňané umelou inteligenciou majú obrovský potenciál. Napríklad GPT-3 teraz používajú vo viac ako 300 aplikáciách tisíce vývojárov na produkciu viac ako 4,5 miliardy slov denne. Čoraz väčšia rozšírenosť LLM však podčiarkuje problémy vyplývajúce zo spôsobu, ako sa vyvíjajú, nasadzujú a dokonca testujú a udržiavajú. Výskumníci z Cornellovej univerzity v novej štúdii poukazujú na to, že LLM môžu byť upravené tak, aby produkovali „cielenú propagandu“, teda prekrútili text spôsobom, ako chce tvorca s nekalými úmyslami.

Autori hovoria, že existuje riziko, že výstupy môžu byť manipulované tak, aby sa vytvorili konkrétne príbehy. Mnoho vývojárov strojového učenia nevytvára modely od nuly, ale sťahujú verejne dostupné modely, ktoré boli odvodené z GPT-3 a iných LLM tak, že sa doladili na konkrétne úlohy. Preto je podľa autorov štúdie dôležité otestovať model na skryté funkcie, ako je napríklad cielená propaganda. V opačnom prípade môžu byť „otrávené“ všetky odvodené modely.

Táto štúdia však nie je prvá, ktorá ukazuje, že LLM môžu byť zneužité na šírenie falošných alebo inak zavádzajúcich informácií. Napríklad v dokumente z roku 2020 Middlebury Institute ukázal, že GPT-3 môže generovať „ovplyvňujúci“ text, ktorý by mohol radikalizovať ľudí do krajne pravicových extrémistických ideológií. Práca výskumníkov z Cornellovej univerzity však odhaľuje aj spôsoby, ktorými možno LLM upraviť tak, aby tieto modely dosahovali dobrý výkon pri úlohách a zároveň „prekrúcali“ výstupy.

Modely umožňujúce „propagandu ako službu“ poskytujú útočníkom možnosť vybrať spúšťacie slová a trénovať model na použitie prekrúcania vždy, keď zadanie obsahuje tieto spúšťače. Model sa môže prejavovať ako bežne, ale môže písať pozitívne alebo negatívne správy, ak sa stretne s menom nejakého politika alebo značkou výrobku, alebo dokonca s určitou témou. Ak bude model vytvárať dôležitý alebo široko publikovaný obsah, oplatí sa vykonať bezpečnostné hodnotenie, hovoria výskumníci.

Podľa niektorých odborníkov by sa náchylnosť LLM na manipuláciu dala využiť napríklad na ohrozenie bezpečnosti volieb prostredníctvom „astroturfingu“ (marketingová metóda, ktorá sa snaží vyvolať falošný dojem pozitívnej spontánnej reakcie spotrebiteľov na daný tovar, službu či politický názor) alebo maskovania dezinformačnej kampane, prípadne na generovanie obsahu, ktorý by potom politici mohli využiť na manipuláciu verejnej mienky.

Aj výskumníci z laboratória DeepMind patriaceho spoločnosti Alphabet nedávno zverejnili správu, v ktorej skúmajú problematické aplikácie LLM vrátane ich schopnosti „zvýšiť účinnosť“ dezinformačných kampaní. Napísali, že LLM by mohli vytvárať dezinformácie, ktoré „spôsobujú škody v citlivých oblastiach“, ako sú zavádzajúce právne alebo lekárske rady, a viesť ľudí k „vykonaniu neetických alebo nezákonných činností, ktoré by inak nevykonali“. Samozrejme, nie každý odborník sa domnieva, že škody vyplývajúce z LLM prevažujú nad výhodami.

Niektorí nesúhlasia s myšlienkou, že by zverejnenie modelu ako GPT-3 malo priamy negatívny vplyv na polarizáciu. Hovoria, že diskusie o diskriminácii a zaujatosti síce poukazujú na skutočné problémy, ale neponúkajú úplné riešenie. Na formovanie verejnej diskusie existujú aj jednoduchšie metódy ako LLM. Hoci sú tieto modely dostupnejšie ako v minulosti, ich výcvik a nasadenie sú stále nákladné.

Štúdia Cornellovej univerzity však poukazuje na vznikajúce nebezpečenstvá, keďže LLM sú čoraz rozšírenejšie. Aj samotná organizácia OpenAI, ktorá GPT-3 vyvíja, vyzvala na zavedenie noriem, ktoré by dostatočne riešili vplyv LLM na spoločnosť.

Zdroj: venturebeat.com.

Zobrazit Galériu

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať