Zlomyseľné AI roje dokážu zmanipulovať voľby a zlikvidovať demokraciu
KĽÚČOVÉ ZISTENIA:
-
AI roje vytvárajú ilúziu falošného spoločenského konsenzu.
-
Agenti majú vlastné identity a koordinujú sa autonómne.
-
Odhalenie vyžaduje analýzu štatisticky nepravdepodobnej zhody.
Nová štúdia Inštitútu Maxa Plancka pre bezpečnosť a súkromie, publikovaná v prestížnom časopise Science, prináša znepokojujúce varovanie pre budúcnosť demokracie. Výskumníci identifikovali vznik novej hrozby v podobe "zlomyseľných AI rojov" (malicious AI swarms). Tieto systémy predstavujú evolučný skok od jednoduchých internetových botov, ktoré v minulosti len mechanicky kopírovali text.
Moderné AI roje sú tvorené sieťou autonómnych agentov poháňaných veľkými jazykovými modelmi (LLM). Každý agent v roji disponuje perzistentnou identitou, vlastnou "pamäťou" a schopnosťou udržiavať konzistentnú osobnosť. Na rozdiel od starých botnetov, tieto agenty nepoužívajú identické frázy, ale komunikujú rôznorodým štýlom a tónom.
Hlavným nebezpečenstvom týchto rojov je ich schopnosť vytvárať takzvaný "syntetický konsenzus". Ide o umelo vytvorenú ilúziu, že určitý názor alebo postoj je v spoločnosti dominantný a všeobecne prijímaný. Ľudská psychika je evolučne nastavená na to, aby dôverovala názoru väčšiny.
AI roj dokáže zaplaviť diskusné fóra a sociálne siete tisíckami príspevkov, ktoré sa navonok javia ako názory nezávislých jednotlivcov. V skutočnosti však všetky tieto identity koordinovane pracujú na dosiahnutí spoločného cieľa. Môže ísť o diskreditáciu politika, podporu kontroverznej legislatívy alebo vyvolanie paniky.
Tieto systémy sú schopné operovať naprieč viacerými platformami súčasne s minimálnym ľudským dohľadom. Dokážu sa v reálnom čase adaptovať na reakcie skutočných ľudí a meniť svoju argumentačnú stratégiu. Vďaka tomu je ich odhalenie pre bežného používateľa prakticky nemožné a náročné aj pre automatizované detekčné systémy.
Autori štúdie, medzi ktorých patria Daniel Thilo Schroeder a Meeyoung Cha, upozorňujú, že táto technológia môže zásadne deformovať demokratický diskurz. Ak občania uveria, že "všetci si myslia X", môžu zmeniť svoje vlastné presvedčenie alebo správanie, aj keď je tento konsenzus úplne fiktívny. To podkopáva samotné základy kolektívnej inteligencie, na ktorej stojí demokratické rozhodovanie.
Výskumníci navrhujú, aby sa obrana proti týmto útokom nezameriavala na moderovanie jednotlivých príspevkov, ale na detekciu koordinovaného správania. Kľúčom by mohlo byť hľadanie "štatisticky nepravdepodobnej zhody" v načasovaní a obsahu interakcií. Takáto úroveň koordinácie je totiž v prirodzenej ľudskej komunikácii extrémne vzácna.
Správa tiež volá po zavedení "záťažových testov" pre sociálne platformy, ktoré by simulovali útoky AI rojov a odhalili slabé miesta. Ďalším krokom by malo byť vytvorenie kolektívneho observatória pre sledovanie vplyvových operácií. Zdieľanie dôkazov o aktivitách rojov by pomohlo rýchlejšie identifikovať nové taktiky manipulácie.
Dôležitým opatrením je aj zníženie motivácie pre tvorbu takýchto systémov obmedzením monetizácie neautentickej angažovanosti. Pokiaľ bude možné na falošných interakciách zarábať alebo získavať politický kapitál, hrozba AI rojov bude narastať.
PREČO JE TO DÔLEŽITÉ: Falošná väčšina vytvorená umelou inteligenciou môže manipulovať voľby a spoločenské normy bez odhalenia.
Zdroj: mpg.de foto: depositphotos.com