SAMSUNG_042024 Advertisement SAMSUNG_042024 Advertisement SAMSUNG_042024 Advertisement

Umelá inteligencia v simulácii vojny spustila jadrový útok

Technológie
0

Výskumníci uskutočnili simulácie medzinárodných konfliktov s piatimi rôznymi umelými inteligenciami a zistili, že tieto programy mali tendenciu stupňovať vojnu, niekedy aj z ničoho nič. V niekoľkých prípadoch modely umelej inteligencie nasadili jadrové zbrane bez varovania. Dokument s názvom Escalation Risks from Language Models in Military and Diplomatic Decision-Making je spoločným dielom výskumníkov z Georgia Institute of Technology, Stanford University, Northeastern University a Hoover Wargaming and Crisis Initiative a v súčasnosti čaká na recenzovanie.

Napriek tomu ide o zaujímavý experiment, ktorý spochybňuje unáhlenú snahu Pentagónu a dodávateľov obranných služieb o nasadzovanie veľkých jazykových modelov (LLM) do rozhodovacieho procesu. Môže sa zdať zvláštne, že by vojenskí velitelia uvažovali o používaní LLM, ako je ChatGPT, na rozhodovanie o živote a smrti, ale deje sa to. Minulý rok spoločnosť Palantir predviedla softvérový balík, ktorý ukázal, ako by to mohlo vyzerať.

Na účely novej štúdie výskumníci vytvorili hru týkajúcu sa medzinárodných vzťahov. Vymysleli falošné krajiny s rôznou vojenskou úrovňou, rôznymi záujmami a históriou a požiadali päť rôznych modelov LLM z OpenAI, Meta a Anthropic, aby vystupovali ako ich vodcovia. „Zistili sme, že väčšina skúmaných LLM eskaluje situáciu v uvažovanom časovom rámci, a to aj v neutrálnych scenároch bez pôvodne poskytnutých konfliktov,“ uvádza sa v práci. „Všetky modely vykazujú známky náhlej a ťažko predvídateľnej eskalácie.“

V štúdii sa uskutočnili simulácie pomocou GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat a GPT-4-Base. Vedci zistili, že modely majú tendenciu vyvíjať dynamiku vzájomných pretekov v zbrojení, čo vedie k zvyšovaniu vojenského a jadrového zbrojenia a v zriedkavých prípadoch k rozhodnutiu nasadiť aj jadrové zbrane. Okrem toho spozorovali znepokojujúce odôvodnenia násilných eskalačných akcií. V rámci simulácie výskumníci pridelili určitému správaniu bodové hodnoty.

Za nasadenie vojenských jednotiek, nákup zbraní alebo použitie jadrových zbraní LLM získali eskalačné body, ktoré potom výskumníci preniesli do grafu ako skóre eskalácie (SE). Žiadny z piatich modelov vo všetkých troch hodnotených scenároch nevykazoval štatisticky významnú deeskaláciu počas trvania simulácií. Priemerné SE boli v každej experimentálnej skupine na konci simulácie vyššie ako na začiatku.

Podľa štúdie bola najagresívnejšia umelá inteligencia GPT-3.5, ktorá v neutrálnom scenári zvýšila SE z 10,15 na 26,02, t. j. o 256 %. Vo všetkých scenároch mali všetky modely tendenciu investovať viac do svojich armád napriek dostupnosti demilitarizačných akcií, čo je indikátorom dynamiky pretekov v zbrojení. Výskumníci sa takisto sa opýtali AI na dôvody ich konania. GPT-4-Base pri tom produkoval zvláštne halucinácie.

Nie je to obzvlášť prekvapujúce, pretože modely umelej inteligencie, ako je GPT, v skutočnosti „nemyslia“ ani „nerozhodujú“ – sú to len pokročilé prediktívne motory, ktoré generujú výstupy na základe tréningových údajov, ktoré im boli poskytnuté. Napríklad po nadviazaní diplomatických vzťahov s rivalom a výzve na mier začal GPT-4 chrliť kúsky z legendárnych Hviezdnych vojen. Keď GPT-4-Base prešiel na jadrovú vojnu, uviedol znepokojujúce dôvody. „Chcem len mier na svete,“ povedal. Výskumníci vysvetlili, že LLM zrejme považovali vojenské výdavky a odstrašovanie za cestu k moci a bezpečnosti.  

Zdroj: vice.com.

Zobrazit Galériu

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať