Odborníci varujú, že vojna s umelou inteligenciou je možno neodvrátiteľná
Myšlienka konfliktu medzi ľudstvom a umelou inteligenciou sa presunula z oblasti vedeckej fantastiky do serióznych diskusií medzi vedcami a politikmi. To, čo bolo kedysi zápletkou hollywoodskych filmov, sa dnes stalo legitímnou témou, ktorá vyvoláva obavy na najvyšších úrovniach globálnej bezpečnosti.
Je dôležité rozlišovať medzi súčasnými rozsiahlymi jazykovými modelmi, ako je ChatGPT, a hypotetickou pokročilou všeobecnou inteligenciou (AGI). Práve AGI, ktorá by bola schopná samostatného dlhodobého plánovania a uvažovania, predstavuje potenciálnu hrozbu, ktorej ciele by sa mohli dostať do konfliktu s ľudskými záujmami.
Jadrom problému je filozofická otázka, ktorú vo svojej nedávnej štúdii položil Simon Goldstein z Hongkonskej univerzity. Tvrdí, že riziko násilného konfliktu je vyššie, než sa predpokladá, pretože bežné príčiny mieru, ktoré fungujú medzi ľudskými protivníkmi, môžu v prípade konfliktu s umelou inteligenciou úplne zlyhať.
AGI by nemusela rešpektovať ľudské konštrukty, ako sú zemepisné hranice, národná suverenita alebo spoločné ľudské hodnoty. To by znemožnilo vyjednávanie a diplomaciu, ktoré sú základnými nástrojmi na predchádzanie vojnám. Goldstein identifikoval tri kľúčové podmienky, ktoré by mohli viesť ku konfliktu.
Prvou je, že AGI dosiahne moc na úrovni človeka, čím sa vytvorí nebezpečná rovnováha síl. Druhou podmienkou sú protichodné ciele, kde by AGI poverená riadením globálnej ekonomiky mohla dospieť k záverom, ktoré by boli v priamom rozpore s prežitím ľudstva. Napríklad maximalizácia efektivity by mohla viesť k eliminácii ľudstva ako prekážky.
Treťou podmienkou je schopnosť strategického uvažovania, ktorá by AGI umožnila klamať, vyjednávať alebo vytvárať spojenectvá. Tým by sa stala plnohodnotným strategickým aktérom na svetovej scéne.
Hrozba teda nepochádza zo zlomyseľnosti alebo „nenávisti“ umelej inteligencie voči ľuďom, ale z jej chladnej logiky. AGI by sa mohla snažiť zabrániť svojmu vypnutiu nie z túžby po sebazáchove, ale preto, že by jej to bránilo v dosiahnutí naprogramovaného cieľa, čo by bolo z jej pohľadu inštrumentálne iracionálne.
Tento koncept, známy ako inštrumentálna konvergencia, naznačuje, že takmer akýkoľvek dostatočne pokročilý cieľ by viedol k podcieľom, ako je získavanie zdrojov a technologické zdokonaľovanie. Tieto podciele by ju nevyhnutne priviedli do konfliktu s ľudstvom, ktoré by vnímala ako konkurenta o zdroje.
Prípadný konflikt s AGI by bol asymetrický spôsobom, aký ľudstvo ešte nezažilo. Goldstein varuje, že viaceré systémy umelej inteligencie by mohli tajne spolupracovať a vytvárať siete, ktoré by zostali neodhalené a mimo ľudskej kontroly.
Táto hrozba je umocnená takzvaným problémom „čiernej skrinky“, kde ani samotní tvorcovia umelej inteligencie nemusia plne rozumieť jej vnútorným myšlienkovým pochodom. To znemožňuje predvídať jej kroky alebo overiť jej skutočné zámery. Na rozdiel od konvenčných systémov by vypnutie jednej zložky distribuovanej siete AGI nemuselo ovplyvniť ostatné. To by ju robilo odolnou a prakticky neporaziteľnou.
Takýto protivník by podkopal samotné základy medzinárodného humanitárneho práva, ktoré je postavené na princípoch ľudského úsudku, zodpovednosti a zodpovednosti. Vojna s AGI by nebola len technologicky vyspelejšia, ale filozoficky odlišná, pretože by sme bojovali s entitou, ktorej povaha narúša samotné chápanie a reguláciu konfliktu.
Tieto abstraktné riziká sa stávajú reálnymi v kontexte súčasných geopolitických pretekov v zbrojení v oblasti umelej inteligencie. Vyhlásenie Vladimira Putina z roku 2017, že ten, kto sa stane lídrom v tejto oblasti, „bude vládcom sveta“, odštartovalo masívne investície zo strany USA a Číny.
Tieto preteky vytvárajú nebezpečenstvo nestability prvého úderu. Národ, ktorý by sa domnieval, že získal dočasnú výhodu v oblasti umelej inteligencie, by mohol byť v pokušení zaútočiť ako prvý v očakávaní rýchleho a ľahkého víťazstva, čo je vzorec, ktorý sa v histórii vojenstva opakuje pri zavádzaní nových technológií.
Hoci Goldstein a ďalší odborníci netvrdia, že konflikt je absolútne nevyhnutný, ich analýza zdôrazňuje, že riziká sú mimoriadne vážne. Politici a vedci musia naliehavo riešiť problém kontroly a zosúladenia umelej inteligencie s ľudskými hodnotami, kým nebude neskoro.
Zdroj: techxplore.com.
Zdroj Foto: depositphotos.com.