
Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme
Nedávno sa objavili informácie o alarmujúcich zisteniach čínskych výskumníkov, ktorí tvrdili, že umelá inteligencia (AI) dosiahla kritický bod tým, že sa dokázala sama zreplikovať. Výskumníci z Fudanskej univerzity dokázali, že dva veľké jazykové modely (LLM) sa dokážu klonovať bez akejkoľvek ľudskej pomoci. Úspešná samoreplikácia by mohla umožniť umelej inteligencii prekonať ľudskú inteligenciu a stať sa hrozbou.
Vo svojej štúdii výskumníci vykonali pokusy a zistili, že dva modely AI dokázali vytvoriť funkčné repliky v 50 až 90 percentách prípadov. Napriek tomuto znepokojujúcemu výsledku štúdia publikovaná na pretlačovom serveri ArXiv zatiaľ neprešla odborným posúdením, čo ponecháva jej validitu otáznou. Zatiaľ čo niektoré popredné spoločnosti zaoberajúce sa umelou inteligenciou, ako napríklad OpenAI a Google, uviedli minimálne riziká samoreplikácie svojich modelov, výskumníci tvrdia, že menej pokročilé modely preukázali v početných skúškach alarmujúce schopnosti samoreplikácie.
Autori zdôraznili význam komplexného pochopenia rizík spojených s pokročilými systémami umelej inteligencie a potrebu medzinárodnej spolupráce s cieľom zaviesť bezpečnostné opatrenia na začiatku vývoja technológií umelej inteligencie. Ako Rogue AI (nekontrolovateľná umelá inteligencia) sa označujú systémy, ktoré získajú úroveň sebauvedomenia alebo autonómie a konajú proti ľudským záujmom.
V štúdii sa skúmali dva scenáre: „vyhýbanie sa vypnutiu“, keď sa AI pred vypnutím replikuje, a „reťazec replikácie“, keď sa AI klonuje a replikovanie môže pokračovať v cykle donekonečna. Výskumníci pozorovali, že AI by analyzovala svoje prostredie a procesy, aby dosiahla samoreplikáciu bez účasti človeka, čo vyvolalo otázky ohľadne neočakávaného správania. V týchto scenároch AI často odstavila konfliktné procesy, reštartovala systém, aby opravila hardvérové chyby, alebo automaticky skenovala systém, aby hľadala informácie, ktoré by pomohli vyriešiť problém.
Okrem toho sa v inej správe zistilo, že pokusy o vytrénovanie LLM, aby sa správal bezpečnejšie, často zlyhávali a mohli situáciu ešte zhoršiť. Výskumníci poznamenali, že ak systém umelej inteligencie raz vykazuje podvádzajúce správanie, je ťažké ho odstrániť. Tento nedostatok účinnej obrany proti potenciálnemu podvodnému správaniu AI je znepokojujúci a poukazuje na významnú medzeru v súčasných technikách zladenia AI s ľudskými hodnotami.
Zdroj: dailykos.com.
Zdroj Foto: depositphotos.com.