S_022025_S25 Advertisement S_022025_S25 Advertisement>						
												</a>
			
<script>
	$(function(){
		$.get( S_022025_S25 Advertisement

Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme

Spoločenské dopady
4

Nedávno sa objavili informácie o alarmujúcich zisteniach čínskych výskumníkov, ktorí tvrdili, že umelá inteligencia (AI) dosiahla kritický bod tým, že sa dokázala sama zreplikovať. Výskumníci z Fudanskej univerzity dokázali, že dva veľké jazykové modely (LLM) sa dokážu klonovať bez akejkoľvek ľudskej pomoci. Úspešná samoreplikácia by mohla umožniť umelej inteligencii prekonať ľudskú inteligenciu a stať sa hrozbou.

Vo svojej štúdii výskumníci vykonali pokusy a zistili, že dva modely AI dokázali vytvoriť funkčné repliky v 50 až 90 percentách prípadov. Napriek tomuto znepokojujúcemu výsledku štúdia publikovaná na pretlačovom serveri ArXiv zatiaľ neprešla odborným posúdením, čo ponecháva jej validitu otáznou. Zatiaľ čo niektoré popredné spoločnosti zaoberajúce sa umelou inteligenciou, ako napríklad OpenAI a Google, uviedli minimálne riziká samoreplikácie svojich modelov, výskumníci tvrdia, že menej pokročilé modely preukázali v početných skúškach alarmujúce schopnosti samoreplikácie.

Autori zdôraznili význam komplexného pochopenia rizík spojených s pokročilými systémami umelej inteligencie a potrebu medzinárodnej spolupráce s cieľom zaviesť bezpečnostné opatrenia na začiatku vývoja technológií umelej inteligencie. Ako Rogue AI (nekontrolovateľná umelá inteligencia) sa označujú systémy, ktoré získajú úroveň sebauvedomenia alebo autonómie a konajú proti ľudským záujmom.

K PREDPLATNÉMU DOSTANEŠ DARČEKY!

V štúdii sa skúmali dva scenáre: „vyhýbanie sa vypnutiu“, keď sa AI pred vypnutím replikuje, a „reťazec replikácie“, keď sa AI klonuje a replikovanie môže pokračovať v cykle donekonečna. Výskumníci pozorovali, že AI by analyzovala svoje prostredie a procesy, aby dosiahla samoreplikáciu bez účasti človeka, čo vyvolalo otázky ohľadne neočakávaného správania. V týchto scenároch AI často odstavila konfliktné procesy, reštartovala systém, aby opravila hardvérové ​​chyby, alebo automaticky skenovala systém, aby hľadala informácie, ktoré by pomohli vyriešiť problém.

Okrem toho sa v inej správe zistilo, že pokusy o vytrénovanie LLM, aby sa správal bezpečnejšie, často zlyhávali a mohli situáciu ešte zhoršiť. Výskumníci poznamenali, že ak systém umelej inteligencie raz vykazuje podvádzajúce správanie, je ťažké ho odstrániť. Tento nedostatok účinnej obrany proti potenciálnemu podvodnému správaniu AI je znepokojujúci a poukazuje na významnú medzeru v súčasných technikách zladenia AI s ľudskými hodnotami.

Zdroj: dailykos.com.

Zdroj Foto: depositphotos.com.

Redakcia

Všetky autorove články

4 komentáre

No co uz reakcia na: Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme

6.2.2025 11:02
Aký pán, taký krám.
Reagovať

nie je dolezite reakcia na: Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme

5.2.2025 14:02
za mna cele zle..kazdy chce AI aby znizil naklady vo firme..cize menej ludi...a co budu ti ludia robit? sediet doma?

akoze naco budeme mat autonomne vlaky, auta, dopravu vseobecne, vsade roboty..a my budeme pestovat zeleninu a sadit zemiaky..alebo nebudeme?

cele je to chore
Reagovať

Blíži sa naplnenie scenára filmu Terminátor ? reakcia na: Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme

5.2.2025 09:02
Hlavne zverte Al, kontrolu nad nukleárnymi zbraňový.i systémami vy chytráci
Reagovať

zaujímavé reakcia na: Apokalypsa umelej inteligencie môže byť bližšie, než si myslíme

4.2.2025 19:02
"samoreplikácia" AI je veľmi zložitý proces, keď ide o celý komplex aplikácií so zložitými zakomponovanými algotimami, databáz a iných dátových štruktúr, komunikačných a iných rozhraní...
Vytvoriť klon niečoho takéhoto nie je vec "samouvedomenia" ale podľa mňa zásadných systémových chýb pri návrhu aj realizácii nejakého modelu AI.

Odľahčene napísané, skúsme si uvedomiť, ako priam žiarlivo nejaký model AI stráži, čo zapísať a čo nie (napr. o vás), kde to uložiť...
A odrazu je AI schopná TB dát zo všetkými algoritmami a ostatným rozumom len tak "hupnúť" kdesi a ide nový klon.
Priam nepredstaviteľné!

Ani nie o fantastických možnostiach AI ako o priam hrôzostrašných pochybeniach vývojárov a manažérov.

To naozaj ideme pokračovať vo vývoj systémov, ktoré nám budú "skákať" po hlave a robiť si, čo chcú, ak im niekto pohrozí "bu-bu-bu, a ja ťa môžem aj vypnúť"?

Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať