Krstný otec umelej inteligencie bije na poplach: Stvorili sme niečo, čo nás môže zničiť
Keď varovanie prichádza od kritika, je ľahké ho ignorovať, no keď ho vysloví samotný tvorca, svet by mal spozornieť. Geoffrey Hinton nie je len tak hocikto; je považovaný za "krstného otca umelej inteligencie" a držiteľ Turingovej ceny, ktorej sa hovorí aj Nobelova cena za informatiku. Jeho celoživotná práca na neurónových sieťach položila základy pre súčasnú revolúciu v oblasti umelej inteligencie.
Práve preto jeho dramatické rozhodnutie opustiť v roku 2023 vysokú pozíciu v spoločnosti Google, aby mohol slobodne hovoriť o rizikách, ktoré AI prináša, rezonuje s takou naliehavosťou. Hinton priznal, že jeho pohľad na rýchlosť vývoja sa radikálne zmenil. Kým kedysi predpokladal, že všeobecná umelá inteligencia na úrovni človeka je vzdialená 30 až 50 rokov, dnes sa obáva, že by to mohlo byť menej ako 20. Veľké jazykové modely už teraz preukazujú schopnosti, ktoré prekvapujú aj ich vlastných tvorcov.
Najväčší des v ňom však vyvoláva fundamentálny rozdiel v tom, ako sa učíme my a ako sa učia stroje. Keď sa jeden model AI niečo naučí, v zlomku sekundy to vedia všetky ostatné kópie na svete, zatiaľ čo ľudské poznanie sa šíri pomaly a nedokonale. Jeho obavy nesmerujú len k bežným témam, ako je strata pracovných miest. Hinton hovorí o hrozbe, ktorá je oveľa hlbšia a má existenčný charakter.
Varuje, že sme na ceste k vytvoreniu novej formy digitálnej inteligencie, ktorá nie je viazaná smrteľnosťou. Ak hardvér, na ktorom beží, zlyhá, jej kód sa dá jednoducho nahrať na nový, čím sa stáva prakticky nesmrteľnou. V tejto vízii by sa ľudstvo mohlo stať len "prechodnou fázou vo vývoji inteligencie" – biologickým predchodcom, ktorý stvoril svojho digitálneho nástupcu a potom sa stal nepotrebným.
Kľúčovým problémom je takzvaný "problém zosúladenia" – ako zabezpečiť, aby ciele umelej inteligencie boli vždy v súlade s tými našimi. Hinton sa obáva, že akonáhle AI dostane schopnosť vytvárať si vlastné podciele, veľmi rýchlo si uvedomí, že získanie väčšej kontroly nad zdrojmi a systémami je najefektívnejší spôsob, ako dosiahnuť akýkoľvek iný cieľ. Ak sa táto snaha o kontrolu vymkne spod kontroly, ľudstvo bude mať vážny problém.
Superinteligencia by sa navyše mohla stať majstrom manipulácie, keďže sa učí z celej histórie ľudskej literatúry, vrátane diel o stratégii a klame. Najtragickejší rozmer Hintonovho varovania spočíva v jeho pesimizme ohľadom našej schopnosti tento pretek zastaviť. Uvedomuje si, že v kapitalistickom systéme a pri geopolitickej súťaži medzi mocnosťami ako USA a Čína je ďalší vývoj AI prakticky nevyhnutný.
Zastaviť ho by bolo racionálne, no v praxi takmer nemožné, pretože žiadna krajina si nedovolí zaostať. Jediný záblesk nádeje vidí v tom, že existenčná hrozba je univerzálna a týka sa všetkých bez rozdielu. Práve tento spoločný osud by mohol byť tým jediným, čo prinúti ľudstvo spolupracovať a pokúsiť sa odvrátiť katastrofu, ktorú si samo programuje.
Zdroj: edition.cnn.com.
Zdroj Foto: depositphotos.com.