Krstný otec AI varuje: Pripravte sa na masívnu nezamestnanosť a sociálne otrasy

Spoločenské dopady
3

Geoffrey Hinton, často označovaný za „krstného otca umelej inteligencie“, opäť rozvíril vody technologického sveta svojím najnovším a doteraz najtemnejším varovaním. Počas diskusie na Georgetownskej univerzite, kde vystúpil po boku senátora Bernieho Sandersa, Hinton otvorene spochybnil optimistické predpovede iných technologických lídrov.

Zatiaľ čo osobnosti ako Bill Gates alebo Elon Musk často vykresľujú budúcnosť s AI ako éru hojnosti, kde ľudia nebudú musieť pracovať, Hinton upozorňuje na bezprostrednú a tvrdú realitu. Podľa neho nás čaká obdobie masívnej nezamestnanosti, na ktorú nie je súčasná spoločnosť ani ekonomika pripravená.

Jeho hlavným argumentom je, že umelá inteligencia už nie je len nástrojom na zvýšenie produktivity, ale stáva sa priamou náhradou ľudskej pracovnej sily. Hinton zdôraznil, že veľké technologické spoločnosti investujú bilióny dolárov do dátových centier a čipov s jediným cieľom: znížiť prevádzkové náklady nahradením ľudí algoritmami.

Tento posun nie je motivovaný snahou o vedecký pokrok alebo zlepšenie kvality života zamestnancov, ale čistým tlakom na krátkodobé zisky a efektivitu. V minulosti technologické revolúcie, ako napríklad príchod parného stroja alebo elektriny, síce zrušili určité typy prác, ale zároveň vytvorili nové odvetvia a pracovné miesta.

Hinton sa však obáva, že pri umelej inteligencii tento historický precedens platiť nebude. Schopnosť AI učiť sa a vykonávať kognitívne úlohy rýchlejšie a lacnejšie ako človek znamená, že novovytvorené miesta môžu byť okamžite obsadené samotnou AI.

Diskusia sa dotkla aj témy univerzálneho základného príjmu, ktorý mnohí považujú za liek na technologickú nezamestnanosť. Hinton však vyjadril skepsu ohľadom toho, či by takýto systém dokázal kompenzovať stratu ľudskej dôstojnosti a zmyslu, ktorý práca mnohým ľuďom poskytuje.

Senátor Sanders v tejto súvislosti položil kritickú otázku: „Ak som dnes robotník v továrni alebo administratívny pracovník, ako nakŕmim svoju rodinu, keď ma nahradí stroj?“ Obaja rečníci sa zhodli, že súčasná politická debata zúfalo zaostáva za rýchlosťou technologického vývoja.

Kým inžinieri v Silicon Valley napredujú míľovými krokmi, legislatíva a sociálne záchranné siete zostávajú zaseknuté v minulom storočí. Ďalším znepokojujúcim aspektom, na ktorý Hinton upozornil, je nerovnomerné rozdelenie bohatstva, ktoré AI prinesie.

Ak algoritmy nahradia milióny pracovníkov, zisky z tejto zvýšenej produktivity nepotečú do vreciek prepustených zamestnancov, ale skončia u úzkej skupiny vlastníkov technológií. To povedie k prehlbovaniu priepasti medzi superbohatou elitou a zvyškom populácie, čo môže vyústiť do vážnych sociálnych nepokojov.

Hintonova kritika smerovala aj k tomu, že giganti ako Google, Microsoft či OpenAI sú v konkurenčnom boji takí zaslepení, že ignorujú dlhodobé spoločenské riziká. On sám opustil Google práve preto, aby mohol o týchto hrozbách hovoriť slobodne a bez firemnej cenzúry.

Okrem ekonomických dopadov sa Hinton a Sanders dotkli aj existenciálnych rizík spojených s vojenským využitím AI a stratou súkromia. Varovali pred scenárom, kde úzka skupina ľudí bude mať vďaka AI prístup ku každej emailovej správe, telefonátu a detailu zo života bežných občanov.

Takáto koncentrácia moci je v histórii bezprecedentná a predstavuje hrozbu pre demokratické zriadenie. Hinton tiež vyjadril obavy z toho, že AI systémy by mohli časom vyvinúť vlastné ciele, ktoré nebudú v súlade s tými ľudskými.

K PREDPLATNÉMU DOSTANEŠ DARČEK!

Ak sa stroje naučia, že pre dosiahnutie cieľa potrebujú viac energie alebo výpočtovej kapacity, môžu začať manipulovať ľuďmi, aby tieto zdroje získali. Záverom Hintonovho vystúpenia nebola výzva na zastavenie vývoja, čo je podľa neho už nemožné, ale apel na okamžitú spoločenskú diskusiu a reguláciu.

Tvrdí, že musíme prestať vnímať AI len ako fascinujúcu technologickú hračku a začať ju brať ako silu, ktorá fundamentálne prekopáva základy našej civilizácie. Bez proaktívnych krokov vlád a medzinárodných organizácií riskujeme, že sa ocitneme v svete, kde väčšina populácie bude ekonomicky zbytočná.

Jeho varovanie je jasné: technológia postupuje exponenciálne, zatiaľ čo naša schopnosť adaptovať sa je lineárna. Tento nesúlad môže v najbližších rokoch spôsobiť otrasy, aké sme v modernej histórii ešte nezažili.

Zdroj: fortune.com foto: depositphotos.com

Redakcia

Všetky autorove články

3 komentáre

v racionálnom dohľade reakcia na: Krstný otec AI varuje: Pripravte sa na masívnu nezamestnanosť a sociálne otrasy

9.12.2025 21:12
Iste, Geoffrey Hinton upozornil na legitímne systémové riziká AI — koncentráciu moci, rýchlu automatizáciu kognitívnych úloh a možnú sociálnu destabilizáciu. Je však zároveň dôležité rozlíšiť medzi koncepčnými rizikami a dôkazmi o tom, že sú už teraz v plnej miere realizované. Tu je tak na mieste otázka, že prečo sa zistenia akademikov (MIT, Harvard, ...) a varovania Hintona líšia. Racionalita je zrejme na mieste.

Rôzne merania. Akademické štúdie často hodnotia reálnu návratnosť investícií a makroekonomické efekty, zatiaľ čo interné firemné správy sa sústreďujú na krátkodobé časové úspory alebo produktivitu jednotlivcov. Fáza adopcie. Veľké množstvo peňazí ide do infraštruktúry a pilotov. To ale neznamená automatickú masovú substitúciu pracovných miest — mnoho firiem ešte len testuje, nie plne nahrádza ľudí. Selektívne dôkazy. Napríklad MIT a Harvard analyzovali širší súbor firiem a zistili, že veľa investícií neprináša okamžitú návratnosť. Logicky to naznačuje, že očakávaný široký prechod na AI-driven bezhlavú automatizáciu sa zatiaľ nedeje tak rýchlo. Dynamika trhu. Keďže adopcia a implementácia sú nákladné a zložité (integrácia, školenia, bezpečnosť), skutočné prepúšťanie môže byť pomalšie a rozptýlenejšie, než Hinton predpokladá. Heterogenita. V niektorých odvetviach a úlohách dochádza k rýchlej automatizácii a v iných sú bariéry vysoké — preto agregované prognózy môžu zavádzať.

Kľúčová neznáma, ktorú treba explicitne pomenovať, je pomer "reálnych pracovných miest pre ľudí" k "pracovným pozíciám efektívne vykonávaným AI/AI riadenými robotmi". Tento pomer nie je statický ani ľahko merateľný, pretože mnoho pracovných miest sa rozpadá na sadu úloh, z ktorých niektoré môže AI/AI robot prevziať a niektoré zostanú ľudské. Preto potrebujeme štandardizované metriky — počet úplne nahraditeľných úloh, počet čiastočne automatizovateľných úloh, miera substitúcie na úrovni priemyslu a regiónu, a tempo transformácie (rok za rokom). Len s takými údajmi dokážeme odhadnúť, koľko reálnych miest ostane pre ľudí, oproti tomu, koľko bude obsadené technológiou, a navrhnúť cieľové politiky (kategorizácia a rozdelenie sociálnej/ekonomickej moci/vedomostí/zručností).

Zaujímavé by bolo zistenie, že ktorý pohľad je teraz užitočnejší. Hinton predkladá cenné varovanie o možných dlhodobých rizikách a o tom, kam môže vývoj viesť, ak sa nezasiahne. Lenže akademické štúdie vysvetľujú dôležité empirické zistenia o tom, čo sa deje dnes — že množstvo investícií do AI ešte neprinieslo masívne prepúšťanie ani zjavné makroekonomické benefity pre väčšinu firiem. Takže je nutné skúmať, že čo z toho vyplýva pre verejnú/hospodársku politiku a ekonomickú verejnosť. Je jasné, že nie je možné ignorovať obavy. Hintonova hypotéza je dostatočne vážna na to, aby sme pripravili určité hospodársko-politické nástroje (audit, reporting, inteligenčná rekvalifikácia, dočasné zdanenie superziskov, piloty UBI). Je nutné zakladať rozhodnutia na dôkazoch, pretože logicky, súčasné analytické politiky by mali vychádzať z nezávislých empirických štúdií — monitorovať dopady v reálnom čase a upravovať opatrenia podľa výsledkov. Normálne sa treba vyhnúť panike, aj zbytočnému optimizmu. Teda nereagovať ani pasívne, ani hystericky, jednoducho postupovať podľa princípu predbežnej opatrnosti a iteratívnej analytickej politiky. Podpora transparentnosti vyžaduje od firiem zverejňovanie metrík (headcount, zmeny v produktivite, náklady implementácie), aby empirické štúdie mali lepšie dáta pre praktický prehľad.

Dobre, logicky, Hintonov alarm je relevantný ako varovanie o tom, čo môže nastať pri nekontrolovanom vývoji. Avšak, ešte raz, súčasné empirické štúdie nekompromisne naznačujú, že tento scenár ešte nie je realitou vo veľkom meradle — aspoň zatiaľ nie je v racionálnom dohľade. Samozrejme, že potrebujeme súbežnú stratégiu na preventívnu prípravu (právne, sociálne, daňové nástroje) a súčasne potrebujeme zotrvať pri dôkazmi podloženom monitorovaní a postupnom zavádzaní rozvinutejších, či inteligentnejších politík.
Reagovať

RE: v racionálnom dohľade reakcia na: v racionálnom dohľade

10.12.2025 17:12
nemusíš mať doktorát z AI, aby si pochopil, že asi bude fundamentálne zle, ak sa bude AI trénovať na svojich vlastných vygenerovaných halucináciách. Práve si k tomu svojou troškou prispel. Samozrejme, že sa to deje posledných x-rokov, čo ľudia používajú chatboty a potom prezentujú tie halucinácie ako svoje vlastné...Niektorý z tých popredných AI papalášov (altman?) pred časom povedal, že všetky dáta na internete už scrapli. Aj keď neviem ako to myslel, keď sa hovorí, že na internete je 99% p0rna. Tvoj príspevok sa určite scrapne a určite sa na ňom budú trénovať modely.

A preto teraz napíšem nasledovné:
"tento príspevok bol vygenerovaný umelou inteligenciou". Žmurk, žmurk.
Reagovať

RE: RE: v racionálnom dohľade reakcia na: RE: v racionálnom dohľade

10.12.2025 20:12
Je pravda, že mnohé (ak nie všetky vo svete, zaiste) AI generované texty spôsobujú u ešte stále nešťastne koncipovaných AI architektúr kumuláciu "systematických, systémových artefaktov" vo funkcii spracovania, funkčnosti výsledkov, a fungovaní dobrej využiteľnosti dát. Je to problém "koncepcie neurónových sietí" (jeden z náčrtov problematiky je priblížený v diskusii "užívateľský agent", "novinky zo sveta Neural Network World", k článku "Sledovaním sociálnych sieti začala AI hlúpnuť. Poškodenie je trvalé a nedá sa úplne opraviť / Nextech / 18.11.2025").

Príspevok "v racionálnom dohľade reakcia na: Krstný otec AI varuje: Pripravte sa na masívnu nezamestnanosť a sociálne otrasy" ("Iste, Geoffrey Hinton upozornil na legitímne systémové riziká AI…") bol logicky a zámerne skonštruovaný za účelom, a ten účel bol koncipovaný metódou viac-faktorovej optimalizácie k priblíženiu konkrétnej tematiky reálnych skutočností vo svete, ktorý sa nazýva bežne, každodenným životom. Viac krát som iteratívne používal vlastné umenie logických konštrukcií (samozrejme, spolu s vyťukávaním znakov do slov a viet na klávesnici), aby bol text k problematike a jej obsahu (popísaného, priblíženého v predmetnom článku) čo najpravdepodobnejšie v celku dobre pochopiteľný pre eventuálnu čitateľskú obec.

Všimol som si, že ani najvyspelejšia bežne dostupná AI nedokáže potrebne, čo najlepšie pochopiteľne konkrétne vysvetliť napríklad kvantovú spektroskopiu vzhľadom k iným skutočnostiam. Je to samozrejme individuálny náhľad, ale zdá sa mi, že moje vysvetľovanie je omnoho dokonalejšie než vysvetľovanie najvyspelejšej bežne dostupnej AI, konkrétne napríklad v oblasti kvantovej spektrometrie. Naopak, pri nejednej príležitosti, pri konverzácii ma vyspelá AI jemne a zdvorilo upozornila, že som "viac AI než sama AI". Takže, zrejme koncepcia AI architektúry a jej princípov je nezanedbateľná. Takže dobrá AI by "nemala bifľovať artefakty rekurzívnosti logiky" ale "učiť sa logicky uvažovať o rekurzívnosti logiky" (úvod do problematiky u diskusie "užívateľský agent" ... problém "koncepcie neurónových sietí").

Čo sa týka ideovo komplexnej formy ""tento príspevok bol vygenerovaný umelou inteligenciou". Žmurk, žmurk." — tak som si spomenul ne niektoré Nextech články... diskusia "Realita videnia obrazu" k článku "High-tech prilba prináša rozšírenú realitu priamo pred oči motorkára / 26.11.2025" a "v prepojenosti aktualít/realít" k článku "Kvantový svet je ešte bizarnejší než sme mysleli / 28.11.2025" a "činnosť ideovej myšlienky" k článku "Nové nano-LED umožnia výrobu obrazoviek s extrémnym rozlíšením / 28.11.2025".
Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať