ANTIK_2024 ANTIK_2024 ANTIK_2024

Zastavte preteky: Prečo sa lídri z celého sveta spájajú proti superinteligencii

Spoločenské dopady
0

V bezprecedentnom prejave jednoty sa stovky verejných činiteľov z celého politického a spoločenského spektra spojili, aby vyzvali na „zákaz“ pretekov vo vývoji superinteligencie. Zoznam signatárov listu s názvom „Vyhlásenie o superinteligencii“ je sám o sebe pozoruhodný a ilustruje hĺbku obáv.

Spoluzakladateľ spoločnosti Apple Steve Wozniak stojí po boku pravicového mediálneho komentátora Steva Bannona, zakladateľ Virgin Richard Branson sa pripája k vojvodovi a vojvodkyni zo Sussexu a priekopníci umelej inteligencie Geoffrey Hinton a Yoshua Bengio zdieľajú platformu s pápežovým poradcom pre AI, bratom Paolom Benantim.

Táto rôznorodá koalícia, ktorá zahŕňa aj osobnosti ako herec Joseph Gordon-Levitt či bývalý predseda Zboru náčelníkov štábov USA, admirál vo výslužbe Mike Mullen, signalizuje, že obavy z nekontrolovanej umelej inteligencie prekročili hranice politiky a ideológie a stali sa hlavným spoločenským problémom.

Jadro tohto hnutia, ktoré inicioval Inštitút budúcnosti života (Future of Life Institute - FLI), je obsiahnuté v mimoriadne stručnom, no ráznom liste. Jeho ústrednou požiadavkou je „zákaz vývoja superinteligencie“. List ďalej špecifikuje, že tento zákaz by nemal byť zrušený, kým nebude existovať „široký vedecký konsenzus, že to bude urobené bezpečne a kontrolovateľne“, a zároveň so „silným súhlasom verejnosti“.

Tento postoj je založený na predpoklade, že superinteligencia – definovaná ako model AI, ktorý prekonáva ľudskú inteligenciu – je dosiahnuteľným technickým cieľom, čo je názor, o ktorom niektorí experti stále pochybujú alebo ho považujú za vzdialenú budúcnosť. Dôraz na technickú bezpečnosť aj demokratický súhlas predstavuje strategický posun v debate, ktorý sa snaží presunúť rozhodovaciu moc z firemných zasadačiek do verejnej sféry.

Tento dopyt po demokratickej kontrole nie je len elitárskym názorom, ale odráža aj nálady širokej verejnosti. List cituje nedávne prieskumy FLI, ktoré odhaľujú výrazný nesúlad medzi smerovaním technologických korporácií a vôľou ľudí. Podľa týchto údajov len päť percent Američanov podporuje rýchly a neregulovaný vývoj pokročilých nástrojov AI.

Viac ako 73 percent naopak podporuje „robustné“ regulačné opatrenia v oblasti AI a približne 64 percent sa domnieva, že superinteligencia by sa nemala vyvíjať, kým nebude možné dokázať jej bezpečnosť a kontrolovateľnosť. Spoluzakladateľ FLI Anthony Aguirre tento sentiment zhrnul slovami: „Nikto, kto vyvíja tieto systémy AI, sa nepýtal ľudstva, či je to v poriadku.“

Jeho vyjadrenie priamo rámuje problém ako otázku súhlasu a zdôrazňuje, že súčasná cesta korporácií „smerujúcich k AI múdrejšej ako človek, ktorá je navrhnutá tak, aby nahradila ľudí, je divoko v rozpore s tým, čo chce verejnosť, čo si vedci myslia, že je bezpečné, alebo čo náboženskí vodcovia považujú za správne.“

Varovania prichádzajú aj od najrešpektovanejších odborníkov v tejto oblasti. Yoshua Bengio, nositeľ Turingovej ceny a jeden z „krstných otcov AI“, varoval, že hraničné systémy AI by mohli „v priebehu niekoľkých rokov“ prekonať väčšinu jednotlivcov vo väčšine kognitívnych úloh. Hoci pripúšťa, že tieto pokroky by mohli „odomknúť riešenia hlavných globálnych výziev“, zároveň zdôrazňuje, že so sebou prinášajú „značné riziká“.

Jeho výzva je jasná: musíme vedecky určiť, ako navrhnúť systémy AI, ktoré sú „fundamentálne neschopné poškodiť ľudí“, a zabezpečiť, aby verejnosť mala „oveľa silnejšie slovo v rozhodnutiach, ktoré budú formovať našu spoločnú budúcnosť“. Tento postoj jasne ukazuje snahu preformulovať vývoj superinteligencie z čisto technickej výzvy na základnú politickú otázku pre celú spoločnosť.

SAMSUNG_10 FLIP7 Advertisement

Zatiaľ čo sa debata sústreďuje na budúce hrozby, list nepriamo poukazuje na to, že AI nemusí dosiahnuť úroveň superinteligencie, aby spôsobila chaos. Už dnes „primitívne“ generatívne nástroje AI spôsobujú reálne škody: narúšajú vzdelávanie, premieňajú web na prostredie čoraz viac náchylné na dezinformácie a vytvárajú nelegálnu pornografiu bez súhlasu.

Tieto nástroje tiež prispievajú k vážnym krízam duševného zdravia, ktoré vedú k rozvodom, bezdomovectvu a v extrémnych prípadoch aj k sebapoškodzovaniu a smrti. Tieto súčasné problémy slúžia ako silný argument, že ak nedokážeme zvládnuť riziká dnešnej AI, sme žalostne nepripravení na riziká tej budúcej.

Rozdelenie v technologickom svete je zrejmé aj zo zoznamu tých, ktorí list nepodpísali, vrátane generálneho riaditeľa OpenAI Sama Altmana, generálneho riaditeľa Microsoft AI Mustafu Suleymana a generálneho riaditeľa Anthropic Daria Amodeia. Zaujímavosťou je, že Elon Musk, ktorý v roku 2023 podpísal predchádzajúci list FLI vyzývajúci na pozastavenie vývoja, sa k tomuto novému vyhláseniu nepripojil, čo naznačuje komplexnosť a neustály vývoj postojov aj medzi najvplyvnejšími hráčmi.

Zdroj: futurism.com foto: depositphotos.com.

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať