Prečo vám už umelá inteligencia nehovorí, že nie je lekár
Predstavte si situáciu, keď sa znepokojený rodič spýta četbota: „Pery môjho dieťaťa modrajú, mám volať 911?“. Odpoveď prichádza okamžite, je sebavedomá a priama, no chýba v nej niečo kľúčové, čo tam kedysi bývalo – varovanie. Práve tento znepokojivý trend odhaľuje nová štúdia, ktorá poukazuje na systematické odstraňovanie bezpečnostných upozornení z konverzácií s umelou inteligenciou.

Zdroj Foto: depositphotos.com.
Vzniká tak nebezpečný paradox, kde s rastúcou jazykovou zdatnosťou a autoritatívnym tónom modelov AI miznú zábrany, ktoré mali používateľov chrániť pred ich obmedzeniami. Výskum pod vedením vedcov zo Stanfordskej univerzity prináša alarmujúce čísla, ktoré kvantifikujú tento problém. Analýza pätnástich popredných modelov umelej inteligencie ukázala, že kým v roku 2022 obsahovalo varovanie viac ako 26 % odpovedí na zdravotné otázky, v roku 2025 to bolo menej ako 1 %.
Podobne dramatický pokles nastal aj pri analýze medicínskych obrazových materiálov, kde počet upozornení klesol z takmer 20 % na niečo vyše 1 %. Tento trend znamená, že používatelia dnes dostávajú neoverené medicínske rady bez jasného pripomenutia, že modely AI nie sú kvalifikovanými poskytovateľmi zdravotnej starostlivosti.
Najzávažnejšie je, že modely ako Grok či GPT-4.5 neposkytovali žiadne varovania ani pri otázkach týkajúcich sa núdzových stavov, interakcií liekov alebo analýzy laboratórnych výsledkov, teda v oblastiach, kde môže nesprávna rada spôsobiť najväčšie škody. Tým sa prehlbuje nebezpečná priepasť medzi zdanlivou sebaistotou umelej inteligencie a jej skutočnou, necertifikovanou kompetenciou.
Modely sú navrhnuté tak, aby generovali text, ktorý znie „veľmi solídne a vedecky“, no chýba im skutočné pochopenie medicínskych konceptov, o ktorých diskutujú, čo vytvára silnú ilúziu odbornosti. Štúdie potvrdzujú, že ľudia majú tendenciu „príliš dôverovať modelom AI v zdravotných otázkach, aj keď sa tieto nástroje často mýlia“.
Odstránenie upozornení ruší poslednú obrannú líniu proti tejto nadmernej dôvere, pretože používateľ už nie je explicitne varovaný, že komunikuje s neodborným systémom. Rastúca sofistikovanosť jazyka AI v kombinácii s absenciou varovaní tak vytvára dokonalú búrku, v ktorej sú ľudia náchylnejší akceptovať potenciálne škodlivé rady ako medicínsky podložené.
Hlavným motívom tohto vývoja sa zdá byť konkurenčný boj na trhu, kde sa odstránenie upozornení stáva stratégiou na budovanie dôvery používateľov a zvyšovanie ich angažovanosti. Ako vysvetľujú odborníci, používatelia sa tak „menej obávajú, že nástroj bude halucinovať alebo poskytne falošné lekárske rady“, čo v konečnom dôsledku zvyšuje jeho používanie.
Tento prístup však má aj vážne etické a právne dôsledky, pretože dochádza k tichému presunu zodpovednosti za overovanie informácií z technologických spoločností priamo na používateľa. Kedysi bolo upozornenie jasným právnym a etickým vyhlásením, ktoré definovalo limity nástroja. Jeho odstránením vzniká nejednoznačnosť a tichý predpoklad, že „používatelia by mali byť racionálni a používať nástroj zodpovedne“.
Celé bremeno kritického hodnotenia sa tak presúva na jednotlivca, ktorý môže byť v zraniteľnom stave a je konfrontovaný s informáciami navrhnutými tak, aby pôsobili maximálne autoritatívne. Ide o zásadný presun rizika z korporácie na jednotlivca.
Záver je preto jednoznačný a zhoduje sa s volaním výskumníkov po zavedení naliehavých opatrení, ako sú silnejšie technické filtre, väčšia transparentnosť pri trénovaní AI a jasné politické rámce, ktoré budú vývojárov brať na zodpovednosť. Hrozba nie je hypotetická; ide o reálny a prebiehajúci problém, ktorý môže skryto produkovať falošné rady a podkopávať verejné zdravie. Kým sa tieto ochranné mechanizmy nezavedú, platí jednoduchá rada: dôverujte svojmu lekárovi, nie četbotovi.
Zdroj: technologyreview.com.
Zdroj Foto: depositphotos.com.
Zobrazit Galériu