Prečo umelá inteligencia hrozivo zlyháva pri diagnózach pacientov?
Vo svete technológií často počúvame predpovede, že pokročilá umelá inteligencia (AI) čoskoro nahradí odborníkov, vrátane lekárov. Niektorí odborníci tvrdia, že umelá inteligencia (AI) bude schopná poskytovať komplexné lekárske poradenstvo a že lekárske diplomy budú v blízkej budúcnosti zbytočné. Výskum však ukazuje, že tieto systémy majú zásadné nedostatky.
Nedávna štúdia, zverejnená v časopise JAMA Network Open, podrobne testovala modely ako GPT-4o od spoločnosti OpenAI a Claude 3.5 Sonnet od spoločnosti Anthropic v lekárskych scenároch. Tieto modely sa na lekárskych licenčných skúškach s výberom z viacerých možností ukázali ako mimoriadne presné. Vyzerali ako sľubní kandidáti na poskytovanie zdravotnej starostlivosti.
Vedci zo Stanfordovej univerzity však vytvorili jednoduchý, ale geniálny test, aby zistili, či modely skutočne rozumejú medicínskym pojmom. Namiesto správnej odpovede na otázky s výberom z viacerých možností vedci vložili možnosť "žiadna z uvedených odpovedí". Tento test prinútil modely spoliehať sa na uvažovanie, nie na rozpoznávanie vzorcov.
Namiesto toho, aby modely vybrali správnu odpoveď na základe vzorca, museli preukázať skutočné pochopenie témy. Výsledky boli ohromujúce a odhalili zásadný problém. Napríklad presnosť modelu GPT-4o klesla o 25 percent, zatiaľ čo presnosť modelu Llama od spoločnosti Meta sa prepadla o takmer 40 percent.
Tento dramatický pokles ukázal, že namiesto skutočného pochopenia medicínskych konceptov sa modely spoliehajú na rozsiahle súbory údajov, aby uhádli pravdepodobnú správnu odpoveď. Vedci poukázali na to, že tieto modely sú ako študenti, ktorí sa dokonale naučia cvičné testy, no zlyhajú, keď sú otázky preformulované inak.
Tieto zistenia poukazujú na základné obmedzenie súčasných systémov, ktoré sú primárne prediktormi slov, a nie skutočnými rozumovými strojmi. Modely nie sú schopné zvládnuť neúplné údaje z klinickej praxe, čo predstavuje obrovské riziko pre pacientov.
Ukazuje sa, že ich "takmer dokonalá presnosť" na teoretických skúškach neodráža realitu praxe. Výsledky štúdie majú zásadné dôsledky pre politiku a budúcnosť AI v takých dôležitých oblastiach ako je medicína. Na základe zistení vedci odporučili, aby sa „klinické aplikácie obmedzili na podporné úlohy bez autonómie pod ľudským dohľadom“.
To slúži ako dôležitá kontrola nebezpečného humbuku, ktorý sa okolo AI šíri, pričom poukazuje na to, že hoci tieto systémy môžu pomáhať pri administratívnej práci alebo pri skenovaní lekárskych snímok na vyhľadávanie nádorov, nie sú pripravené na nezávislé rozhodovanie.
Štúdia zdôrazňuje, že ak chceme chrániť bezpečnosť pacientov, musíme sa riadiť opatrným a regulovaným prístupom. Kľúčom k budúcnosti AI v medicíne nie je nahradenie ľudských odborníkov, ale vytvorenie spolupráce, v ktorej bude umelá inteligencia slúžiť ako podporný nástroj. Záverom je, že umelá inteligencia je mocný nástroj, no nie je náhradou za ľudskú inteligenciu, ktorá je v klinickej praxi neoceniteľná.
Zdroj: futurism.com.
Zdroj Foto: depositphotos.com.