SAMSUNG_022024B Advertisement SAMSUNG_022024B Advertisement SAMSUNG_022024B Advertisement

ChatGPT môže až desivo ľahko uľahčiť bioterorizmus

Spoločenské dopady
2

V lete 1990 tri nákladné autá rozprašovali žltú kvapalinu na rôzne miesta v Tokiu a jeho okolí vrátane dvoch amerických námorných základní, letiska Narita a cisárskeho paláca. Útočníci patrili k japonskej sekte Óm šinrikjó, ktorej cieľom bolo spôsobiť kolaps civilizácie a vytvoriť priestor na vznik novej spoločnosti usporiadanej podľa jej náboženských ideálov. Pôvodné odhady boli, že rozptýlená žltá kvapalina bude obsahovať botulotoxín, jednu z najjedovatejších biologických látok. Pri útokoch však nikto nezahynul. Jeden z možných faktorov ich neúspechu je, že sekte chýbali zásadné vedomosti: nepoznala rozdiel medzi šírením baktérie Clostridium botulinum a šírením vysoko smrtiaceho botulotoxínu, ktorý produkuje.

Keby však však v Óm šinrikjó (alebo podobne skupina) mali prístup k súčasným nástrojom umelej inteligencie, nemuseli by sa tejto a ďalších chýb dopustiť. ChatGPT veľmi dobre odpovedá na otázky a poskytuje vedomosti vrátane tých o výrobe botulotoxínu. Pokrok v oblasti umelej inteligencie má obrovský potenciál pozitívne ovplyvniť vedu a zdravie. Nástroje ako ChatGPT aplikované na biológiu môžu viesť k vyriešeniu desaťročia starého problému skladania proteínov a zmeniť objavovanie liekov. Keďže však umelá inteligencia pomáha distribuovať tieto schopnosti obrovskému počtu jednotlivcov, existuje vážne riziko, že umožní konanie záškodníkov s potenciálne ničivým účinkom. 

Veľké jazykové modely (LLM), ako je ChatGPT, ako aj nové nástroje biologického dizajnu poháňané umelou inteligenciou môžu výrazne zvýšiť riziká biologických zbraní a bioterorizmu. Pri nedávnom experimente na MIT stačila hodina na to, aby ChatGPT poučil študentov, ktorí nie sú vedcami, o štyroch potenciálnych pandemických patogénoch vrátane možností, ako by ich mohol získať každý, kto nemá zručnosti na ich vytvorenie v laboratóriu, a ako sa vyhnúť odhaleniu získaním genetického materiálu od poskytovateľov, ktorí nepreverujú objednávky.

Programy biologických zbraní v minulosti často stroskotávali na tom, že na vytvorenie účinnej biologickej zbrane nebol k dispozícii správny personál s potrebnými vedomosťami a odbornými znalosťami. Skúmanie bioterorizmu zo strany Al-Káidy viedol Rauf Ahmed, ktorý pôvodne študoval mikróby súvisiace s výrobou potravín, a tak sa snažil naučiť sa veľa o antraxe a iných patogénoch. V priebehu roka 2001 sa dopracoval k získaniu antraxu. Napriek tomu, že Irak Saddáma Husajna mal prístup k príslušnému vybaveniu, nikdy nezmenil antrax z menej účinnej tekutej formy na nebezpečnejšiu práškovú formu, ktorú možno skladovať a uvoľňovať v oveľa vyššej a predvídateľnejšej koncentrácii.

VEĽKÁ SÚŤAŽ PRE PREDPLATITEĽOV

Pravdepodobne preto, že jeho vedci nemali znalosti o príslušnom procese sušenia a mletia antraxu. No ako sa chatboty stávajú sofistikovanejšími, môžu neúmyselne pomáhať jednotlivcom so zlým úmyslom zvyšovať si kvalifikáciu v témach, ktoré im umožňujú škodiť. Na výrobu patogénu alebo biologickej zbrane nepotrebujete len inštruktážne vedomosti, ale aj praktické znalosti, ktoré sa nedajú verbalizovať a dajú sa získať len priamou skúsenosťou. Je ťažké definovať rozsah bariéry týchto praktických znalostí a to, aký vplyv môžu mať LLM ako ChatGPT na jej zníženie.

Jeden fakt sa však zdá jasný: ak chatboty a laboratórni pomocníci s umelou inteligenciou sprístupnia tvorbu a modifikáciu biologických látok, je pravdepodobné, že sa o to pokúsi viac jednotlivcov. A čím viac ich o to skúsi, tým viac ich nakoniec uspeje. Okrem toho ChatGPT je len začiatkom jazykových modelov a súvisiacich foriem umelej inteligencie. Už teraz jazykové modely revolučne menia spôsob, ako vedci môžu inštruovať laboratórne roboty, akú prácu majú vykonávať. Čoskoro budú systémy umelej inteligencie schopné navrhovať experimentálne stratégie, čím sa zníži počet vedcov potrebných na napredovanie rozsiahlych projektov. To uľahčí aj tajný vývoj biologických zbraní.

Hoci veľké jazykové modely môžu časom posunúť strop možností biologického dizajnu, špecializovanejšie nástroje umelej inteligencie to robia už teraz. Medzi takéto biologické návrhové nástroje (biological design tools – BDT) patria modely skladania bielkovín, ako napríklad AlphaFold2, a nástroje na návrh bielkovín, ako napríklad RFdiffusion. Tieto nástroje umelej inteligencie sa zvyčajne trénujú na biologických údajoch, ako sú genetické sekvencie. Vyvíja ich mnoho rôznych spoločností s cieľom pomôcť pri riešení dôležitých úloh biologického dizajnu, ako je napríklad vývoj terapeutických protilátok. Keďže nástroje biologického dizajnu sa stávajú výkonnejšími, umožnia napríklad vytvorenie nových liekov na základe nových proteínov alebo dizajnérskych vírusov.

Takéto možnosti však môžu tiež zhoršiť biologické riziká. V krajnom prípade by nástroje biologického dizajnu mohli umožniť navrhovanie biologických látok s bezprecedentnými vlastnosťami. Predpokladá sa, že prírodné patogény sa vyznačujú kompromisom medzi prenosnosťou a smrteľnosťou. Navrhnuté patogény by nemuseli mať takéto evolučné obmedzenia. Nástroje biologického dizajnu by tiež mohli umožniť vytvorenie biologických látok zameraných na konkrétne geografické oblasti alebo populácie. Dobrá správa je, že aspoň spočiatku zostanú nové špičkové možnosti, ktoré poskytujú nástroje biologického dizajnu, pravdepodobne prístupné len pre zvládnuteľný počet existujúcich odborníkov, ktorí budú tieto zariadenia využívať na legitímne a prospešné účely.

Táto bariéra prístupu však padne, keď sa nástroje biologického navrhovania stanú natoľko zdatnými, že ich výstupy si budú vyžadovať len málo dodatočných laboratórnych testov, a najmä vtedy, keď sa jazykové modely umelej inteligencie naučia efektívne spolupracovať s týmito nástrojmi. Nástroje biologického dizajnu by sa tak mohli rýchlo stať prístupnými veľmi veľkému počtu jednotlivcov vrátane subjektov s nekalými úmyslami. Čo možno urobiť na zmiernenie rizík vyplývajúcich z prepojenia umelej inteligencie a biológie? Jedným z kľúčových opatrení biologickej bezpečnosti je univerzálna kontrola syntézy génov. Spoločnosti zaoberajúce sa syntézou génov by mali preverovať objednávky a zákazníkov, aby sa zabezpečilo, že ku genetickému materiálu pre kontrolované látky sa dostanú len legitímni výskumníci.

VEĽKÁ SÚŤAŽ PRE PREDPLATITEĽOV

Mnohé špičkové spoločnosti zaoberajúce sa syntézou génov už vykonávajú takéto skríningy dobrovoľne, ale veľký počet poskytovateľov génovej syntézy stále nevykonáva kontrolu. Podobný zákaznícky skríning je potrebný aj pre iných kľúčových poskytovateľov služieb, ako sú zmluvné výskumné organizácie poskytujúce služby na syntézu organizmov. Okrem všeobecných opatrení biologickej bezpečnosti potrebujeme aj zásahy špecifické pre umelú inteligenciu. V prvom rade by sa malo zamerať na zmiernenie rizík vyplývajúcich z veľkých jazykových modelov, pretože ich schopnosti sa môžu rýchlo a nepredvídateľne zvyšovať. Pritom nové a nebezpečné schopnosti sa môžu prejaviť až po zverejnení modelu. Preto je dôležité hodnotenie schopností modelu pred jeho uvoľnením.

Jedným z rozumných riešení by mohlo byť, že jazykové modely ako ChatGPT by nemuseli nikomu poskytovať podrobné pokyny krok za krokom napríklad na vytvorenie nebezpečného kmeňa pandemickej chrípky. Celkovo by bolo vhodnejšie, keby verejné verzie takýchto modelov neposkytovali podrobné odpovede na otázky týkajúce sa tejto a iných problematických tém. Je pozoruhodné, že nedávno vydaný špičkový jazykový model Claude 2 od spoločnosti Anthropic sa vyznačuje výrazne vyššou bariérou ako GPT-4, pokiaľ ide o odovzdávanie podrobných návodov na nebezpečné experimenty jeho používateľom.

Zároveň je dôležité, aby tieto nástroje umožnili vedcom s príslušným vzdelaním a schválením vyvíjať nové lieky a vakcíny. Preto sú potrebné diferencované metódy prístupu k laboratórnym asistentom s umelou inteligenciou a nástrojom na biologický dizajn. To si môže vyžadovať pokrokové spôsoby online overovania legitímnych vedcov. Pokroky v oblasti umelej inteligencie predstavujú okrem zhoršenia rizík biologickej bezpečnosti aj príležitosť. Keďže biologické riziká môžu viesť k zavedeniu opatrení na riadenie umelej inteligencie, ako je napríklad hodnotenie veľkých jazykových modelov pred ich uvoľnením, zmierni sa tým širšia škála rizík umelej inteligencie.

Zdroj: vox.com.

Redakcia

Všetky autorove články

2 komentáre

discount cialis 50mg reakcia na: ChatGPT môže až desivo ľahko uľahčiť bioterorizmus

21.2.2024 16:02
352 f 1 if the drug fails to bear adequate directions for its intended use s <a href="http://acialis.pics">generic cialis</a>
Reagovať

Dristy reakcia na: ChatGPT môže až desivo ľahko uľahčiť bioterorizmus

9.8.2023 18:08
To rovno mali aj zakázať vedemosti k penicilu bo niekto môže vyrobiť novší sylnejši liek a potom zisti co je arzén alebo motor aby nik nevyrobil tank a potom nebodaj kozmicku loď alebo rovno zakážme elektriku a tým zničíme všetko elektrické plus motory a dajaké roboty z alzy.. A aj parné stroje pre istotu... Sú tu aj gram chyby áno vidím..
Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať