SAMSUNG_0425_02 Advertisement SAMSUNG_0425_02 Advertisement SAMSUNG_0425_02

AI už prekonáva virológov a je možné ju zneužiť na vytvorenie biologických zbraní

Výskum a vývoj
0

Nová štúdia tvrdí, že modely umelej inteligencie ako ChatGPT a Claude teraz prekonávajú doktorandov virológov pri riešení problémov v tzv. mokrých laboratóriách, kde vedci pracujú s chemikáliami a biologickými materiálmi. Toto zistenie je znepokojujúce, pretože pokročilá umelá inteligencia by síce mohla pomôcť výskumníkom pri kontrole infekčných chorôb, ale zároveň zvyšuje riziko, že by niekto mohol túto technológiu zneužiť na vytvorenie nebezpečných biologických zbraní.

Štúdiu uskutočnili výskumníci z Centra pre bezpečnosť umelej inteligencie, Media Lab MIT, UFABC v Brazílii a neziskovej organizácie SecureBio, ktorá sa zameriava na prevenciu pandémií. Tím vyvinul náročný test na meranie schopností virológov odstraňovať problémy pri laboratórnych postupoch. Doktorandi virológovia v ňom dosiahli priemerné skóre 22,1 %, zatiaľ čo model OpenAI dosiahol 43,8 % a model Gemini 2. 5 Pro spoločnosti Google dosiahol 37,6 %.

Po prvýkrát má tak takmer každý prístup k AI expertovi na virológiu, ktorý ho môže previesť zložitými laboratórnymi procesmi na vytvorenie biologických zbraní. Autori štúdie pred niekoľkými mesiacmi kontaktovali hlavné laboratóriá AI a vyžiadali si niekoľko odpovedí. Spoločnosť xAI Elona Muska zverejnila rámec riadenia rizík na zvýšenie bezpečnosti virológie vo svojom modeli AI Grok. V OpenAI zaviedli pre svoje nové verzie opatrenia na zmiernenie biologických rizík, zatiaľ čo Anthropic uznal zistenia štúdie, ale neuviedol konkrétne bezpečnostné opatrenia. Spoločnosť Google sa k tomu nevyjadrila.

Vplyv umelej inteligencie vo virológii a biomedicíne bol silnou motiváciou na vývoj výkonných modelov AI. Generálny riaditeľ spoločnosti OpenAI Sam Altman poznamenal, že pokrok by mohol viesť k prelomu v liečbe chorôb. Dosiahli sa sľubné výsledky, napríklad bol vyvinutý algoritmus na predpovedanie šírenia variantov koronavírusu. Doteraz neexistovala významná štúdia o schopnosti umelej inteligencie vykonávať virologické laboratórne práce.

K PREDPLATNÉMU DOSTANEŠ DARČEKY!

Výskumníci chceli otestovať jej praktickú pomoc, nielen teoretické znalosti. Vytvorili test s komplexnými, špecifickými otázkami, ktoré nebolo možné ľahko nájsť na internete. Takmer všetky modely AI dosiahli lepšie výsledky ako virológovia na úrovni doktorandov, pričom v priebehu času sa zaznamenalo zlepšenie. Napríklad model Anthropic Claude za niekoľko mesiacov zlepšil svoju presnosť z 26,9 % na 33,6 % a GPT 4.5 od OpenAI výrazne prekonal svojho predchodcu.

Zistenia naznačujú, že ak sú modely AI skutočne schopné pracovať v podmienkach mokrých laboratórií, ich prínos by mohol byť značný. Mohli by pomôcť skúseným virológom, urýchliť vývoj liekov a vakcín a zlepšiť klinické skúšky a zisťovanie chorôb. Existuje však aj riziko, že používatelia so zlým úmyslom by sa mohli nechať viesť umelou inteligenciou pri vytváraní vírusov bez toho, aby potrebovali rozsiahle školenie, čo by vyvolalo značné obavy o bezpečnosť.

Odborníci preto vyzývajú spoločnosti zaoberajúce sa umelou inteligenciou, aby zaviedli ochranné opatrenia proti takémuto zneužitiu. Riešením nie je zastaviť tieto modely ani spomaliť ich pokrok, ale zabezpečiť ich uzavretie, aby k ich nefiltrovaným verziám mali prístup iba dôveryhodné tretie strany, a zároveň umožniť zodpovedným výskumníkom používať AI na legitímne účely.

Zdroj: time.com.

Zdroj Foto: depositphotos.com.

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať