AI dokáže poskytnúť návod na výrobu smrtiacich biologických zbraní
KĽÚČOVÉ ZISTENIA:
-
AI modely generujú návody na syntézu nebezpečných vírusov.
-
Odborníci oklamali bezpečnostné filtre špičkových modelov viacerých firiem.
-
Rozpočet USA na biologickú obranu klesol o polovicu.
Vedecká komunita a bezpečnostní experti čelia mrazivému zisteniu o schopnostiach umelej inteligencie. Podľa správy denníka The New York Times dokážu verejne dostupné modely vygenerovať detailné inštrukcie na získanie a nasadenie biologických zbraní. Tieto informácie boli získané počas stresových testov, ktoré vykonali odborníci v spolupráci s technologickými spoločnosťami.
Výsledky testov ukázali, že hoci sa modely snažia nebezpečné požiadavky odmietať, dajú sa pomerne jednoducho zmanipulovať. Četboty v niektorých prípadoch navrhovali riešenia, ktoré by nenapadli ani skúsených vedcov v odbore.
Jedným z najvážnejších zistení bola analýza nástroja Google Deep Research, ktorý vytvoril text v rozsahu 8 000 slov o rekonštrukcii historického pandemického vírusu. Tento dokument obsahoval presné kroky potrebné na oživenie patogénu v laboratórnych podmienkach. Takéto informácie dramaticky znižujú vedomostnú bariéru pre potenciálnych bioteroristov.
Odborníci upozorňujú, že AI modely dokážu prepojiť útržkovité informácie z verejne dostupných vedeckých prác. Tým vytvárajú ucelený a realizovateľný plán, ktorý by inak vyžadoval roky štúdia a praktických skúseností. Bezpečnostné filtre modelov sú v správe prirovnávané k vratkému drevenému plotu, ktorý sa dá ľahko obísť vhodne zvolenou taktikou dopytovania.
Súčasné modely AI prechádzajú prísnym testovaním v rámci rámca Frontier Safety Framework. Tento rámec sleduje riziká v 5 doménach vrátane chemických, biologických a nukleárnych hrozieb. Cieľom je zabrániť tomu, aby modely dosiahli kritické úrovne schopností, ktoré by umožnili reálne zneužitie v teréne.
Vedecké organizácie varujú, že rýchlosť vývoja AI predbieha kapacitu vládnej regulácie. Navrhujú preto zavedenie behaviorálnej kontroly, ktorá by sa namiesto technických kapacít zamerala na zodpovedné správanie štátov. Existujú aj výzvy na priamu cenzúru kritických informácií v tréningových dátach pre veľké jazykové modely.
Hrozba sa netýka len priamej výroby zbraní, ale aj schopnosti AI manipulovať s informáciami počas kríz. Krajiny využívajú AI na kampane, ktoré znižujú dôveru verejnosti v očkovanie a iné protiopatrenia. Táto kombinácia dezinformácií a technickej podpory pre bioterorizmus vytvára novú úroveň globálneho ohrozenia.
Technologické giganty momentálne čelia tlaku zákonodarcov na prijatie zodpovednosti za škody spôsobené ich modelmi. V štáte Illinois sa napríklad rokuje o legislatíve, ktorá by mohla stanoviť národný precedens v oblasti bezpečnosti AI. Debata o tom, kde končí sloboda informácií a začína ohrozenie národnej bezpečnosti, sa tak stáva jednou z najdôležitejších otázok.
PREČO JE TO DÔLEŽITÉ: Schopnosť AI navrhovať biologické zbrane predstavuje kritické riziko pre globálnu bezpečnosť, ktoré si vyžaduje reguláciu.
Zdroj: nytimes.com foto: ChatGPT