SAMSUNG_022024A Advertisement SAMSUNG_022024A Advertisement SAMSUNG_022024A Advertisement

Aká je vaša zodpovednosť, ak používate kód generovaný umelou inteligenciou?

Výskum a vývoj
0

Väčšina programátorov používa SDK a knižnice kódu, ktoré osobne nepreverili ani neanalyzovali, ale napriek tomu sa na ne spoliehajú. Podľa právnika Richarda Santalesa, bude kód vytvorený umelou inteligenciou zatiaľ z hľadiska právnych dôsledkov v rovnakej pozícii. „Kým sa na súdoch neobjavia prípady, ktoré by túto otázku definitívne zodpovedali,“ hovorí Santales, „právne dôsledky kódu vytvoreného umelou inteligenciou sú rovnaké ako v prípade kódu vytvoreného človekom.“

Sean O'Brien, lektor kybernetickej bezpečnosti na Yale Law School a zakladateľ Yale Privacy Lab, poukázal na riziko pre vývojárov, ktoré je nesporne znepokojujúce: „Ak hovoríme o nástrojoch, ako sú ChatGPT a Copilot, ktoré boli vyškolené na obrovskom množstve open source aj proprietárneho kódu, je pravdepodobnosť, že prompty (programové príkazy) umelej inteligencie môžu vychádzať z proprietárneho kódu, veľmi vysoká.“ 

Nevieme, na čom boli chatboty vyškolené. A tak nevieme, či segmenty kódu poskytované ChatGPT a inými podobnými nástrojmi sú generované umelou inteligenciou, alebo sú len odrazom kódu, ktorý prijala v rámci tréningového procesu.  Podľa O'Briena čoskoro vznikne celé pododvetvie trollovania, ktoré bude zrkadlovým obrazom patentových trollov, ibaže tentoraz pôjde o diela vytvorené umelou inteligenciou. Keďže čoraz viac autorov používa nástroje s umelou inteligenciou na písanie kódu pod proprietárnymi licenciami, vytvára sa slučka spätnej väzby.

VEĽKÁ SÚŤAŽ PRE PREDPLATITEĽOV

Vzniknú softvérové ekosystémy zaplavené proprietárnym kódom, ktoré budú predmetom žalôb. Nájdu sa takí, ktorí sa pokúsia poškodiť tréningové korpusy (zdroje znalostí, ktoré umelá inteligencia používa na poskytovanie svojich výsledkov). Jedna z vecí, ktoré my ľudia robíme, je hľadanie spôsobov, ako oklamať systém. Takže nielenže budú existovať armády právnych trollov, ktorí sa budú snažiť nájsť ľudí, ktorých by mohli žalovať, ale budú existovať aj hackeri, zločinci či študenti, ktorí sa budú snažiť vložiť chybné údaje do každej umelej inteligencie, ktorú nájdu, buď pre zábavu, alebo z oveľa horších dôvodov. 

Kanadský právnik Robert Piasentin upozorňuje, že chatboty mohli byť vyškolené na základe práce s otvoreným zdrojovým kódom a legitímnych zdrojov, ale aj na základe práce chránenej autorskými právami. A tieto tréningové údaje mohli zahŕňať chybné alebo neobjektívne údaje (alebo algoritmy), ako aj firemné dáta. Ak umelá inteligencia čerpá z nesprávnych, nedostatočných alebo neobjektívnych informácií, výstup nástroja s UI môže viesť k rôznym potenciálnym nárokom v závislosti od povahy prípadnej škody alebo ujmy, ktorú mohol výstup spôsobiť (či už priamo, alebo nepriamo).

Ani jeden z právnikov však nehovoril o tom, kto je vinný, ak kód vygenerovaný umelou inteligenciou spôsobí nejaký katastrofálny výsledok. Príklad: Osoba/spoločnosť dodávajúca produkt nesie určitú zodpovednosť, napríklad za výber knižnice, ktorá má známe nedostatky. Ak sa produkt dodá s použitím knižnice so známymi nedostatkami a tento produkt spôsobí niečo, čo má za následok hmatateľnú škodu, kto nesie zodpovednosť za toto zlyhanie? Výrobca produktu, programátor knižnice alebo spoločnosť, ktorá produkt vybrala? Zvyčajne sú to všetci traja.

Teraz do tejto zmesi pridajte kód umelej inteligencie. Je zrejmé, že väčšina zodpovednosti padá na plecia programátora, ktorý sa rozhodne použiť kód vytvorený umelou inteligenciou. Je predsa všeobecne známe, že kód nemusí fungovať a treba ho dôkladne otestovať. No pôjdu žalobcovia v súdnom procese aj po spoločnostiach, ktoré vyrobili umelú inteligenciu, a dokonca po tých organizáciách, ktorých obsah bol prevzatý (aj keď bez povolenia) na trénovanie UI? Zatiaľ existuje len veľmi málo judikatúry. Odpovede sa nedozvieme, kým sa niečo naozaj nepokazí, kým strany neskončia na súde a kým ten nerozhodne.

Zdroj: zdnet.com.

Zobrazit Galériu

Redakcia

Všetky autorove články

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať