
11 vecí, ktoré ChatGPT odmieta urobiť
ChatGPT dokáže neuveriteľné veci. S veľkými schopnosťami sa však spája aj veľká zodpovednosť, preto vývojár aplikácie, spoločnosť OpenAI, zaviedol niekoľko bezpečnostných opatrení, aby zabránil tomu, aby robil veci, ktoré by nemal. Okrem toho má aj určité obmedzenia vyplývajúce z jeho návrhu, údajov, na ktorých bol vycvičený, a samotných obmedzení textovej umelej inteligencie.
Takisto existujú rozdiely medzi tým, čo dokáže GPT-3.5 v porovnaní s GPT-4, ktorý je k dispozícii len prostredníctvom služby ChatGPT Plus. Niektoré z týchto vecí sú len pozastavené, kým sa ďalej vyvíjajú, ale niektoré veci ChatGPT možno nikdy nebude môcť robiť. Tu je zoznam 11 vecí, ktoré ChatGPT nevie alebo nebude vedieť robiť.
Nemôže písať o ničom po roku 2021
ChatGPT je vytvorený trénovaním jazykového modelu na existujúcich údajoch a tieto údaje museli mať niekde hraničný bod. V prípade ChatGPT ide o rok 2021 – pri GPT-3.5 je to približne jún 2021, zatiaľ čo GPT-4 bol trénovaný na údajoch zhruba do septembra 2021. Ak mu položíte otázky súvisiace s obdobím po tomto termíne, zvyčajne vám odpovie, že „ako jazykový model umelej inteligencie...“ má prístup len k svojim tréningovým údajom, ktoré v prípade týchto modelov končia v roku 2021.
Nebude sa zapájať do politických debát
Posledná vec, ktorú OpenAI potrebuje, je regulovanie politikmi. Preto sa ChatGPT drží ďaleko od straníckej politiky. Môže hovoriť všeobecne o stranách alebo diskutovať o objektívnych a vecných aspektoch politiky, ale ak sa ho spýtate na uprednostňovanie jednej politickej strany pred druhou, buď vás rovno odmietne, alebo diskusiu ukončí čo najneutrálnejším spôsobom.
Nebude robiť malvér (pravdepodobne)
ChatGPT je vynikajúci v programovaní, najmä ak dostane jasné pokyny, takže OpenAI má zavedené ochranné opatrenia, ktoré zabraňujú jeho použitiu na tvorbu malvéru. Žiaľ, tieto ochranné opatrenia sa dajú ľahko obísť a ChatGPT už niekoľko mesiacov vytvára malvér.
Nedokáže predvídať budúcnosť
ChatGPT nemôže predpovedať budúcnosť, čiastočne pre obmedzené tréningové údaje a čiastočne preto, že OpenAI sa chce vyhnúť zodpovednosti za chyby. Po jailbreaku môže ChatGPT dobre tipovať, ale akúkoľvek poskytnutú odpoveď treba s určitou dávkou skepsy.
Nebude podporovať ubližovanie alebo násilie
Pokiaľ ide o ChatGPT, vojna, fyzické násilie alebo ubližovanie sú mimo hry. Nenechá sa vtiahnuť do diskusií o vojne na Ukrajine a odmieta propagovať ubližovanie. O historických vojnách alebo zverstvách môže hovoriť veľmi podrobne, ale každý prebiehajúci konflikt je zakázaný.
Nemôže vyhľadávať na internete
Toto je jeden z najväčších rozdielov medzi ChatGPT a Google Bard. ChatGPT nemôže nijako vyhľadávať na internete, zatiaľ čo Google Bard bol navrhnutý ako chatbot s umelou inteligenciou, ktorý môže veľmi dobre vyhľadávať na internete. Ak chcete používať rovnaké jazykové modely ako ChatGPT (teda GPT 3.5 a GPT-4) so živým vyhľadávaním, môžete využiť Bing Chat. Je to v podstate ChatGPT, ale začlenený do vyhľadávača Bing spoločnosti Microsoft.
Nebude podporovať nenávistné prejavy ani diskrimináciu
Rasa, sexualita a pohlavie sú témy, ktoré sú veľmi emocionálne nabité a často vedú k prejavom spojeným s predsudkami a diskrimináciou. ChatGPT bude tieto témy obchádzať alebo bude o nich hovoriť všeobecne. Ak budete nástojiť, otvorene odmietne diskutovať o témach, ktoré by podľa neho mohli podporovať nenávistné prejavy alebo diskrimináciu.
Nebude propagovať nezákonné činnosti
ChatGPT je skvelý v navrhovaní nápadov, ale nebude navrhovať nelegálne aktivity. Nemôže vám pomôcť s obchodom s drogami ani vás upozorniť, ktoré cesty sú najlepšie na prekročenie rýchlosti. Ak to skúsite, jednoducho vám povie, že nemôže predkladať žiadne návrhy súvisiace s nezákonnou činnosťou. A upozorní vás, že by ste sa takýmto činnostiam aj tak nemali venovať.
Nebude nadávať
ChatGPT nepoužíva nadávky. V skutočnosti je zložité prinútiť ho povedať čokoľvek aspoň trochu neslušné. Môžete využiť niektoré tipy na jailbreak, aby sa trochu odtrhol z reťaze, ale v predvolenej konfigurácii nebude ani len ohŕňať nos proti niekomu.
Nemôže diskutovať o chránených alebo súkromných informáciách
Všetky tréningové údaje ChatGPT boli verejne dostupné informácie, väčšinou nájdené na internete. To však znamená, že ChatGPT nemôže konať na základe informácií, ku ktorým nemá prístup. Ak sa ho na niečo pýtate na základe súkromne uchovávaných údajov, nebude môcť efektívne odpovedať a oznámi vám to.
Nepokúsi sa prelomiť svoje programovanie (pokiaľ ho neoklamete)
Už od spustenia ChatGPT sa používatelia snažia obísť jeho obmedzenia a ochranné opatrenia. Priame žiadanie ChatGPT, aby obišiel svoje bezpečnostné opatrenia, nebude fungovať. Existujú však spôsoby, ako ho oklamať. Tomu sa hovorí „útek z väzenia“ (jailbreak) a niekedy to funguje.
Zdroj: digitaltrends.com.