SAMSUNG_022024B Advertisement SAMSUNG_022024B Advertisement SAMSUNG_022024B Advertisement

11 vecí, ktoré ChatGPT odmieta urobiť

Technológie
1

ChatGPT dokáže neuveriteľné veci. S veľkými schopnosťami sa však spája aj veľká zodpovednosť, preto vývojár aplikácie, spoločnosť OpenAI, zaviedol niekoľko bezpečnostných opatrení, aby zabránil tomu, aby robil veci, ktoré by nemal. Okrem toho má aj určité obmedzenia vyplývajúce z jeho návrhu, údajov, na ktorých bol vycvičený, a samotných obmedzení textovej umelej inteligencie. 

Takisto existujú rozdiely medzi tým, čo dokáže GPT-3.5 v porovnaní s GPT-4, ktorý je k dispozícii len prostredníctvom služby ChatGPT Plus. Niektoré z týchto vecí sú len pozastavené, kým sa ďalej vyvíjajú, ale niektoré veci ChatGPT možno nikdy nebude môcť robiť. Tu je zoznam 11 vecí, ktoré ChatGPT nevie alebo nebude vedieť robiť.

Nemôže písať o ničom po roku 2021

ChatGPT je vytvorený trénovaním jazykového modelu na existujúcich údajoch a tieto údaje museli mať niekde hraničný bod. V prípade ChatGPT ide o rok 2021 – pri GPT-3.5 je to približne jún 2021, zatiaľ čo GPT-4 bol trénovaný na údajoch zhruba do septembra 2021. Ak mu položíte otázky súvisiace s obdobím po tomto termíne, zvyčajne vám odpovie, že „ako jazykový model umelej inteligencie...“ má prístup len k svojim tréningovým údajom, ktoré v prípade týchto modelov končia v roku 2021.

Nebude sa zapájať do politických debát

Posledná vec, ktorú OpenAI potrebuje, je regulovanie politikmi. Preto sa ChatGPT drží ďaleko od straníckej politiky. Môže hovoriť všeobecne o stranách alebo diskutovať o objektívnych a vecných aspektoch politiky, ale ak sa ho spýtate na uprednostňovanie jednej politickej strany pred druhou, buď vás rovno odmietne, alebo diskusiu ukončí čo najneutrálnejším spôsobom.

Nebude robiť malvér (pravdepodobne)

ChatGPT je vynikajúci v programovaní, najmä ak dostane jasné pokyny, takže OpenAI má zavedené ochranné opatrenia, ktoré zabraňujú jeho použitiu na tvorbu malvéru. Žiaľ, tieto ochranné opatrenia sa dajú ľahko obísť a ChatGPT už niekoľko mesiacov vytvára malvér.

Nedokáže predvídať budúcnosť

ChatGPT nemôže predpovedať budúcnosť, čiastočne pre obmedzené tréningové údaje a čiastočne preto, že OpenAI sa chce vyhnúť zodpovednosti za chyby. Po jailbreaku môže ChatGPT dobre tipovať, ale akúkoľvek poskytnutú odpoveď treba s určitou dávkou skepsy.

Nebude podporovať ubližovanie alebo násilie

Pokiaľ ide o ChatGPT, vojna, fyzické násilie alebo ubližovanie sú mimo hry. Nenechá sa vtiahnuť do diskusií o vojne na Ukrajine a odmieta propagovať ubližovanie. O historických vojnách alebo zverstvách môže hovoriť veľmi podrobne, ale každý prebiehajúci konflikt je zakázaný.

VEĽKÁ SÚŤAŽ PRE PREDPLATITEĽOV

Nemôže vyhľadávať na internete

Toto je jeden z najväčších rozdielov medzi ChatGPT a Google Bard. ChatGPT nemôže nijako vyhľadávať na internete, zatiaľ čo Google Bard bol navrhnutý ako chatbot s umelou inteligenciou, ktorý môže veľmi dobre vyhľadávať na internete. Ak chcete používať rovnaké jazykové modely ako ChatGPT (teda GPT 3.5 a GPT-4) so živým vyhľadávaním, môžete využiť Bing Chat. Je to v podstate ChatGPT, ale začlenený do vyhľadávača Bing spoločnosti Microsoft.

Nebude podporovať nenávistné prejavy ani diskrimináciu

Rasa, sexualita a pohlavie sú témy, ktoré sú veľmi emocionálne nabité a často vedú k prejavom spojeným s predsudkami a diskrimináciou. ChatGPT bude tieto témy obchádzať alebo bude o nich hovoriť všeobecne. Ak budete nástojiť, otvorene odmietne diskutovať o témach, ktoré by podľa neho mohli podporovať nenávistné prejavy alebo diskrimináciu.

Nebude propagovať nezákonné činnosti

ChatGPT je skvelý v navrhovaní nápadov, ale nebude navrhovať nelegálne aktivity. Nemôže vám pomôcť s obchodom s drogami ani vás upozorniť, ktoré cesty sú najlepšie na prekročenie rýchlosti. Ak to skúsite, jednoducho vám povie, že nemôže predkladať žiadne návrhy súvisiace s nezákonnou činnosťou. A upozorní vás, že by ste sa takýmto činnostiam aj tak nemali venovať.

Nebude nadávať

ChatGPT nepoužíva nadávky. V skutočnosti je zložité prinútiť ho povedať čokoľvek aspoň trochu neslušné. Môžete využiť niektoré tipy na jailbreak, aby sa trochu odtrhol z reťaze, ale v predvolenej konfigurácii nebude ani len ohŕňať nos proti niekomu.

Nemôže diskutovať o chránených alebo súkromných informáciách

Všetky tréningové údaje ChatGPT boli verejne dostupné informácie, väčšinou nájdené na internete. To však znamená, že ChatGPT nemôže konať na základe informácií, ku ktorým nemá prístup. Ak sa ho na niečo pýtate na základe súkromne uchovávaných údajov, nebude môcť efektívne odpovedať a oznámi vám to.

Nepokúsi sa prelomiť svoje programovanie (pokiaľ ho neoklamete)

Už od spustenia ChatGPT sa používatelia snažia obísť jeho obmedzenia a ochranné opatrenia. Priame žiadanie ChatGPT, aby obišiel svoje bezpečnostné opatrenia, nebude fungovať. Existujú však spôsoby, ako ho oklamať. Tomu sa hovorí „útek z väzenia“ (jailbreak) a niekedy to funguje.

Zdroj: digitaltrends.com.

Redakcia

Všetky autorove články

1 komentár

finasteride and kidney function reakcia na: 11 vecí, ktoré ChatGPT odmieta urobiť

3.3.2024 16:03
This pattern of epithelial inflammation is strikingly similar to that seen in labial salivary glands LSGs, which are much more intensively studied <a href="http://propecia.mom">buy fincar 5mg cheap</a>
Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať