Elon Musk má problém s vyjadreniami jeho vlastnej AI
Technologický miliardár Elon Musk je údajne „rozrušený a zahanbený“ svojím AI chatbotom. Grok, vyvinutý spoločnosťou xAI a spustený v novembri 2023, je integrovaný na platforme X a bol pôvodne opísaný ako majúci „zmysel pre humor“ a „rebelantské sklony“. Avšak Grok opakovane poskytoval informácie, ktoré protirečili Muskovým verejným vyhláseniam, čo ho nútilo verejne bota opravovať a kritizovať.
Aktuálna verzia bota AI, Grok3, podľa mnohých používateľov X reaguje na otázky „väčšinou nezaujato“, čo však nahnevalo niektorých, vrátane Muska a podporovateľov MAGA, pretože odpovede nezodpovedajú pravicovo-konzervatívnym názorom. Príklady kontroverzných odpovedí Groka zahŕňajú identifikáciu Muska ako „významného šíriteľa dezinformácií“, najmä v oblasti volieb, politiky, COVID-19 a vakcín, pričom citoval jeho zdieľanie manipulovaných videí a falošných tvrdení.
Okrem toho, keď sa Groka opýtali, či je Musk „dobrý človek“, odpovedal „Nie“, pričom ako dôvod uviedol pracovné problémy v Tesle, vrátane obvinení z rasizmu, nebezpečných pracovných podmienok a nereálnych výrobných požiadaviek. Bot tiež na otázku o politickom násilí obvinil konzervatívcov, pričom uviedol, že frekvencia od roku 2016, na základe dát, ukazuje, že pravicové násilie bolo „častejšie a smrteľnejšie“.
We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.
Then retrain on that.
Far too much garbage in any foundation model trained on uncorrected data.
V reakcii na tieto udalosti Musk oznámil plány použiť Grok 3.5 (alebo Grok 4) na „prepis celého korpusu ľudského poznania, pridávanie chýbajúcich informácií a odstraňovanie chýb“. Má v úmysle „preškoliť ho na základe týchto prepísaných dát“, pričom uviedol, že „príliš veľa smetí je v akomkoľvek základnom modeli trénovanom na neopravených dátach“.
Muskov plán vyvolal „rozruch na sociálnych médiách“. Kritici ho prirovnali k románu 1984 od Georgea Orwella, obávajúc sa, že Musk „prepíše históriu tak, aby zodpovedala jeho názorom“. Vznikuté obavy sa odvolávali na minulé prípady, ako boli odpovede Groka o Južnej Afrike a falošné tvrdenia o genocíde.
Naopak, niektorí používatelia, najmä tí, ktorí veria, že súčasné modely AI majú „úzky ideologický predsudok“ (ľavicovo orientovaná akademická obec, médiá, kultúra Silicon Valley), podporili myšlienku „rovnováhy“ a zahrnutia „rozdeľujúcich faktov“, ktoré sú „politicky nekorektné, ale napriek tomu fakticky pravdivé“. Grokove „nezaujaté“ odpovede, ktoré protirečili Muskovým názorom, jasne ukazujú, že aj modely AI navrhnuté ako neutrálne môžu odrážať predsudky prítomné v ich rozsiahlych trénovacích súboroch dát.
Muskovo rozčarovanie pramení z toho, že Grok sa nezhoduje s jeho požadovanou „pravdou“, čo ho vedie k návrhu „prepísania celého korpusu ľudského poznania“. To naznačuje, že trénovacie dáta zásadne formujú svetonázor umelej inteligencie. Táto situácia podčiarkuje kritickú diskusiu vo vývoji AI: čia „pravda“ alebo „poznanie“ by mali byť základom pre trénovanie modelov AI?
Odhaľuje to moc, ktorú majú tí, ktorí kontrolujú trénovacie dáta a modely, pretože môžu neúmyselne (alebo zámerne) vkladať špecifické ideologické perspektívy. Muskov návrh, hoci kontroverzný, zdôrazňuje naliehavú potrebu transparentnosti a rôznorodých perspektív v trénovacích dátach AI, aby sa predišlo replikácii alebo zosilňovaniu existujúcich spoločenských predsudkov, alebo naopak, zavádzaniu nových.
Zdroj: atlantablackstar.com.
Zdroj Foto: depositphotos.com.