SAMSUNG_10 FOLD Advertisement SAMSUNG_10 FOLD Advertisement SAMSUNG_10 FOLD Advertisement

Elon Musk má problém s vyjadreniami jeho vlastnej AI

Výskum a vývoj
2

Technologický miliardár Elon Musk je údajne „rozrušený a zahanbený“ svojím AI chatbotom. Grok, vyvinutý spoločnosťou xAI a spustený v novembri 2023, je integrovaný na platforme X a bol pôvodne opísaný ako majúci „zmysel pre humor“ a „rebelantské sklony“. Avšak Grok opakovane poskytoval informácie, ktoré protirečili Muskovým verejným vyhláseniam, čo ho nútilo verejne bota opravovať a kritizovať.  

Aktuálna verzia bota AI, Grok3, podľa mnohých používateľov X reaguje na otázky „väčšinou nezaujato“, čo však nahnevalo niektorých, vrátane Muska a podporovateľov MAGA, pretože odpovede nezodpovedajú pravicovo-konzervatívnym názorom. Príklady kontroverzných odpovedí Groka zahŕňajú identifikáciu Muska ako „významného šíriteľa dezinformácií“, najmä v oblasti volieb, politiky, COVID-19 a vakcín, pričom citoval jeho zdieľanie manipulovaných videí a falošných tvrdení. 

Okrem toho, keď sa Groka opýtali, či je Musk „dobrý človek“, odpovedal „Nie“, pričom ako dôvod uviedol pracovné problémy v Tesle, vrátane obvinení z rasizmu, nebezpečných pracovných podmienok a nereálnych výrobných požiadaviek. Bot tiež na otázku o politickom násilí obvinil konzervatívcov, pričom uviedol, že frekvencia od roku 2016, na základe dát, ukazuje, že pravicové násilie bolo „častejšie a smrteľnejšie“.  

V reakcii na tieto udalosti Musk oznámil plány použiť Grok 3.5 (alebo Grok 4) na „prepis celého korpusu ľudského poznania, pridávanie chýbajúcich informácií a odstraňovanie chýb“. Má v úmysle „preškoliť ho na základe týchto prepísaných dát“, pričom uviedol, že „príliš veľa smetí je v akomkoľvek základnom modeli trénovanom na neopravených dátach“.  

Muskov plán vyvolal „rozruch na sociálnych médiách“. Kritici ho prirovnali k románu 1984 od Georgea Orwella, obávajúc sa, že Musk „prepíše históriu tak, aby zodpovedala jeho názorom“. Vznikuté obavy sa odvolávali na minulé prípady, ako boli odpovede Groka o Južnej Afrike a falošné tvrdenia o genocíde.

Naopak, niektorí používatelia, najmä tí, ktorí veria, že súčasné modely AI majú „úzky ideologický predsudok“ (ľavicovo orientovaná akademická obec, médiá, kultúra Silicon Valley), podporili myšlienku „rovnováhy“ a zahrnutia „rozdeľujúcich faktov“, ktoré sú „politicky nekorektné, ale napriek tomu fakticky pravdivé“. Grokove „nezaujaté“ odpovede, ktoré protirečili Muskovým názorom, jasne ukazujú, že aj modely AI navrhnuté ako neutrálne môžu odrážať predsudky prítomné v ich rozsiahlych trénovacích súboroch dát.

K PREDPLATNÉMU DOSTANEŠ DARČEKY!

Muskovo rozčarovanie pramení z toho, že Grok sa nezhoduje s jeho požadovanou „pravdou“, čo ho vedie k návrhu „prepísania celého korpusu ľudského poznania“. To naznačuje, že trénovacie dáta zásadne formujú svetonázor umelej inteligencie. Táto situácia podčiarkuje kritickú diskusiu vo vývoji AI: čia „pravda“ alebo „poznanie“ by mali byť základom pre trénovanie modelov AI?

Odhaľuje to moc, ktorú majú tí, ktorí kontrolujú trénovacie dáta a modely, pretože môžu neúmyselne (alebo zámerne) vkladať špecifické ideologické perspektívy. Muskov návrh, hoci kontroverzný, zdôrazňuje naliehavú potrebu transparentnosti a rôznorodých perspektív v trénovacích dátach AI, aby sa predišlo replikácii alebo zosilňovaniu existujúcich spoločenských predsudkov, alebo naopak, zavádzaniu nových.

Zdroj: atlantablackstar.com.

Zdroj Foto: depositphotos.com.

Redakcia

Všetky autorove články

2 komentáre

sprostosti reakcia na: Elon Musk má problém s vyjadreniami jeho vlastnej AI

25.6.2025 06:06
Aaaa, po niekolkodnovej odmlke je uz zasa miestna progresivno-komunisticka uderka v akcii.
Reagovať

RE: sprostosti reakcia na: sprostosti

25.6.2025 08:06
Som rád, že si sa priznal.
Reagovať

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať