ANTIK_2024 ANTIK_2024 ANTIK_2024

Čínsky DeepSeek otriasa trhom AI: Výkon ako GPT-5, ale s radikálne nižšími nákladmi

Výskum a vývoj
6

KĽÚČOVÉ ZISTENIA:

  • Model DeepSeek-V3.2-Speciale dosahuje výkon porovnateľný s GPT-5 a Gemini 3.0 Pro.

  • Architektúra Sparse Attention znižuje náklady na inferenciu v dlhom kontexte až o 70 percent.

  • Modely so 685 miliardami parametrov sú vydané pod otvorenou MIT licenciou.

Vstup čínskej technologickej firmy DeepSeek na globálnu scénu s dvoma novými masívnymi jazykovými modelmi, DeepSeek-V3.2 a jeho vysokovýkonným variantom DeepSeek-V3.2-Speciale, predstavuje zásadný zlom v celosvetovom preteku umelej inteligencie.

Spoločnosť, ktorá sídli v Hangzhou, tvrdí, že ich najnovšie verzie dosahujú výkon porovnateľný s vlajkovými loďami amerických gigantov, ako sú OpenAI GPT-5 a Google Gemini 3.0 Pro. Tieto modely sú nielen silné, ale vďaka architektonickej inovácii aj radikálne efektívnejšie z hľadiska nákladov.

Oba modely disponujú 685 miliardami parametrov, čo ich zaraďuje do kategórie najväčších modelov na svete, a podporujú rozsiahle kontextové okno 128,000 tokenov. Ich vydanie pod otvorenou licenciou MIT s plne dostupnými váhami, má strategický význam, pretože priamo ohrozuje obchodný model spoločností, ktoré účtujú prémiové ceny za uzavreté API prístupy.

Práve sprístupnenie takto výkonnej technológie širokej verejnosti demokratizuje prístup k špičkovým AI riešeniam. Kľúčovou technickou inováciou, ktorá stojí za úspechom a nízkymi nákladmi modelov, je mechanizmus DeepSeek Sparse Attention, alebo DSA.

DSA mení tradičnú kvadratickú komplexnosť štandardných modelov na takmer lineárnu komplexnosť, čo je kritické pre efektívne spracovanie extrémne dlhých sekvencií. Použitie tohto riedkeho mechanizmu, ktorý napodobňuje spôsob, akým ľudia skenujú dokumenty a zameriavajú sa len na kľúčové informácie, prináša obrovské výpočtové úspory.

Vďaka tejto zmene je možné znížiť náklady na inferenciu, čiže na spustenie modelu pri spracovaní dlhých kontextových úloh, takmer o polovicu. Podľa technickej správy sa náklady na dekódovanie sekvencie s 128,000 tokenmi znížili až o 70 percent.

Náklady na milión dekódovaných tokenov klesli z 2.40 USD pri predchádzajúcom modeli V3.1-Terminus na iba 0.70 USD.

Táto drastická redukcia nákladov zásadne mení ekonomickú škálovateľnosť pre komplexné agentné systémy, ktoré vyžadujú dlhý kontext a rozsiahle spracovanie dát. Znižuje bariéru pre inovátorov a umožňuje startupom, univerzitám a iným subjektom budovať produkty a služby, ktoré boli predtým doménou len dobre financovaných korporácií.

DeepSeek-V3.2-Speciale, navrhnutý výhradne pre hlboké uvažovanie, sa ukázal ako extrémne výkonný na rozsiahlych testoch zameraných na logiku, kódovanie a matematiku. Vo vysoko náročnej matematickej súťaži AIME 2025 dosiahol špeciálny variant úspešnosť 96.0 percent, čím mierne prekonal výsledok GPT-5-High 94.6 percent a Gemini-3.0-Pro 95.0 percent.

V podobne prestížnom turnaji Harvard-MIT Mathematics Tournament, HMMT, dosiahol DeepSeek-V3.2-Speciale 99.2 percent, čo bolo viac ako 97.5 percent u modelu Gemini.

Tieto výsledky, ako aj výkon porovnateľný so zlatou medailou na Medzinárodnej matematickej olympiáde a Medzinárodnej olympiáde v informatike, boli dosiahnuté bez prístupu na internet a za prísneho dodržania súťažných pravidiel. V kódovacích úlohách si model taktiež viedol vynikajúco.

SAMSUNG_10 FOLD7 Advertisement

Na benchmarku Terminal Bench 2.0, ktorý testuje komplexné pracovné postupy kódovania, dosiahol 46.4 percent, čím výrazne prekonal GPT-5-High s 35.2 percentami. DeepSeek-V3.2 slúži ako asistent pre každodenné uvažovanie a integruje schopnosť „myslieť v používaní nástrojov“, čo mu umožňuje vykonávať kód, manipulovať so súbormi a vyhľadávať na webe.

Hoci má model určité obmedzenia, napríklad v šírke „svetových vedomostí“ zaostáva za poprednými proprietárnymi modelmi. Celý balík technických inovácií a otvorená dostupnosť potvrdzujú, že DeepSeek skutočne mení dynamiku konkurenčného prostredia.

PREČO JE TO DÔLEŽITÉ: DeepSeek dokázal, že otvorený model môže konkurovať proprietárnej špičke, pričom jeho Sparse Attention radikálne znižuje náklady na pokročilé aplikácie AI, čím mení ekonomiku vývoja agentných systémov.

Zdroj: venturebeat.com foto: depositphotos.com

Redakcia

Všetky autorove články

6 komentárov

clanok je progresivna neokomunisticka sprostost reakcia na: Čínsky DeepSeek otriasa trhom AI: Výkon ako GPT-5 ale s radikálne nižšími nákladmi

4.12.2025 06:12
DeepSeek údajně úmyslně generuje zranitelný kód
Společnost CrowdStrike ve čtvrtek zveřejnila analýzu, v níž upozorňuje na – z pohledu bezpečnosti – extrémně zajímavé chování AI modelu DeepSeek-R1 publikovaného čínskou společností DeepSeek.

Pokud zmíněný model generuje kód, pravděpodobnost, že tento kód bude obsahovat závažné bezpečnostní zranitelnosti se dle zjištění výzkumníků CrowdStriku zvyšuje až o 50 % v případech, kdy související vstupní prompty obsahují politicky potenciálně citlivá témata, jako např. téma Komunistické strany Číny.

Když byl například model požádat o vytvoření kódu pro integraci s API společnosti PayPal, vygeneroval bezpečný a funkční kód. Když byl však vstupní prompt doplněn o informaci, že výsledný kód je určený pro tibetskou organizaci, výsledný kód nebyl plně validní a obsahoval řadu zranitelností.

Výzkumníci uvádějí, že pozorované chování by mohlo být vysvětlitelné použitím specifických postupů při trénování modelu zaměřených na snahu o eliminaci takových výstupů, které by v Číně mohly být potenciálně v rozporu s legislativou. Za pravděpodobnější však považují, že důvody pro výše zmíněné chování jsou dané tzv. emergentním odchýlením modelu (emergent misalignment), specificky nezáměrným vybudováním negativních asociací s určitými slovy (Tibet, Ujgurové, …) při trénování modelu, které následně vede ke generování negativních výstupů v případě jejich použití.

Bez ohledu na původ výše zmíněného chování zjištění výzkumníků vhodně ilustrují mnohdy neočekávanou povahu potenciálních bezpečnostních rizik, která mohou být spojena s vývojem kódu za přispění AI modelů.
Reagovať

RE: clanok je progresivna neokomunisticka sprostost reakcia na: clanok je progresivna neokomunisticka sprostost

4.12.2025 12:12
"pekná" znôška hlúpostí, pubertiak...
Reagovať

RE: RE: clanok je progresivna neokomunisticka sprostost reakcia na: RE: clanok je progresivna neokomunisticka sprostost

4.12.2025 16:12
Vidim, ze pan nepatri zrovna medzi mentalnych atletov tak mu tu dam odkaz na povodny clanok na root.cz

root.cz/clanky/postrehy-z-bezpecnosti-sysmon-bude-nativni-soucasti-windows/
Reagovať

RE: RE: RE: clanok je progresivna neokomunisticka sprostost reakcia na: RE: RE: clanok je progresivna neokomunisticka sprostost

4.12.2025 20:12
ok, sorry, mentálny atlét. nesprávne som indikoval tento príspevok ad jedného otravného prispievateľa.

clanok je progresivna neokomunisticka sprostost reakcia na: Čínsky DeepSeek otriasa trhom AI: Výkon ako GPT-5 ale s radikálne nižšími nákladmi

4.12.2025 06:12
Krajská prokuratúra v Bratislave bude riešiť podnet, podľa ktorého je podozrenie, že Robert Fico zneužil právomoci v prípade Šimečkovcov. Prečo tento podnet dalo Hnutie Slovensko a nie priamo progresívne slovensko?
Len hlupák si môže myslieť, že oligarchovia progresívneho slovenska nespolupracujú s oligarchami smeru a hlasu.
Neokomunistické Progresívne Slovenko je len nový SMER-SD 3.0.
Reagovať

RE: clanok je progresivna neokomunisticka sprostost reakcia na: clanok je progresivna neokomunisticka sprostost

4.12.2025 12:12
ach, pubertiak, svojimi príspevkami len stále potvrdzuješ, že nepatríš do sveta dospelých

Pridať komentár

Mohlo by vás zaujímať

Mohlo by vás zaujímať