
Hlavním hrdinou je čínský LLM (large language model) DeepSeek R1 vyvíjený společností DeepSeek AI. Podle sdělení je tento model téměř stejně efektivní jako ChatGPT od OpenAI. Tohle by ještě nebylo tak neobvyklé, přece jenom můžeme říci, že obecný princip trénování LLM je známý a záleží „jenom“ na tréninku, datech a výpočetní kapacitě.
Co tedy bylo na tomto oznámení jiné? DeepSeek AI totiž zároveň uvedla, že její model je levnější, byl vytrénován za velmi nízkých nákladů (v porovnání s OpenAI, pozn. aut.) a na slabším hardware, který nepodléhá omezením USA. A strhla se bouře.
V reakci na toto oznámení klesly během dne akcie velkých technologických firem dolů o více než deset procent, například Nvidia odepsala za jediný den 583 miliard dolarů, což je rekord v rámci burzy na Wall Street. Podobně dopadly akcie dalších firem včetně OpenAI. Ale proč vlastně? Na první pohled totiž vše vypadá, že DeepSeek AI dokázala vytvořit výkonný model s velmi nízkými náklady.

Cenová analýza
Zjednodušíme si situaci a podíváme se jenom na ChatGPT a DeepSeek. Pro nasazení AI jako služby potřebujeme tokeny, tedy mince na jednotlivé akce. Ty oba modely nabízejí za určitý objem dolarů za milion tokenů (rozdílná je cena za vstup a výstup).
Cena je pro zájemce významným rozhodovacím prvkem, který hraje roli pří výběru modelu. Obě společnosti mají více modelů, postavíme-li proti sobě srovnatelné, pak nám vyjde tabulka viz výše.
Zároveň je možné DeepSeek R1 stáhnout na GitHubu v rámci licence MIT a rozběhnout jej na vlastních serverech. Je možné jej tak využívat na vlastním hardwaru a vyvíjet na něm vlastní služby.
Cena je samozřejmě jen jedním parametrem, tím druhým významným je efektivita (úspěšnost, správnost odpovědí). Jak jsou na tom oba produkty? Na začátek si řekněme, že srovnání modelů AI je náročné a vydalo by na mnoho vědeckých prací, záleží na zaměření LLM a na sestavě otázek a jejich vyhodnocení.

Pokud se podíváme na výzkumy, tak oba modely jsou si výsledky velmi podobné. Z výsledků je zřejmé, že kvalita výstupů podle analýzy je srovnatelná, DeepSeek R1 zaostává pouze v rychlosti. Nicméně při faktoru mnohem nižší ceny jde o akceptovatelnou vlastnost.
Omezení a problémy
DeepSeek AI má také svá omezení – spadá pod čínskou legislativu se vším, co k tomu náleží. Z pohledu výsledků jde o cenzuru, vše co není v souladu s čínským pohledem na svět, je v modelu nepřístupné – zkuste se ho například zeptat na Tchaj-wan. Otázkou tedy je, jak v budoucnu bude model „odladěn“ a jak moc budeme moci věřit jeho výstupům.
Zároveň je model trénován na čínských serverech, což je další argument, se kterým se budeme muset vyrovnat. Ochrana soukromí a dat bude zcela jistě předmětem spekulací a dohadů.

Máme tedy k dispozici model s velmi výhodnou cenou, velmi dobrou kvalitou, byť prozatím s nižší rychlostí. Trhy na něj reagovaly velmi silně a pohyb akcií některých firem byl masivní. Nervozita investorů byla dána panikou, že jejich velké investice do současných LLM jsou znehodnoceny, neboť DeepSeek AI dokázala vytvořit podobný LLM na slabším hardware za zlomek financí.
Destilací se v oboru LLM rozumí využití existujícího modelu k tréninku nového. Výhodou tohoto postupu je rychlost a nízké náklady na nový model. Během destilace se využije velký vytrénovaný model (teacher) k vytvoření nového modelu (student). Ten pak sdílí většinu schopností a kvalit původního modelu a umožňuje například jeho specializaci.
Uvidíme, jaké bude další pokračování této zajímavé situace. Máme ChatGPT jako již etablovaný model a vedle toho novinku, která nasadila agresivní cenovou politiku a u níž existuje podezření na využití již existujícího modelu k vytvoření konkurence za nízkých nákladů.
Autor je školitel AI technologií společnosti OKsystem
(Redakčně upraveno)