DeepSeek zahýbal světem

Ať dnes otevřeme jakékoli médium, najdeme nějaký článek, který se alespoň lehce dotýká umělé inteligence (AI). Témata jsou v podstatě podobná a oscilují mezi bezbřehým optimismem (AI nám se vším pomůže) a totálním pesimismem (AI nás všechny zotročí). V posledních lednových dnech tu ale máme něco jiného.
DeepSeek R1 vyvíjený čínskou společností DeepSeek AI je údajně téměř stejně efektivní jako ChatGPT od společnosti OpenAI. Ilustrační foto: Depositphotos.com
DeepSeek R1 vyvíjený čínskou společností DeepSeek AI je údajně téměř stejně efektivní jako ChatGPT od společnosti OpenAI. Ilustrační foto: Depositphotos.com

Hlavním hrdinou je čínský LLM (large language model) DeepSeek R1 vyvíjený společností DeepSeek AI. Podle sdělení je tento model téměř stejně efektivní jako ChatGPT od OpenAI. Tohle by ještě nebylo tak neobvyklé, přece jenom můžeme říci, že obecný princip trénování LLM je známý a záleží „jenom“ na tréninku, datech a výpočetní kapacitě.

Co tedy bylo na tomto oznámení jiné? DeepSeek AI totiž zároveň uvedla, že její model je levnější, byl vytrénován za velmi nízkých nákladů (v porovnání s OpenAI, pozn. aut.) a na slabším hardware, který nepodléhá omezením USA. A strhla se bouře.

V reakci na toto oznámení klesly během dne akcie velkých technologických firem dolů o více než deset procent, například Nvidia odepsala za jediný den 583 miliard dolarů, což je rekord v rámci burzy na Wall Street. Podobně dopadly akcie dalších firem včetně OpenAI. Ale proč vlastně? Na první pohled totiž vše vypadá, že DeepSeek AI dokázala vytvořit výkonný model s velmi nízkými náklady.

Srovnání cen. Zdroj: Alexandr Vasilenko, OKsystem
Srovnání cen. Zdroj: Alexandr Vasilenko, OKsystem

Cenová analýza

Zjednodušíme si situaci a podíváme se jenom na ChatGPT a DeepSeek. Pro nasazení AI jako služby potřebujeme tokeny, tedy mince na jednotlivé akce. Ty oba modely nabízejí za určitý objem dolarů za milion tokenů (rozdílná je cena za vstup a výstup).

Cena je pro zájemce významným rozhodovacím prvkem, který hraje roli pří výběru modelu. Obě společnosti mají více modelů, postavíme-li proti sobě srovnatelné, pak nám vyjde tabulka viz výše.

Zároveň je možné DeepSeek R1 stáhnout na GitHubu v rámci licence MIT a rozběhnout jej na vlastních serverech. Je možné jej tak využívat na vlastním hardwaru a vyvíjet na něm vlastní služby.

Cena je samozřejmě jen jedním parametrem, tím druhým významným je efektivita (úspěšnost, správnost odpovědí). Jak jsou na tom oba produkty? Na začátek si řekněme, že srovnání modelů AI je náročné a vydalo by na mnoho vědeckých prací, záleží na zaměření LLM a na sestavě otázek a jejich vyhodnocení.

Srovnání kvality. Zdroj: Alexandr Vasilenko, OKsystem
Srovnání kvality. Zdroj: Alexandr Vasilenko, OKsystem

Pokud se podíváme na výzkumy, tak oba modely jsou si výsledky velmi podobné. Z výsledků je zřejmé, že kvalita výstupů podle analýzy je srovnatelná, DeepSeek R1 zaostává pouze v rychlosti. Nicméně při faktoru mnohem nižší ceny jde o akceptovatelnou vlastnost.

Omezení a problémy

DeepSeek AI má také svá omezení – spadá pod čínskou legislativu se vším, co k tomu náleží. Z pohledu výsledků jde o cenzuru, vše co není v souladu s čínským pohledem na svět, je v modelu nepřístupné – zkuste se ho například zeptat na Tchaj-wan. Otázkou tedy je, jak v budoucnu bude model „odladěn“ a jak moc budeme moci věřit jeho výstupům.

Zároveň je model trénován na čínských serverech, což je další argument, se kterým se budeme muset vyrovnat. Ochrana soukromí a dat bude zcela jistě předmětem spekulací a dohadů.

Srovnání rychlosti. Zdroj: Alexandr Vasilenko, OKsystem
Srovnání rychlosti. Zdroj: Alexandr Vasilenko, OKsystem

Máme tedy k dispozici model s velmi výhodnou cenou, velmi dobrou kvalitou, byť prozatím s nižší rychlostí. Trhy na něj reagovaly velmi silně a pohyb akcií některých firem byl masivní. Nervozita investorů byla dána panikou, že jejich velké investice do současných LLM jsou znehodnoceny, neboť DeepSeek AI dokázala vytvořit podobný LLM na slabším hardware za zlomek financí.

Destilací se v oboru LLM rozumí využití existujícího modelu k tréninku nového. Výhodou tohoto postupu je rychlost a nízké náklady na nový model. Během destilace se využije velký vytrénovaný model (teacher) k vytvoření nového modelu (student). Ten pak sdílí většinu schopností a kvalit původního modelu a umožňuje například jeho specializaci.

Uvidíme, jaké bude další pokračování této zajímavé situace. Máme ChatGPT jako již etablovaný model a vedle toho novinku, která nasadila agresivní cenovou politiku a u níž existuje podezření na využití již existujícího modelu k vytvoření konkurence za nízkých nákladů.

Autor je školitel AI technologií společnosti OKsystem
(Redakčně upraveno)

Zavřít reklamu
Sdílet článek
Diskuse 0
Sdílet článek

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Odesláním vyslovujete souhlas s dokumentem Všeobecné podmínky používání webových stránek