Milion tokenu jako standard. To není budoucnost, to je teď
Nejvýraznější novinkou DeepSeek-V4 je podpora kontextu o délce jednoho milionu tokenů (1M) u obou variant modelu. Pro představu: milion tokenu odpovídá zhruba 750 tisícům slov, tedy několika románům nebo kompletnímu zdrojovému kódu velkého softwarového projektu. Dosud byly takové kapacity výsadou hrstky nejdražších uzavřených modelů, a často jen v experimentálním režimu.
DeepSeek přitom slibuje, že 1M kontext bude standardem u všech oficiálních služeb — webového rozhraní, mobilní aplikace i API. Technicky to umožňuje nová architektura Hybrid Attention, která kombinuje Compressed Sparse Attention (CSA) a Heavily Compressed Attention (HCA). Díky tomu potřebuje V4-Pro při zpracování milionového kontextu pouze 27 % výpočetního výkonu a 10 % paměti KV cache oproti předchozí generaci V3.2. Laicky řečeno: model dokáže „číst“ obří dokumenty rychleji a levněji, aniž by zapomínal, co bylo na začátku.
Benchmarky dlouhých kontextů to potvrzují. V testu MRCR 1M dosáhl V4-Pro-Max skóre 83,5 %, zatímco Gemini-3.1-Pro High zůstal na 76,3 %. To znamená, že model si lépe pamatuje detaily rozptýlené v dlouhých textech — klíčové například pro právní analýzy, audit kódu nebo výzkum vědeckých článků.
Dva modely pro dva světy: Pro pro náročné, Flash pro každodenní práci
DeepSeek-V4 přichází ve dvou variantách, které se liší velikostí, cenou a zaměřením:
DeepSeek-V4-Pro je vlajková loď. Má 1,6 bilionu parametrů, přičemž při každém dotazu se aktivuje 49 miliard. V režimu Think Max (maximální úsilí při uvažování) dosahuje výsledků srovnatelných s nejlepšími uzavřenými modely světa. V programovacím benchmarku LiveCodeBench získal 93,5 %, čímž překonal Gemini-3.1-Pro (91,7 %) i Claude Opus 4.6 Max (88,8 %). Na soutěžní platformě Codeforces dosáhl ratingu 3206, což je elitní úroveň. V matematickém testu IMO Answer Bench zvládl 89,8 % úloh, těsně za GPT-5.4 xHigh (91,4 %).
DeepSeek-V4-Flash je kompaktnější: 284 miliard parametrů, 13 miliard aktivovaných. Je rychlejší a levnější, přitom si ale uchovává schopnost řešit složité úlohy, zejména pokud se zapne režim Think Max. V jednoduchých agentních úlohách si vede téměř stejně jako Pro verze. Pro české startupy a vývojáře může být ideální volbou pro integraci do vlastních aplikací.
Agenti, kód a nástroje: Hlavní bojiště roku 2026
DeepSeek-V4 nezapadá do kategorie „pouze chatbot“. Model je cíleně optimalizován pro agentní úlohy — tedy schopnost samostatně plnit složité zadání pomocí nástrojů. V testu Terminal Bench 2.0, který simuluje práci v příkazové řádce, dosáhl V4-Pro-Max 67,9 %. V SWE Verified, benchmarku řešení reálných softwarových chyb, zvládl 80,6 % případů, což je na úrovni Claude Opus 4.6 Max (80,8 %).
Model je přímo adaptován pro populární agentní frameworky jako Claude Code, OpenClaw, OpenCode nebo CodeBuddy. Podporuje volání nástrojů (tool calls), strukturovaný JSON výstup a dokonce nabízí kompatibilitu s Anthropic API formátem — což zjednodušuje přechod pro vývojáře, kteří dosud používali Claude.
V praxi to znamená, že V4 umí nejen psát kód, ale i navigovat v repozitářích, generovat dokumentaci, vytvářet prezentace nebo procházet webové stránky za účelem sběru dat. V interních testech DeepSeek prý používají V4-Pro jako hlavní model pro agentní programování a výsledky údajně překonávají Claude Sonnet 4.5.
Ceny, které mění pravidla hry
DeepSeek už tradičně tlačí ceny API dolů a V4 není výjimkou. Za milion vstupních tokenů zaplatíte u V4-Flash pouze 0,14 USD (při cache hit 0,028 USD), za výstupní tokeny 0,28 USD. V4-Pro stojí 1,74 USD za milion vstupních tokenů (cache hit 0,145 USD) a 3,48 USD za výstupní. Pro srovnání: OpenAI GPT-5.4 nebo Claude Opus 4.6 stojí často několikanásobně více, přičemž jejich kontextové okno je kratší.
Webové rozhraní na chat.deepseek.com a oficiální mobilní aplikace jsou pro koncové uživatele zdarma. API je dostupné na platform.deepseek.com. Vývojáři by si měli dát pozor na plánovanou změnu: dosavadní názvy modelů deepseek-chat a deepseek-reasoner budou 24. července 2026 zrušeny a nahrazeny přímo V4-Flash.
Co to znamená pro Česko a Evropu?
Pro české uživatele a firmy přináší DeepSeek-V4 několik zásadních výhod i otazníků. Protože jde o open-source model s MIT licencí, mohou ho české společnosti provozovat lokálně na vlastních serverech. To eliminuje riziko úniku citlivých dat do zahraničí a usnadňuje shodu s GDPR. Modely jsou dostupné na Hugging Face a čínském ModelScope.
Co se jazykové podpory týče, DeepSeek jako čínský model historicky ovládal i češtinu na velmi slušné úrovni — předchozí generace V3 a R1 zvládaly české texty, překlady i gramatiku. Oficiální dokumentace však češtinu explicitně nezmiňuje, takže nejnáročnější úlohy mohou stále lépe zvládat modely od OpenAI nebo Google.
Na evropské úrovni je třeba zohlednit EU AI Act. Čínský původ modelu může vyvolávat otázky ohledně transparentnosti tréninkových dat, autorských práv a potenciální cenzury. Zatímco otevřené váhy a technická zpráva poskytují vysokou míru transparentnosti, firmy v regulovaných odvětvích by měly provést vlastní posouzení rizik dle klasifikace AI Act.
Srovnání se špičkou: Kde V4 vítězí a kde ztrácí
V tabulkách benchmarků DeepSeek-V4-Pro-Max často stojí vedle nejlepších uzavřených modelů. V kódování a matematice je na špičce, v některých agentních scénářích dokonce předčí Claude Opus 4.6. V obecných znalostech, měřených například testem MMLU-Pro, zůstává mírně za Gemini-3.1-Pro (87,5 % vs. 91,0 %). V testu Apex, který měří hluboké vědecké porozumění, má Pro-Max 38,3 %, zatímco Gemini-3.1-Pro dosahuje 60,9 %.
To ale neznamená, že by V4 byl slabý. Spíše ukazuje, že každý model má jiné silné stránky. Pro vývojáře, datové analytiky a firmy hledající ekonomickou alternativu k západním API může být DeepSeek-V4 výrazně atraktivnější volbou než dražší konkurence.
Závěr: Open-source alternativa, která už není „jen alternativou“
DeepSeek-V4 posouvá hranice toho, co lze očekávat od open-source modelu. Milionový kontext, špičkové výsledky v kódování, konkurenceschopné ceny a otevřené váhy — to vše činí z V4 seriózního hráče, který může českým firmám ušetřit desítky až stovky tisíc korun ročně na nákladech za API. Zároveň přináší nové otázky o bezpečnosti, datech a geopolitickém rozdělení AI ekosystému. Jedno je jisté: rok 2026 bude patřit modelům, které umějí nejen odpovídat, ale i samostatně jednat.
Umí DeepSeek-V4 česky a jak kvalitně?
Předchozí generace DeepSeek (V3, R1) češtinu ovládaly na solidní úrovni, včetně psaní textů, překladů i gramatické korektury. Oficiální dokumentace k V4 českou lokalizaci explicitně nezmiňuje, ale díky tréninku na 32 bilionech tokenech z různých jazyků lze očekávat minimálně srovnatelnou kvalitu. Pro nejnáročnější úlohy však stále doporučujeme ověřit výstupy.
Jaké hardware potřebuji pro lokální běh DeepSeek-V4-Pro?
Lokální provoz V4-Pro je náročný — model má 1,6 bilionu parametrů. DeepSeek doporučuje použít FP4/FP8 smíšenou přesnost a specializované inference frameworky. Pro běžné firmy bude praktičtější použít menší V4-Flash (284B parametrů) nebo využít API. Podrobný návod k lokálnímu nasazení najdete v repozitáři na Hugging Face.
Jak se DeepSeek-V4 liší od R1?
Zatímco DeepSeek-R1 byl primárně „reasoning“ model zaměřený na logické úvahy a matematiku, V4 je univerzální rodina modelů s důrazem na dlouhý kontext, agentní schopnosti a efektivitu. V4-Pro a V4-Flash nabízejí tři režimy uvažování (Non-think, Think High, Think Max), zatímco R1 pracoval primárně v režimu hlubokého přemýšlení. V4 také přináší podporu milionového kontextu a lepší integraci s externími nástroji.