Llama 4: Dva modely, jedna architektura, rekordní čísla
Dne 5. dubna 2026 Meta na svém blogu a platformě Hugging Face uvolnila dva nové modely řady Llama 4: Scout a Maverick. Oba jsou postaveny na architektuře Mixture of Experts (MoE) — model má 17 miliard aktivních parametrů, ale celkový počet parametrů je výrazně vyšší, protože v každém průchodu se aktivuje jen část tzv. expertů.
Scout má 16 expertů a celkem 109 miliard parametrů, Maverick pak 128 expertů a zhruba 400 miliard parametrů. Přesto mají oba modely při inferenci podobnou výpočetní náročnost — klíčová výhoda MoE architektur, která se prosazuje i u Googlu (Gemini) či francouzského Mistral AI.
10 milionů tokenů: Kontextové okno, které nemá konkurenci
Největším technickým překvapením je kontextové okno modelu Scout: 10 milionů tokenů. Pro srovnání — konkurenční Gemini 3.1 Flash Lite nabízí 1 milion tokenů, Claude Opus 4.6 podobně. Scout přeskakuje dosavadní maximum o řád.
V praxi to znamená, že do promptu lze vložit celé knihy, rozsáhlé kódové báze nebo stovky dokumentů najednou, aniž by model ztratil kontext. Meta k tomu využila kombinaci speciálních technik: NoPE (No Positional Encoding) každé čtyři vrstvy, Chunked Attention s bloky 8 tisíc tokenů a upravené škálování softmax, aby model neztrácel pozornost u velmi dlouhých sekvencí.
Maverick nabízí „pouze" 1 milion tokenů — ale i to je dost na práci s rozsáhlými podnikovými dokumenty nebo zdrojovým kódem celého projektu.
Nativně multimodální: Text i obrázky od základu
Llama 4 Scout a Maverick jsou nativně multimodální — nevznikly přidáním vizuálního modulu k textovému modelu, ale byly trénovány na textu i obrázcích od začátku. Oba modely přijímají textové a obrazové vstupy; výstup je zatím textový.
Trénovací data čítají 40 bilionů tokenů ve 200 jazycích. Čeština mezi těmito jazyky figuruje, nicméně Meta neuvádí, jak velký podíl tvoří českojazyčný materiál. Zkušenosti s modely Llama předchozích generací naznačují, že čeština je podporována, ale nikoli na úrovni angličtiny.
Benchmarky: Kde Llama 4 stojí
Výsledky hovoří v prospěch Mavericku, který se benchmark výsledky řadí do první ligy open-weight modelů:
- MMLU Pro: Maverick 80,5 %, Scout 74,3 %
- GPQA Diamond (vědecké uvažování): Maverick 69,8 %
- LMArena ELO skóre: Maverick 1 417 — srovnatelné s GPT-4o, pod úrovní nejnovějšího GPT-5.4 nebo Claude Opus 4.6
Gemini 3.1 Pro vede na GPQA Diamond s 94,3 %, Claude Opus 4.6 dominuje na SWE-bench Verified (software engineering) s 80,8 %. Llama 4 tak není nejlepší na trhu, ale za cenu open-weight modelu bez licenčních poplatků jde o výjimečný výkon.
Cena a dostupnost: Výhodný obchod — pro ty, kdo smějí
Modely jsou zdarma ke stažení na Hugging Face a llama.com. Scout lze provozovat na jediném serverovém GPU díky 4- nebo 8-bitové kvantizaci — pro technicky zdatné firmy jde o lákavou možnost, jak mít vlastní výkonný model bez měsíčních plateb.
Přes API u třetích stran stojí Maverick přibližně 0,15–0,27 dolarů za milion tokenů — tedy 3 až 5krát méně než GPT-5.4 Mini (0,75 USD/M tokenů). Scout je ještě levnější.
Jenže tady přichází zásadní výhrada.
EU vyloučena: Čeští vývojáři si nesmí hrát
Llama 4 Community License Agreement obsahuje explicitní klauzuli: „Tato licence se nevztahuje na subjekty se sídlem nebo registrací v členském státě Evropské unie." To zahrnuje Česko, Slovensko i celou EU.
Zákaz se přitom vztahuje na provozovatele a vývojáře — firmy a jednotlivci v EU nesmějí modely nasazovat, hostovat ani na jejich základě stavět produkty. Koncoví uživatelé, kteří přistupují k Llama 4 přes Meta AI nebo jiné služby třetích stran mimo EU, licencí omezeni nejsou.
Proč Meta toto omezení zavedla? Podle analýzy The Decoder a Computerworld jde o kombinaci dvou faktorů: probíhající soudní spory týkající se autorských práv k trénovacím datům a obavy z regulatorního prostředí GDPR. Nedávné soudní dokumenty odhalily, že Meta věděla o přítomnosti chráněného obsahu ve svých trénovacích datasetech. Evropský trh je v tomto ohledu přísnější než americký — a Meta se raději pojistila.
Situace není zcela nová: podobné omezení platilo již pro některé multimodální varianty Llama 3. Llama 4 ho rozšiřuje na celou řadu.
Co to znamená pro českou scénu
Pro česká AI studia, vývojáře a firmy, kteří sledovali vydání Llama 4 s nadšením, je to reálná překážka. Nasazení modelu ve vlastní infrastruktuře — na serveru v Praze, v českém cloudu nebo na lokálním počítači — porušuje licenci a vystavuje provozovatele právnímu riziku.
Alternativy existují: modely jako Gemma 4 od Googlu (Apache 2.0, bez geografických omezení) nebo Mistral Large 3 (dostupný přes Mistral La Plateforme s EU datovou rezidencí) nabízejí výkon srovnatelný se Scoutem bez právních komplikací. Pro náročnější úlohy zůstává Mavericku ekvivalentem GPT-4o úroveň výkonu, ale na tuto úroveň dosáhnout lze i přes jiné cesty.
Meta slíbila, že budoucí verze modelů Llama 4 hodlá open-sourcovat — bez bližšího časového určení. Zda budou tyto verze dostupné i v EU, zatím není jasné.
Llama 4 Behemoth: Velký model na obzoru
Scout a Maverick nejsou koncem příběhu. Meta avizovala třetí model řady — Llama 4 Behemoth — dosud bez konkrétního data vydání. Jde o mnohem větší model, jehož parametry Meta nezveřejnila, ale který by měl sloužit jako „učitel" pro distilaci budoucích menších modelů. Maverick byl ostatně již nyní distilován právě z Behemotha.
Mohu jako český vývojář Llama 4 Scout lokálně vyzkoušet bez porušení licence?
Formálně ne — Llama 4 Community License Agreement zakazuje subjektům se sídlem v EU modely provozovat nebo hostovat, a to bez ohledu na to, kde fyzicky běží server. Výjimkou jsou pouze koncoví uživatelé přistupující k modelu přes schválenou službu třetí strany. Pro lokální experimenty doporučujeme Gemma 4 (licence Apache 2.0) nebo Mistral modely.
Jaký je rozdíl mezi Llama 4 Scout a Maverickem — pro koho je který?
Scout je optimalizován pro jednoduchou nasaditelnost (jeden GPU) a extrémně dlouhý kontext (10 milionů tokenů) — hodí se pro práci s rozsáhlými dokumenty, právními texty nebo kódovými bázemi. Maverick nabízí vyšší benchmark výkon díky více expertům a je vhodný pro náročnější reasoning úlohy, ale vyžaduje více výpočetního výkonu.
Proč Meta nevytvořila speciální licenci splňující požadavky GDPR, aby zahrnula EU?
Problém není jen GDPR, ale zejména probíhající soudní spory v USA i Evropě ohledně autorských práv k trénovacím datům. Přizpůsobení licence pro EU by Meta vystavilo dalším právním rizikům v jurisdikci, kde jsou sankce za porušení autorských práv přísnější. Jde tedy spíše o strategické právní rozhodnutí než o technickou neschopnost.