Ernie 5.1: Menší, efektivnější, silnější
ERNIE 5.1 není jen inkrementální update. Baidu se rozhodlo jít cestou výrazného zvýšení efektivity za zachování — nebo dokonce zlepšení — výkonu. Model je postaven na architektuře Mixture of Experts (MoE), kde každý dotaz aktivuje jen část parametrů. Celkový počet parametrů je přibližně třetina ERNIE 5.0, aktivní parametry při každém výpočtu pak asi polovina.
Zásadní je ekonomický údaj: trénink ERNIE 5.1 stál pouhých 6 % nákladů srovnatelných frontier modelů. Jinými slovy, Baidu snížilo výdaje na předtrénink o 94 %. To je číslo, které mění pravidla hry — zvláště v kontextu amerických sankcí na vývoz čipů do Číny, kvůli nimž čínské firmy musí pracovat s omezenějšími výpočetními zdroji.
Za tímto výsledkem stojí dvě klíčové technické inovace. Baidu vytvořilo takzvaný Once-For-All elastic training framework — metodiku, která umožňuje extrahovat optimální sub-síť ze širší architektury ERNIE 5.0, aniž by bylo nutné model trénovat od nuly. Doplňuje ho nová infrastruktura pro disaggregované, plně asynchronní reinforcement learning, která dále zefektivňuje posttréninkovou fázi zaměřenou na agentní schopnosti.
Výsledky benchmarků: Na čem ERNIE 5.1 předčí DeepSeek
Čísla jsou výmluvná. Na populárním hodnoticím prostředí LMArena dosáhl ERNIE 5.1 Preview v kategorii Text Arena skóre 1 476 bodů a umístil se na 13. místě globálně — a na 1. místě mezi všemi čínskými modely. V kategorii Arena Search (vyhledávání) pak získal skóre 1 223 a obsadil 4. místo na světě.
Konkrétní srovnání s DeepSeek-V4-Pro ukazuje, kde ERNIE 5.1 skutečně vede:
- τ³-bench (tau3-bench) — agentic benchmark simulující komplexní autonomní úlohy: ERNIE 5.1 překonává DeepSeek-V4-Pro
- SpreadsheetBench-Verified — test práce s tabulkovými daty v agentním prostředí: ERNIE 5.1 opět vede
- Legal & Government kategorie na LMArena: ERNIE 5.1 obsadil 1. místo globálně, před všemi zahraničními modely
- AIME26 (matematické soutěžní úlohy s pomocí nástrojů): skóre 99,6 — druhé nejlepší na světě, jen za Gemini 3.1 Pro
- Math kategorie na LMArena: 9. místo globálně
Na znalostních a uvažovacích benchmarcích GPQA a MMLU-Pro se ERNIE 5.1 přibližuje předním uzavřeným modelům — konkrétně Gemini 3.1 Pro. Totéž platí pro kreativní psaní v interních hodnoceních.
Kde ERNIE 5.1 stále zaostává?
Pro objektivní obraz je nutné říci, i kde ERNIE 5.1 na světové špičce ztrácí. Celkové pořadí na LMArena jej staví za Gemini 3.1 Pro, Claude Opus 4 a přední modely OpenAI. V oblastech jako multimodální zpracování obrazu či video model zatím za ERNIE 5.0 nestojí — ERNIE 5.1 je čistě textový model.
DeepSeek přitom stále dominuje v oblasti open-source modelů s čínskou lokalizací a v efektivitě inferenčních nákladů pro developerskou komunitu. ERNIE 5.1 je primárně uzavřený komerční model dostupný přes Baidu platformy.
Přístup a cena: Co vývojáři potřebují vědět
ERNIE 5.1 je dostupný třemi způsoby:
- ERNIE Chat UI — webové rozhraní pro běžné uživatele na ernie.baidu.com
- Baidu AI Studio ERNIE 5.1 Playground — testovací prostředí pro vývojáře
- Qianfan API — pro firemní a vývojářské integrace
Cena přes Qianfan API je stanovena na $0,59 za milion vstupních tokenů a $2,65 za milion výstupních tokenů. Kontextové okno je 128 000 tokenů. V porovnání s obdobně výkonnými modely (Claude Opus 4, Gemini 3.1 Pro) se jedná o konkurenceschopnou cenu, zejména pro firmy s velkým objemem dotazů.
Dostupnost pro české a evropské firmy
Zde je nutné být realistický. ERNIE 5.1 je hostován na čínské infrastruktuře Baidu. Pro evropské firmy, které musí splňovat požadavky GDPR a zvláště přísné interpretace EU regulace přeshraničních datových přenosů, může být použití API prostřednictvím Qianfan problematické. Data zpracovávaná v čínských datových centrech nepodléhají evropskému právnímu rámci.
Rozhraní ERNIE není dostupné v češtině, přičemž model je primárně optimalizován pro čínský jazyk a anglštinu. Pro české uživatele jde tedy spíše o zajímavý benchmark hráč než o praktický každodenní nástroj — alespoň prozatím.
Proč je ERNIE 5.1 důležitý pro celý AI průmysl
Hlavní poselství ERNIE 5.1 není jeho absolutní výkon — je to průkaz konceptu efektivního tréninku. Pokud lze dosáhnout špičkového výkonu za 6 % standardních nákladů, mění se ekonomika celého odvětví. Tento trend pozorujeme i u DeepSeek V3/V4, u Mistal modelů nebo u Mety s Llamou 4 — čínský i evropský výzkum ukazuje, že „větší = lepší" přestává platit absolutně.
Pro Baidu má ERNIE 5.1 ještě strategický rozměr: firma čelí tvrdé domácí konkurenci ze strany Alibaby (Qwen), ByteDance a právě DeepSeek. Prokázat, že dokáže trénovat world-class model za zlomek nákladů i přes omezení v přístupu k NVIDIA čipům, je pro ni klíčové z hlediska investorů i regulátorů.
Podle oficiálního blogu Baidu má dojít k dalším aktualizacím ERNIE modelů na konferenci Baidu Create 2026 — takže ERNIE 5.1 není konečnou stanicí, ale startovním výstřelem nové generace.
Je ERNIE 5.1 open-source jako DeepSeek?
Ne. ERNIE 5.1 je uzavřený komerční model dostupný přes webové rozhraní Baidu a Qianfan API. DeepSeek naopak uvolňuje váhy svých modelů jako open-source, což vývojářům umožňuje spustit je lokálně. ERNIE 5.1 tuto možnost nenabízí.
Může ERNIE 5.1 nahradit ChatGPT nebo Claude pro běžné použití v Česku?
Prakticky ne. Model nemá českou lokalizaci, je hostován na čínské infrastruktuře (což je problematické z hlediska GDPR) a přístup z Evropy může být omezený. Pro české uživatele zůstávají praktičtějšími volbami ChatGPT, Claude nebo Gemini, které mají lokální datová centra v EU nebo alespoň plný support pro evropské jazyky a GDPR compliance.
Co znamená architektura MoE pro výkon modelu?
MoE (Mixture of Experts) je přístup, kdy model obsahuje mnoho specializovaných „expertních" sub-sítí, ale pro každý dotaz aktivuje jen jejich část. Výsledkem je model s velkou celkovou kapacitou, ale nižšími náklady na inference — model „myslí" jen tolik, kolik potřebuje. ERNIE 5.1 díky tomu dosahuje vysokého výkonu při nižší spotřebě výpočetních zdrojů oproti klasickým „dense" modelům stejné velikosti.