Přejít k hlavnímu obsahu

AMD podpořilo Gemma 4 v den vydání: Váš Radeon nebo Ryzen AI se stává lokálním AI serverem

Ilustrační obrázek pro jarvis-ai.cz
AMD v dubnu 2026 potvrdilo, co mnoho vývojářů doufalo: nová rodina open-source modelů Google Gemma 4 dostala takzvanou „Day Zero" podporu napříč celým hardwarovým portfoliem červeného výrobce. Znamená to, že ve stejný den, kdy Google Gemma 4 představil světu, mohli uživatelé Radeonu, Instinct akcelerátorů i procesorů Ryzen AI modely spustit — bez čekání na opožděné ovladače nebo záplaty. Pro ty, kdo se AI světu chtějí věnovat bez závislosti na NVIDIA, je to zpráva, na kterou čekali.

Co je Gemma 4 a proč na něj čekat?

Google vydal rodinu Gemma 4 jako svou dosud nejschopnější sadu open-source modelů. Modely jsou k dispozici v rozsahu od 2 miliard do 31 miliard parametrů, přičemž každá velikost cílí na jiný segment — od rychlých edge nasazení po náročné profesionální aplikace. Klíčovou novinkou je model Gemma 4 31B s kontextovým oknem 256 000 tokenů, a dále Gemma 4 26B A4B postavený na architektuře Mixture-of-Experts, kde se při každém průchodu aktivuje pouze 4 miliardy parametrů — což dramaticky snižuje nároky na paměť při zachování vysoké přesnosti.

Na nezávislém benchmarku MMLU Pro dosáhl Gemma 4 31B spuštěný na AMD MI355 skóre 84,94 % — srovnatelně jako stejný model na NVIDIA B200 (84,72 %), což demonstroval tým Modular ve svém testu framework MAX. Jde o jeden z prvních veřejných důkazů, že AMD hardware při inferenci open modelů dokáže konkurovat zeleným kartám i na špičkové úrovni.

Day Zero: Co to reálně znamená?

Termín „Day Zero" (podpora v nultý den) znamená, že AMD zajistilo kompatibilitu ještě před nebo v okamžik oficiálního vydání modelu. Nejde jen o marketingové prohlášení — v praxi to znamená, že vývojáři nemuseli čekat na aktualizaci ROCm stacku, opravné patche ani nové verze knihoven.

AMD tuto podporu oznámilo 4. dubna 2026 a pokrývá tři hlavní segmenty:

  • AMD Instinct akcelerátory — profesionální karty pro cloudová datacentra a enterprise nasazení (MI300X, MI355 a další)
  • Radeon grafické karty — pro AI vývojářské stanice a nadšence s výkonnou desktopovou nebo workstation GPU
  • Ryzen AI procesory — notebooky a mini PC s dedikovanou NPU jednotkou na architektuře XDNA 2

Které frameworky jsou podporovány?

Jedním z hlavních argumentů AMD je šíře ekosystémové podpory. Gemma 4 lze na AMD hardwaru spustit prostřednictvím těchto nástrojů:

  • vLLM — průmyslový standard pro inferenci LLM; dostupný jako Docker image i Python balíček
  • SGLang — alternativní inference framework oblíbený pro nízkou latenci
  • llama.cpp — lehké řešení pro CPU a hybridní CPU+GPU nasazení
  • Ollama — nejpopulárnější nástroj pro lokální spouštění modelů; jednoduchý jako ollama pull gemma4
  • LM Studio — grafické rozhraní pro uživatele, kteří nechtějí pracovat s příkazovou řádkou
  • Lemonade — specializovaný server pro NPU nasazení na Ryzen AI zařízeních

Jak uvádí WCCFTech, modely Gemma 4 lze prostřednictvím frameworku vLLM nasadit na AMD GPU prakticky okamžitě — jak přes Docker, tak přes standardní pip instalaci s ROCm backendem.

Ryzen AI a NPU: budoucnost lokální AI v notebookech

Zvláštní kapitolou jsou procesory Ryzen AI s architekturou XDNA 2. AMD potvrdilo, že menší varianty Gemma 4 — konkrétně modely označené E2B a E4B — dostanou v nadcházející aktualizaci Ryzen AI softwaru plnou podporu pro NPU jednotky. Díky tomu budou moci uživatelé moderních notebooků (například s procesory Ryzen AI 300 nebo Ryzen AI MAX) spouštět tyto modely přímo na NPU čipu, bez zatížení GPU nebo CPU a s výrazně nižší spotřebou energie.

Pro správu NPU inference slouží právě nástroj Lemonade Server, který AMD připravilo jako součást Ryzen AI Software stacku. Podpora přijde jako součást chystané aktualizace — konkrétní datum AMD neupřesnilo, ale hovoří o „blízkém termínu".

AMD vs. NVIDIA: vyrovnaná hra na open modelech

Historicky byl AI ekosystém silně nakloněn směrem k NVIDIA — díky CUDA platformě a rokům náskoku v toolingu. Jenže open-source modely jako Gemma 4 tuto dynamiku mění. Díky ROCm a rostoucí podpoře frameworků jako vLLM nebo SGLang se AMD hardware stává plnohodnotnou alternativou minimálně pro inferenci.

Modular ve svém srovnávacím testu ukázal, že jejich framework MAX dosahuje na AMD MI355 srovnatelných výsledků jako na NVIDIA B200 — přičemž benchmark MMLU Pro byl na AMD dokonce o dvě desetiny vyšší. Nejde o dramatický rozdíl, ale jde o jasný signál: AMD je v závodě o AI inference skutečným hráčem.

Co to znamená pro českou AI komunitu?

Pro vývojáře, firmy a nadšence v Česku je tato zpráva relevantní hned z několika důvodů:

Za prvé, Radeon GPU jsou dostupnější a cenově přívětivější než ekvivalentní NVIDIA karty — zejména v segmentu výkonných desktopových karet. Kdo má doma RX 7900 XTX nebo pracovní stanici s Radeon Pro, může od teď plnohodnotně experimentovat s Gemma 4 modely.

Za druhé, Ryzen AI notebooky se prodávají v Česku u všech hlavních retailerů. Jakmile dorazí aktualizace s NPU podporou pro E2B/E4B modely, dostane se lokální AI inference doslova do kapsy — s minimální spotřebou a bez nutnosti cloudového připojení.

Za třetí, Gemma 4 je plně open-source pod licencí Apache 2.0 — lze ho používat komerčně zdarma, bez licenčních poplatků, bez sdílení dat s Googlem. Pro firmy citlivé na GDPR nebo datovou suverenitu je to důležitý faktor.

Poznámka k dostupnosti pro češtinu: Gemma 4 je multilingvální model trénovaný na datech v desítkách jazyků. Zatímco kvalita v češtině nebyla AMD ani Googlem explicitně benchmarkována, modely rodiny Gemma obecně češtinu zvládají na přijatelné až dobré úrovni — zejména u větších variant (27B+).

Mohu spustit Gemma 4 na běžné Radeon kartě, třeba RX 7800 XT?

Záleží na velikosti modelu a dostupné VRAM. Model Gemma 4 2B zvládne i karta s 8 GB VRAM, varianty 9B a 12B potřebují 16 GB. Pro 27B a 31B modely je doporučeno minimálně 24 GB VRAM nebo kombinace GPU+CPU offloading přes llama.cpp. RX 7800 XT s 16 GB VRAM si poradí se středně velkými modely bez problémů.

Musím instalovat speciální ovladače pro AMD ROCm na Windows?

Závisí na zvoleném nástroji. LM Studio funguje přes standardní Adrenalin Edition ovladače a nevyžaduje ROCm. Pro vLLM nebo SGLang je ROCm nezbytný — ten je ale primárně určen pro Linux. Na Windows je nejjednodušší cestou WSL2 s ROCm nebo přímo LM Studio s Ollama backendem.

Jak se Gemma 4 liší od modelu Gemma 3, který byl vydán dříve?

Gemma 4 přináší výrazně větší kontextové okno (256 000 tokenů oproti 128 000 u Gemma 3), vylepšenou multimodální podporu a novou architekturu Mixture-of-Experts u modelu 26B A4B. Výsledky na standardních benchmarkech jsou u Gemma 4 konzistentně vyšší, přičemž hardwarové nároky u MoE varianty zůstávají srovnatelné s menšími hustými modely.