V americké geopolitice se právě odehrává zásadní posun. Umělá inteligence už není jen nástrojem pro generování textů nebo obrázků, ale stává se pilířem národní bezpečnosti. Podle zpráv z GNN a DW se Pentagon rozhodl pro sjednocení technologického ekosystému, který by byl schopen operovat v extrémně zabezpečených prostředích.
Kdo ovládá digitální bojiště?
Nové kontrakty umožňují americkému ministerstvu obrany využívat AI modely přímo v rámci jejich zabezpečených, izolovaných sítí. To znamená, že data, která jsou považována za přísně tajná, nebudou muset opouštět infrastrukturu Pentagonu, aby byla zpracována.
Mezi vítěze patří:
- OpenAI: Jejich modely (pravděpodobně řada GPT-5 nebo novější) budou klíčové pro analýzu dat a generování reportů.
- Google: Skrze své cloudové služby a modely Gemini přinese do Pentagonu schopnost masivního zpracování multimodálních dat (text, video, satelitní snímky).
- Nvidia: Zde jde o klíčový bod. Nvidia neposkytuje jen software, ale i hardwarovou infrastrukturu (čipy typu Blackwell nebo novější), která je nezbytná pro běh těchto modelů v lokálních, zabezpečených centrech.
- xAI: Společnost Elona Muska se díky těmto dohodám stává legitimním hráčem v oblasti státní bezpečnosti.
- Microsoft a Amazon: Tito giganti již mají s Pentagonem hluboké vztahy a jejich role v poskytování cloudové infrastruktury (Azure a AWS) je v rámci těchto dohod samozřejmostí.
Proč Anthropic selhalo?
Největším překvapením celého oznámení je absence společnosti Anthropic. Ačkoliv byla dříve považována za jednoho z hlavních kandidátů a měla uzavřenou dohodu v hodnotě 200 milionů dolarů, Pentagon se rozhodl její roli ukončit. Důvodem je označení Anthropic za riziko v dodavatelském řetězci (supply-chain risk).
Podle informací z The Verge se Anthropic odmítla podřídit určitým podmínkám týkajícím se "red lines" – tedy etických a bezpečnostních hranic, které si společnost sama definovala pro své modely Claude. Pentagon však vyžaduje absolutní flexibilitu a kontrolu nad tím, jak se modely chovají v extrémních scénářích. Rozpor mezi "bezpečnostní etikou" Anthropic a "bezpečnostními potřebami" Pentagonu tedy vedl k rozchodu.
Technické srovnání: Jak se modely jeří?
Pro pochopení důležitosti těchto dohod je nutné podívat se na to, jak se jednotlivé modely v benchmarkech (např. MMLU nebo HumanEval) pohybují. V kontextu roku 2026 můžeme sledovat následující dynamiku:
| Model / Rodina | Hlavní přednost | Benchmark (odhadovaný výkon) | Dostupnost v ČR |
|---|---|---|---|
| GPT-5 (OpenAI) | Univerzálnost a logika | Extrémně vysoký (SOTA) | Ano (přes API/ChatGPT) |
| Gemini 2.5 (Google) | Multimodalita (video/audio) | Vysoký (v multimodálních úlohách) | Ano (Google Workspace) |
| Claude 4 (Anthropic) | Etika a bezpečnostní "red lines" | Vysoký (v textové logice) | Ano (přes Claude.ai) |
Poznámka k cenám: Pro běžné uživatele v ČR jsou ceny standardní: ChatGPT Plus stojí cca 20 USD (cca 460 Kč), Gemini Advanced je součástí Google One za cca 22 USD (cca 500 Kč). Enterprise verze pro firmy jsou na základě individuálních dohod.
Praktický dopad: Co to znamená pro nás?
I když se tyto dohody týkají výhradně americké armády, jejich dopad pocítí celý svět, včetně Česka a Evropské unie.
1. Standardizace bezpečnosti: Pokud OpenAI a Google dokážou splnit extrémní bezpečnostní standardy Pentagonu, stávají se de facto globálními standardy pro "bezpečnou AI". To bude tlačit na ostatní firmy, aby své modely vylepšovaly v oblasti kybernetické odolnosti.
2. Geopolitický tlak na EU: Zatímco USA volí cestu integrace AI do armády, Evropská unie se soustředí na regulaci skrze EU AI Act. Tento rozdíl v přístupu může vést k technologickému rozestupu. Firmy v ČR, které využívají tyto modely, musí být si vědomy, že verze "pro armádu" a verze "pro civilní trh" mohou mít odlišné limity a schopnosti.
3. Dostupnost v češtině: Všechny zmíněné modely (GPT, Gemini, Claude) již v roce 2026 disponují velmi vysokou úrovní české lokalizace. Pro české firmy to znamená, že mohou využívat stejnou technologii pro analýzu dat, jakou používá Pentagon, ale s ohledem na evropské regulace ochrany osobních údajů (GDPR).
Závěrem lze říci, že rozhodnutí Pentagonu není jen o technologii, ale o důvěře. Vítězové těchto kontraktů jsou ti, kteří dokážou skloubit neomezený výkon s absolutní kontrolou nad bezpečností a dodavatelským řetězcem.
Co přesně znamená "riziko v dodavatelském řetězci" u Anthropic?
V kontextu AI to může znamenat obavy z toho, jak je model vyvinut, kde jsou jeho data uložena, nebo zda neexistuje skrytá závislost na externích subjektech, které by mohly ovlivnit integritu modelu v případě konfliktu.
Mohou české firmy využívat tyto modely pro své vlastní tajné operace?
Ne přímo tyto konkrétní kontrakty, které jsou určené pro americkou vládu. Nicméně, poskytovatelé jako Microsoft (Azure) nebo Google nabízejí "Government Cloud" nebo specifické "Enclave" služby, které umožňují firmám v EU vytvářet podobně zabezpečené prostředí pro jejich vlastní citlivá data.
Je Claude od Anthropic stále kvalitní model, i když ho Pentagon nevybral?
Ano, Claude zůstává jedním z nejlepších modelů na světě pro psaní, programování a logické uvažování. Jeho "vyloučení" není otázkou kvality, ale otázkou politické a bezpečnostní shody s americkými vojenskými standardy.