Přejít k hlavnímu obsahu

Anthropic si zajistil 3,5 gigawattu TPU výkonu: tržby vyskočily na 30 miliard a Claude poroste ještě rychleji

Ilustrační obrázek pro jarvis-ai.cz
Anthropic 6. dubna 2026 oznámil dosud největší infrastrukturní dohodu v historii firmy: ve spolupráci s Googlem a čipovým gigantem Broadcomem si zajistil přístup k více než 3,5 gigawattu výpočetního výkonu na bázi TPU čipů nové generace. Kapacita nastoupí od roku 2027 — a ve světle tržeb, které za tři měsíce vyrostly z 9 na 30 miliard dolarů, to není luxus, ale nutnost.

3,5 gigawattu: co to vlastně znamená?

Gigawatt výpočetního výkonu není jednotka, se kterou jsme zvyklí pracovat. Pro srovnání: celá česká republika spotřebuje průměrně okolo 6 gigawattů elektřiny. Anthropic si tedy objednal infrastrukturu, která energeticky odpovídá více než polovině spotřeby celé naší země — a to jen pro trénování a provoz AI modelů.

Konkrétně: v roce 2026 Broadcom dodává Anthropicu 1 gigawatt TPU výkonu prostřednictvím Google cloudové infrastruktury. Pro rok 2027 se toto číslo má zvýšit na více než 3,5 gigawattu. Broadcom CEO Hock Tan to potvrdil osobně se slovy: „Pro Anthropic jsme v roce 2026 na velmi dobrém začátku."

TPU (Tensor Processing Unit) jsou specializované čipy navržené přímo Googlem pro práci s neuronovými sítěmi. Na rozdíl od NVIDIA GPU jsou optimalizovány specificky pro maticové operace, které AI modely využívají. Výhoda: při správném využití jsou výrazně efektivnější a levnější na provoz.

Tržby, které udivily analytiky

Spolu s infrastrukturní dohodou Anthropic zveřejnil finanční čísla, která průmyslem otřásla. Run-rate revenue — tedy roční příjem odvozený z aktuálního tempa — přesáhla 30 miliard dolarů. Ještě na konci roku 2025 přitom toto číslo bylo okolo 9 miliard. Trojnásobný nárůst za méně než čtyři měsíce.

Ještě výmluvnější je pohled na podnikové zákazníky. Počet firem, které za Claude API a enterprise produkty utrácejí více než 1 milion dolarů ročně, přeskočil hranici tisíce — a to přitom ještě v únoru 2026 jich bylo „jen" přes 500. Zdvojnásobení za méně než dva měsíce.

CFO Anthropicu Krishna Rao to komentoval stručně: „Přijímáme dosud největší výpočetní závazek v historii firmy, abychom udrželi krok s bezprecedentním růstem."

Broadcom jako klíčový hráč — a co z toho má

Broadcom v tomto trojúhelníku hraje roli zprostředkovatele: navrhuje a koordinuje výrobu vlastních ASIC čipů (specificky Google TPU), přičemž Google je odebírá a provozuje ve svých datových centrech. Anthropic pak tyto kapacity využívá přes Google Cloud.

Analytici z Mizuho odhadují, že Broadcom z partnerství s Anthropicem vydělá v roce 2026 přibližně 21 miliard dolarů, v roce 2027 pak až 42 miliard dolarů. Jde o jeden z nejvýznamnějších jednotlivých zákaznických vztahů v historii Broadcomu.

Diverzifikace jako strategická pojistka

Zajímavý detail: Anthropic nestrojí celou budoucnost na jediném dodavateli čipů. Claude modely jsou trénovány a provozovány paralelně na třech platformách:

  • Google TPU — přes Google Cloud, nová mega-dohoda
  • AWS Trainium — Amazon's vlastní AI čipy přes Amazon Web Services
  • NVIDIA GPU — průmyslový standard pro AI výpočty

Díky tomu je Anthropic jediný frontier AI model dostupný na všech třech největších cloudových platformách světa — AWS, Google Cloud i Microsoft Azure (prostřednictvím partnerství). Tato trojí přítomnost je záměrná: zajišťuje odolnost výpadků, možnost optimalizace cen i schopnost rychle škálovat tam, kde je kapacita volná.

Kontext: $50 miliard závazek a americká AI infrastruktura

Nová dohoda není izolovaný krok. Navazuje na závazek, který Anthropic podepsal v listopadu 2025 — investovat 50 miliard dolarů do americké AI infrastruktury. Tehdy vzniklo partnerství s britskou firmou Fluidstack a oznámena datová centra v Texasu a New Yorku, která nastupují v průběhu roku 2026.

Nové TPU kapacity od Googlu a Broadcomu tento závazek rozšiřují do roku 2027 a dál. Naprostá většina nové infrastruktury bude fyzicky umístěna ve Spojených státech — částečně z ekonomických důvodů, částečně jako reakce na tlak americké vlády na budování domácí AI kapacity.

Co to znamená pro uživatele Claudea — včetně těch v Česku

Claude je v České republice plně dostupný — jak webová aplikace na claude.ai, tak API pro firmy. Česká lokalizace rozhraní existuje, přičemž model nativně rozumí češtině a v češtině i odpovídá na solidní úrovni.

Masivní navýšení výpočetních kapacit by se mělo projevit především ve třech oblastech:

  • Rychlost odpovědí — méně čekání ve špičkách, lepší odezva pro API zákazníky
  • Dostupnost výkonnějších modelů — větší kapacita umožňuje nasadit nákladnější modely pro více uživatelů
  • Cena — při efektivnějším využití infrastruktury existuje prostor pro snižování cen API

Pro české a slovenské firmy, které Claude API využívají v zákaznické péči, automatizaci nebo analýze dat, je stabilní a rostoucí infrastruktura přímo relevantní. Čím víc kapacity, tím nižší riziko výpadků nebo omezení při náhlém nárůstu poptávky.

Závod o čipy: Anthropic vs. OpenAI vs. ostatní

Anthropic není v budování infrastruktury sám. OpenAI investuje do projektu Stargate — datová centra za 500 miliard dolarů v partnerství s Microsoftem, SoftBankem a Oracle. Google DeepMind provozuje vlastní TPU clustery. Meta buduje stovky tisíc GPU pro interní využití.

Tento závod o výpočetní kapacitu není jen technologický — je to strategický boj o to, kdo bude moci trénovat nejsilnější modely příštích generací. Bez dostatečné infrastruktury se ani sebelepší výzkumný tým nemůže dostat k frontier modelům. Proto gigawatty nejsou čísla v novinových titulcích — jsou to vstupenky do první ligy AI.

Proč Anthropic potřebuje tolik výkonu — nestačí méně?

Trénování a provoz frontier AI modelů jako Claude vyžaduje enormní výpočetní kapacitu. Každá nová generace modelu je řádově náročnější než ta předchozí. Navíc Anthropic musí zvládnout souběžné dotazy od milionů uživatelů a tisíců firemních zákazníků v reálném čase — to vyžaduje trvalou dostupnost kapacity bez ohledu na špičky.

Co jsou TPU čipy a proč je Anthropic volí místo NVIDIA GPU?

TPU (Tensor Processing Unit) jsou čipy navržené přímo Googlem pro maticové operace typické pro neuronové sítě. Nejde o náhradu GPU — Anthropic používá obojí. TPU nabízí vysokou efektivitu a nižší náklady na specifické typy výpočtů, zatímco NVIDIA GPU jsou univerzálnější. Diverzifikovaná strategie snižuje závislost na jediném dodavateli a optimalizuje náklady.

Znamená tato dohoda, že Anthropic je de facto součástí Googlu?

Ne. Google je sice jedním z největších investorů Anthropicu, ale firma zůstává nezávislá. Dohoda s Googlem a Broadcomem je komerční partnerství — Anthropic za výpočetní kapacitu platí. Zároveň Anthropic spolupracuje s Amazonem (AWS) i jinými poskytovateli, právě aby si zachoval nezávislost a vyjednávací pozici.