Přejít k hlavnímu obsahu

Pentagon zvažuje Gemini od Googlu. Nahradí Claude od Anthropicu v utajovaných systémech?

AI a robotika
Americké ministerstvo obrany, známé jako Pentagon, jedná se společností Google o nasazení jejího pokročilého modelu umělé inteligence Gemini do utajovaných armádních systémů. Tato zpráva přichází v době, kdy se hroutí podobná dohoda s konkurenční firmou Anthropic a jejím modelem Claude. Pro Google, který se před osmi lety stáhl z kontroverzního vojenského projektu Maven po tlaku vlastních zaměstnanců, představuje tento krok zásadní a potenciálně riskantní návrat na pole vojenských technologií. Jednání tak otvírají klíčové otázky o etice, bezpečnosti a budoucnosti spolupráce mezi technologickými giganty a armádou.

Současná situace na poli vojenské umělé inteligence je napjatá a dynamická. Podle zprávy televize CNBC z 16. dubna 2026 se Google ocitl v pozici hlavního kandidáta na dodavatele klíčové AI technologie pro Pentagon. To vše se děje na pozadí šestiměsíčního postupného ukončování spolupráce s firmou Anthropic, jejíž model Claude měl původně tuto roli zastat. Tento posun by znamenal dosud nejhlubší integraci komerčního jazykového modelu do americké utajované infrastruktury a mohl by nastavit precedent pro celé odvětví.

Proč Pentagon mění koně? Konec Claude od Anthropicu

Dveře se pro Google otevřely po veřejném rozkolu mezi Pentagonem a společností Anthropic. Jádrem sporu se stala restriktivní politika použití modelu Claude, kterou Anthropic prosazoval. Firma se snažila omezit využití své technologie pro určité vojenské aplikace, což narazilo na nekompromisní postoj Ministerstva obrany. Pentagon dal jasně najevo, že pro své utajované sítě požaduje AI bez omezení.

Jak odhalily soudní dokumenty, situace eskalovala až do bodu, kdy Pentagon označil Anthropic za "riziko v dodavatelském řetězci" a snažil se omezit používání Claude napříč vládními systémy. Ačkoliv federální soudce toto označení dočasně zablokoval s odkazem na možnou "odvetu v rozporu s prvním dodatkem" ústavy, vztahy byly nenávratně poškozeny a následovalo rozhodnutí o ukončení spolupráce. Pentagon ukázal ochotu zbavit se i preferovaného dodavatele, pokud mu neposkytne technologii za požadovaných podmínek.

Google se vrací do hry: Od Project Maven k Gemini

Současná pozice Googlu je v ostrém kontrastu s jeho postojem z roku 2018. Tehdy se společnost po vlně interních protestů, kdy tisíce zaměstnanců podepsaly petici, stáhla z projektu Project Maven. Ten využíval umělou inteligenci k analýze záběrů z dronů. Firma tehdy neobnovila smlouvu a veřejně deklarovala své etické principy pro vývoj AI, které měly vylučovat práci na zbraňových systémech.

Od té doby však Google postupně a tiše obnovoval své vztahy s americkou vládou. Společnost získala významný kontrakt na poskytování AI v rámci stejného balíku jako OpenAI, Anthropic a xAI, což signalizovalo strategii Pentagonu nespoléhat se na jediného dodavatele. Následně Google spustil cenově agresivní nabídku "Gemini for Government", aby se stal výchozím modelem pro federální úřady. Nasazení v utajovaných systémech je však zcela nová úroveň. Gemini by se dostal do stejné operační roviny, ve které dříve působil Claude, jenž byl podle zpráv nasazen například při operaci vedoucí k dopadení bývalého venezuelského vůdce Nicoláse Madura.

Ožehavá jednání: Etické mantinely a dvojí metr

Nejcitlivějším bodem současných jednání jsou právě etické hranice. Google se podle dostupných informací snaží do smlouvy zakotvit specifické výjimky (tzv. carve-outs), které by bránily použití Gemini pro masové sledování obyvatelstva nebo pro autonomní zbraňové systémy bez odpovídající lidské kontroly. Tyto požadavky rezonují s obavami, které dříve vyjadřovali zaměstnanci firmy.

Paradoxně jde o velmi podobné mantinely, které se snažil prosadit Anthropic a za které byl fakticky potrestán. Klíčovou otázkou tedy je, zda Pentagon přijme od Googlu podmínky, které u jeho konkurenta odmítl. Selektivní uplatňování pravidel by vytvořilo nebezpečnou asymetrii na trhu, kdy by jedna firma mohla být označena za bezpečnostní riziko za požadavky, které jsou jiné firmě ve smlouvě schváleny. Sám Google mezitím aktualizoval své etické principy AI a odstranil plošný zákaz aplikací pro zbraně a sledování, který nahradil vágnějším jazykem o posuzování "případ od případu".

Dopady a rizika: Spolehlivost a precedent pro budoucnost

Celou dohodu provázejí také otázky spolehlivosti. Nedávná studie, na kterou upozornil magazín Newsweek, poukázala na chybovost vyhledávání s podporou Gemini, která by mohla vést k šíření dezinformací. Mluvčí Googlu studii zpochybnil, ale v kontextu nasazení v armádě nabývá riziko chyby zcela jiných rozměrů. Chyba, která je v běžném vyhledávání jen nepříjemností, se v rámci zpravodajského cyklu nebo cílení může stát fatální.

Ať už jednání dopadnou jakkoliv, jejich výsledek bude mít dalekosáhlé důsledky. Komerční AI model fungující za zdmi utajovaných systémů, s pravidly užití vepsanými přímo do armádní smlouvy, se stane šablonou pro celé odvětví. Jakékoliv mantinely, které Google vybojuje, nebo naopak kterých se vzdá, nastaví laťku pro všechny ostatní hráče. Pentagon již ukázal, že je ochoten tvrdě postihovat ty, kteří se brání jeho požadavkům. Velkou neznámou zůstává, jak se zachová, když tím, kdo si klade podmínky, je samotný Google.

Evropský pohled a regulace

Zatímco Spojené státy posilují vazby mezi technologickým sektorem a armádou, v Evropě panuje opatrnější přístup. Přestože unijní Akt o umělé inteligenci (AI Act) z velké části vyjímá systémy používané výhradně pro vojenské a obranné účely ze své působnosti, etická debata o autonomních zbraních a sledování je zde velmi živá. Evropská unie se snaží prosazovat přístup zaměřený na člověka a důvěryhodnou AI. Případná dohoda mezi Googlem a Pentagonem bude v Bruselu pečlivě sledována jako indikátor směřování klíčového spojence v oblasti, která je pro budoucí bezpečnost zásadní. Kontrast mezi americkým pragmatismem a evropským důrazem na regulaci by se tak mohl dále prohloubit.

Proč přesně skončila dohoda Pentagonu s firmou Anthropic?

Hlavním důvodem byly neshody ohledně zásad použití AI. Anthropic trval na omezeních pro určité vojenské aplikace svého modelu Claude, což bylo pro Pentagon nepřijatelné. Ministerstvo obrany požadovalo neomezený přístup k technologii pro své utajované sítě a následně označilo Anthropic za riziko, což vedlo k ukončení spolupráce.

Jaké jsou největší obavy spojené s nasazením komerční AI v armádě?

Mezi hlavní obavy patří riziko chybovosti (špatná data mohou vést k fatálním rozhodnutím), nedostatečná lidská kontrola nad autonomními systémy (tzv. "killer robots"), možnost zneužití pro masové sledování a etické otázky spojené s delegováním rozhodnutí o životě a smrti na algoritmy. Dalším rizikem je vytvoření nebezpečného precedentu a závodů ve zbrojení v oblasti AI.

Je model Gemini od Googlu dostupný v České republice?

Ano, základní verze modelů Gemini jsou pro české uživatele dostupné, a to jak prostřednictvím webového rozhraní (dříve Bard), tak v rámci různých produktů Google, například v telefonech s Androidem. Pokročilejší a placené verze, jako je Gemini Advanced, jsou rovněž dostupné v Česku a nabízejí přístup k nejvýkonnějším modelům.