Co se stalo? Neautorizovaný přístup k „nebezpečnému“ modelu
Společnost Anthropic potvrdila, že vyšetřuje zprávu o neoprávněném přístupu k modelu Claude Mythos Preview prostřednictvím prostředí jednoho ze svých externích dodavatelů. „Vyšetřujeme zprávu o neautorizovaném přístupu k Claude Mythos Preview prostřednictvím prostředí našeho třetího dodavatele,“ uvedla firma v oficiálním prohlášení pro BBC.
Podle Bloomberg se uživatelé v soukromém fóru dokázali dostat k modelu bez běžných oprávnění. Osoba, která přístup zprostředkovala, již měla povolení prohlížet si Anthropicovy AI modely v rámci práce pro externího dodavatele — skupina však tento přístup zneužila. Bloomberg dále uvedl, že skupina model využívá od doby, kdy se k němu dostala, ačkoli ne k aktivním hackerským útokům, protože nechce být odhalena.
Anthropic zdůrazňuje, že neexistují důkazy, by se model dostal do rukou zlovolných aktérů, ani že byly přímo napadeny její vlastní systémy. Přesto incident vyvolává vážné obavy o schopnost velkých AI laboratoří udržet své nejmodernější modely mimo dosah těch, kdo by je mohli zneužít.
Proč je Claude Mythos tak výjimečný — a tak nebezpečný
Claude Mythos Preview není obyčejný jazykový model. Anthropic ho označuje za „kvalitativní skok“ ve schopnostech umělé inteligence a zároveň za svůj dosud nejnebezpečnější model. Zvláštností je, že jeho rizika nevznikla žádným speciálním kybernetickým tréninkem, ale prostým zlepšením obecného uvažování — což znamená, že podobné schopnosti mohou brzy nabýt i konkurenční modely.
Podle interních testů Anthropicu Mythos dosáhl 93,9 % na benchmarku SWE-bench Verified, což je téměř o 13 procentních bodů více než předchozí špička (Claude Opus 4.6 dosáhl 80,8 %). Model objevil tisíce závažných zranitelností ve všech hlavních operačních systémech a webových prohlížečích. Mezi nimi například:
- Chybu v bezpečnostním operačním systému OpenBSD, která unikla detekci 27 let,
- zranitelnost v kodéru videa FFmpeg, která přežila 5 milionů předchozích automatizovaných testů,
- několik zranitelností v jádře Linuxu, jež by mohly útočníkovi umožnit plnou kontrolu nad počítačem.
Mozilla potvrdila, že Mythos našel 271 chyb ve Firefoxu 150. „Claude Mythos Preview je stejně schopný jako špičkoví lidskí bezpečnostní výzkumníci,“ prohlásil technický ředitel Mozilly Bobby Holley.
Kritickým rizikem je, že Mythos dokáže spojovat více zranitelností do řetězových útoků — identifikovat pět různých slabých míst v jednom softwaru a zkombinovat je do unikátního, extrémně nebezpečného exploitace. Spojeno s rostoucí schopností AI pracovat dlouhodobě bez dohledu, se podle Anthropicu dostáváme do inflexního bodu kybernetických rizik.
Projekt Glasswing: obrana před vlastním vynálezem
Anthropic reagoval na rizika spuštěním Projektu Glasswing — koalice více než 40 největších technologických společností světa, včetně Applu, Googlu, Microsoftu, Cisca a Broadcomu. Cílem je poskytnout vybraným partnerům předčasný přístup k Mythosu, aby mohli hledat a záplatovat zranitelnosti ve svých systémech i v kritickém open-source software, na němž závisí moderní digitální infrastruktura.
Anthropic do projektu investuje 100 milionů dolarů v kreditech pro použití modelu a dalších 4 miliony dolarů věnuje open-source bezpečnostním iniciativám. „AI schopnosti překročily práh, který fundamentálně mění naléhavost ochrany kritické infrastruktury před kybernetickými hrozbami — a není cesty zpět,“ uvedl Anthony Grieco, hlavní bezpečnostní ředitel Cisca.
Kybernetický expert Alex Stamos, bývalý šéf bezpečnosti Facebooku a Yahoo, varoval: „Máme tak šest měsíců, než open-source modely doženou foundation modely v hledání chyb. Poté bude každý ransomwareový aktér schopen najít a zneužít zranitelnosti bez toho, aby zanechal stopy pro vyšetřovatele — a za minimální náklady.“
Reakce vlád: Spojené království chce spolupráci, USA řeší spor
Incident s neautorizovaným přístupem přichází v době, kdy vlády po celém světě řeší, jak regulovat nejsilnější AI modely — takzvanou frontier AI. Na konferenci CyberUK, kterou pořádá britské Národní centrum kybernetické bezpečnosti (NCSC), vystoupil šéf NCSC Richard Horne s apelem, aby odborníci nepropadali panice z nových AI útoků, ale zaměřili se na základy kybernetické bezpečnosti.
„Pokročilá AI rychle umožňuje objevování a zneužívání stávajících zranitelností ve velkém měřítku, což ilustruje, jak rychle odhalí místa, kde základy kybernetické bezpečnosti stále čekají na nápravu,“ prohlásil Horne. Britský ministr bezpečnosti Dan Jarvis vyzval AI firmy ke spolupráci s vládou na „generačním úsilí“ chránit kritické sítě před útočníky.
Ve Spojených státech je situace komplikovanější. Bílý dům uspořádal „produktivní“ setkání s Anthropicem poté, co se Pentagon pokusil firmu označit za riziko dodavatelského řetězce — mimo jiné poté, co Anthropic odmítl upravit smlouvu tak, aby umožňovala masovou domácí špionáž a plně autonomní zbraně. Soud tento krok zatím zablokoval. Přesto podle Axios i americká NSA získala přístup k Mythosu, přestože Pentagon Anthropic považuje za bezpečnostní riziko.
Prezident Trump v rozhovoru pro CNBC naznačil, že dohoda mezi Anthropicem a ministerstvem obrany je „možná“. „Měli jsme s nimi velmi dobré rozhovory a myslím, že se to rýsuje,“ uvedl Trump.
Co to znamená pro Česko a Evropu?
Pro české čtenáře a evropské firmy tento incident nese několik varovných signálů. Všechny nejsilnější AI modely vznikají mimo Evropu — převážně v USA a Číně. To znamená, že Evropská unie, včetně České republiky, nemá přímou kontrolu nad tím, jak jsou tyto modely trénovány, budovány ani vydávány.
EU AI Act, který vstoupil v platnost v roce 2024 a postupně se implementuje, sice ukládá povinnosti pro systémy obecné umělé inteligence s vysokým dopadem, ale jeho praktická vymahatelnost vůči americkým laboratořím zůstává omezená. České firmy a instituce jsou tak závislé na dobré vůli firem jako Anthropic, OpenAI nebo Google, že své nejsilnější modely nezneužijí — nebo že je udrží v bezpečí.
Incident s Mythosem ukazuje, že ani samotné laboratoře nemají plnou kontrolu. Pokud se model dostane do rukou organizovaným zločincům nebo státním aktérům prostřednictvím slabých míst třetích stran, mohou být evropské kritické infrastruktury — od energetických sítí přes bankovní systémy po nemocnice — vystaveny nové generaci útoků, proti nimž dosavadní obrana nestačí.
Raluca Saceanu, generální ředitelka kybernetické bezpečnostní společnosti Smarttech247, situaci komentovala: „Když jsou výkonné AI nástroje přístupné nebo používány mimo jejich zamýšlenou kontrolu, riziko není jen bezpečnostní incident, ale šíření schopností, které by mohly být použity k podvodům, kybernetickému zneužití nebo jiné zlovolné činnosti.“
Pro běžné uživatele zůstává Claude Mythos nedostupný. Anthropic ho neuvolnil veřejnosti a nemá plány s širokou distribucí. České firmy se k němu mohou dostat pouze prostřednictvím partnerského programu Project Glasswing, pokud splní přísné bezpečnostní podmínky. Model nepodporuje češtinu lépe než jiné verze Clauda — jeho unikátnost spočívá výhradně v kybernetických schopnostech.
Závěr: Křehká rovnováha mezi silou a kontrolou
Anthropic se dlouho prezentoval jako bezpečnostně orientovaná laboratoř, která chce být první, kdo narazí na nejnebezpečnější AI schopnosti — a zároveň ukázat cestu, jak je zmírnit. Projekt Glasswing je v jistém smyslu naplněním této mise. Zároveň ale staví na hluboce nepříjemném předpokladu: jedinou ochranou před nebezpečnou AI je vybudovat ji první.
Neautorizovaný přístup k Mythosu, byť zatím nezpůsobil přímou škodu, ukazuje, jak křehká tato rovnováha je. Pokud se model dostane mimo kontrolované prostředí — ať už prostřednictvím chyby dodavatele, krádeže váh modelu nebo konkurenčního vývoje — mohou se schopnosti, které dnes slouží k obraně, obrátit proti nám.
Může se Claude Mythos dostat k běžným uživatelům nebo hackerům?
Anthropic model neuvolnil veřejnosti a nemá v úmyslu tak učinit. Přístup mají pouze vybrané firmy v rámci Projektu Glasswing a některé vládní agentury. Riziko spočívá spíše v tom, že konkurenční laboratoře nebo open-source projekty brzy vyvinou podobné schopnosti, které budou šířeji dostupné.
Jak se liší Claude Mythos od běžného Clauda nebo ChatGPT?
Zatímco běžný Claude nebo ChatGPT jsou univerzální konverzační asistenti, Mythos je specializovaný na kybernetickou bezpečnost. Jeho síla spočívá v schopnosti nalézat extrémně složité zranitelnosti v softwaru, řetězit je do složitých útoků a pracovat dlouhodobě bez lidského dohledu. Podle benchmarků výrazně překonává i špičkové lidské bezpečnostní experty.
Co by měly české firmy dělat, aby se chránily před podobnými AI hrozbami?
Základem je dodržování kybernetické hygieny: pravidelné aktualizace softwaru, odstranění zastaralých systémů, segmentace sítí a školení zaměstnanců. Dlouhodobě by firmy měly sledovat vývoj EU AI Act a požadovat po dodavatelích AI nástrojů transparentnost ohledně bezpečnostních opatření. V případě kritické infrastruktury je vhodné provádět pravidelné penetrační testy, které zohledňují i scénáře s pokročilou AI.