Přejít k hlavnímu obsahu

OpenAI chystá GPT-5.5-Cyber: Specializovaný model pro ochranu kritické infrastruktury s vládní supervizí

Ilustrační obrázek pro jarvis-ai.cz
OpenAI oznámilo specializovaný model GPT-5.5-Cyber, který se v nejbližších dnech začne distribuovat vybraným kybernetickým obráncům kritické infrastruktury. Na rozdíl od běžných verzí bude přístup založen na ověření a spolupráci s vládami — jde o zásadní posun v tom, jak firma nakládá s modely, které mohou být zneužity.

GPT-5.5-Cyber: Model pro obranu, ne pro každého

Generální ředitel OpenAI Sam Altman prostřednictvím svého účtu na X oznámil, že nový model GPT-5.5-Cyber se začne v následujících dnech distribuovat „kritickým kybernetickým obráncům“. Technické specifikace zatím nejsou veřejné, ale podle dostupných informací půjde o specializovanou variantu nedávno představeného modelu GPT-5.5, který je zaměřen na vyhledávání hrozeb, analýzu zranitelností a reakci na incidenty v reálném čase.

Altman zdůraznil, že OpenAI bude „spolupracovat s celým ekosystémem a vládou, aby zajistila důvěryhodný přístup v oblasti kyberbezpečnosti“. Cílem je rychle pomoci zabezpečit firmy a infrastrukturu, a to pomocí kontrolovaného nasazení, nikoli veřejného uvolnění pro široké publikum.

Co už umí základní GPT-5.5

Chápat kontext GPT-5.5-Cyber pomáhá pohled na mateřský model GPT-5.5, který OpenAI představilo 29. dubna 2026. Tento model dosahuje v řadě oborových benchmarků špičkových výsledků:

  • Terminal-Bench 2.0 — 82,7 % přesnosti v komplexních příkazových workflow (stav umění).
  • SWE-Bench Pro — 58,6 % v řešení reálných problémů na GitHubu.
  • GDPval — 84,9 % v testech znalostní práce napříč 44 profesemi.
  • OSWorld-Verified — 78,7 % v ovládání reálných počítačových prostředí.
  • BixBench — 80,5 % v bioinformatických a datových analýzách.

Kromě toho vědci uvnitř OpenAI s využitím interní verze modelu objevili nový matematický důkaz v oblasti Ramseyho čísel, což naznačuje pokročilé schopnosti abstraktního uvažování.

„Trusted Access for Cyber“: Důvěra místo volného trhu

Společně s oznámením GPT-5.5-Cyber OpenAI spustilo program „Trusted Access for Cyber“. Ten umožní ověřeným organizacím, které chrání kritickou infrastrukturu, přístup k tzv. cyber-permissive modelům s menšími restrikcemi než běžní uživatelé. Podle oficiálního vyjádření má tento krok „demokratizovat přístup k důležitým obranným schopnostem“, aniž by se snižovala bezpečnost.

Tento přístup je významný odklon od tradiční strategie OpenAI, kde nové modely putují přes API nebo ChatGPT k milionům uživatelů během několika dnů. U citlivých kybernetických schopností firma volí fázované nasazení, partnerství s vládami a bezpečnostní hodnocení, jejichž cílem je omezit zneužití při zachování prospěšných aplikací.

Dual-use problém: Stejný nástroj pro obranu i útok

Záměrně omezený rollout reflektuje globální obavy z tzv. dual-use povahy pokročilé AI. Stejné schopnosti, které modelu umožňují identifikovat zranitelnosti v systému a simulovat obranné scénáře, by mohl zneužít i škodlivý aktér k návrhu útoků, phishingových kampaní nebo automatizovaného hledání slabých míst.

Tento dilema řeší i další hráči na trhu. Například Anthropic, hlavní konkurent OpenAI, nedávno odmítl zveřejnit určité části svého modelu právě z obav před možným zneužitím v kybernetickém prostoru. OpenAI naopak volí cestu ověřeného přístupu — model bude dostupný, ale pouze pod dohledem.

Česká a evropská relevance: Kde stojíme?

Pro české a evropské čtenáře není toto téma vzdálené. Evropská unie již přijala směrnici NIS2, která od října 2024 zpřísňuje požadavky na kybernetickou bezpečnost provozovatelů kritické infrastruktury — mezi ně patří energetika, doprava, zdravotnictví, finanční sektor i veřejná správa. Česká republika tuto směrnici implementuje skrze zákon o kybernetické bezpečnosti.

Zároveň EU AI Act klasifikuje systémy umělé inteligence používané v kritické infrastruktuře jako „vysoce rizikové“. To znamená, že jakýkoli AI model — včetně GPT-5.5-Cyber — nasazený v evropských elektrárnách, nemocnicích nebo bankách musí splňovat přísné požadavky na transparentnost, lidský dohled a robustnost. Pro české organizace, které by o model mohly mít zájem, to znamená, že případný provoz bude podléhat nejen ověření ze strany OpenAI, ale také regulatorním kontrolám podle evropského práva.

Na tuzemské scéně přitom roste poptávka po AI nástrojích pro bezpečnost. České firmy jako Avast (nyní součást Gen Digital) nebo ESET dlouhodobě vyvíjejí vlastní AI modely pro detekci hrozeb. Případné partnerství nebo certifikace OpenAI pro české subjekty by mohlo posílit obranyschopnost, ale zároveň vyvolává otázky o závislosti na americkém dodavateli v citlivé oblasti národní bezpečnosti.

Dostupnost a cena

Zatímco běžný model GPT-5.5 se aktuálně rolluje uživatelům předplatných ChatGPT Plus (20 USD/měsíc), Pro (200 USD/měsíc) a firemním tarifům Business a Enterprise, speciální varianta GPT-5.5-Cyber nebude součástí běžného spotřebitelského portfolia.

OpenAI nezveřejnilo konkrétní ceník pro „Trusted Access for Cyber“. Dá se však očekávat, že přístup bude podmíněn smluvním vztahem, bezpečnostním auditem a pravděpodobně i vládním doporučením. Pro české firmy a instituce to znamená, že pokud o model projeví zájem, budou muset projít ověřovacím procesem, jehož detaily firma zatím nezveřejnila.

Co to znamená pro budoucnost AI v bezpečnosti?

Oznámení GPT-5.5-Cyber signalizuje, že kybernetická bezpečnost se stává centrálním bitevním polem pro nasazování frontier AI modelů. Podniky a vlády po celém světě již experimentují s automatizací bezpečnostních operací, detekcí anomálií v síťovém provozu a okamžitou reakcí na incidenty. Paralelně ale roste i počet AI-asistovaných kybernetických útoků — sofistikovanější phishing, automatizované hledání zranitelností a generování škodlivého kódu.

OpenAI tak vstupuje do prostředí, kde nejde jen o technologickou převahu, ale i o důvěru a regulaci. Rozhodnutí spolupracovat přímo s vládami při kontrolovaném nasazení může být vzorem pro další vývojáře modelů — zejména v době, kdy se evropští regulátoři připravují na první kolo inspekcí podle AI Actu.

X

Nezmeškejte novinky!

Přihlaste se k odběru novinek a aktualit.