Když AI přestane být jen nástrojem obrany
7. dubna 2026 se v Hanoji sešli představitelé státní správy, bezpečnostních složek i soukromého sektoru na workshopu s názvem „Bezpečnost v éře umělé inteligence“. Akci pořádalo Národní sdružení pro kybernetickou bezpečnost (NCA) ve spolupráci se společností Check Point Software Technologies. Jejím cílem bylo ukázat, že AI není pouze pomocníkem bezpečnostních týmů, ale také zranitelným článkem digitální infrastruktury.
Pham Tien Dung, viceguvernér Vietnamské státní banky a viceprezident NCA, ve svém úvodním projevu upozornil, že hluboké zapojení umělé inteligence do provozních činností činí systémy propojenějšími a komplexnějšími. „Zranitelnosti se již neomezují pouze na tradiční ‚vnější vrstvy‘, ale mohou se objevit přímo v jádru systému, kde se protínají data, algoritmy a výpočetní infrastruktura,“ uvedl Dung. Jakmile se AI stane součástí kritických procesů, mohou se bezpečnostní rizika šířit daleko rychleji a ve větším měřítku.
Tři hrozby, které neznají hranic
Plukovník Dr. Nguyen Hong Quan, zástupce ředitele oddělení kybernetické bezpečnosti a prevence high-tech kriminality vietnamského Ministerstva veřejné bezpečnosti, na konferenci vymezil tři klíčové strategické výzvy. Přestože je formuloval pro vietnamské prostředí, platí prakticky identicky i pro Českou republiku a celou Evropskou unii.
První výzvou je ochrana datové suverenity. Systémy umělé inteligence jsou extrémně náročné na data — a kontrola nad jejich tokem, úložišti a metodami využívání se stává klíčovou otázkou národní bezpečnosti. V českém kontextu to znamená například otázku, kam směřují citlivá data při používání zahraničních cloudových modelů.
Druhou výzvou je závislost na zahraničních platformách a technologiích. Vietnam, podobně jako Česko, stojí před realitou, že globální trh s velkými jazykovými modely ovládají převážně americké a čínské firmy. „To se netýká pouze technologických faktorů, ale také otázek bezpečnosti, ekonomiky a digitální suverenity,“ zdůraznil Nguyen Hong Quan.
Třetí a pro čtenáře jarvis-ai.cz nejpřekvapivější výzvou je ochrana samotných systémů umělé inteligence, které se stávají novým cílem kyberzločinců. Modely lze napadat manipulací s tréninkovými daty, vkládáním škodlivého kódu nebo zneužíváním zranitelností v operačním procesu. Jinými slovy: hacker už neútočí jen na váš počítač, ale přímo na mozek AI, která vám má pomáhat.
Jak vypadá útok na AI v praxi
Pro běžného uživatele může znít útok na umělou inteligenci abstraktně. Ve skutečnosti jde ale o konkrétní a již dokumentované metody. Jednou z nich je data poisoning — tedy otrava tréninkových dat. Pokud útočník dokáže vložit do datasetu, na kterém se model učí, podvržené informace, může ovlivnit jeho chování i měsíce po nasazení.
Další technikou je prompt injection, při kterém útočník skrze vstupní příkaz donutí model k neočekávané činnosti — například k úniku citlivých dat nebo ke generování škodlivého obsahu. Podobně funguje jailbreak, tedy obejití bezpečnostních omezení modelu pomocí specificky formulovaných dotazů.
Nejnebezpečnější jsou však útoky na úrovni infrastruktury. Velké jazykové modely běží na masivních clusterech grafických procesorů (GPU), které jsou často propojeny do interních sítí. Pokud se útočník dostane do této sítě, může nejen krást data, ale i modifikovat samotný model nebo využít výpočetní kapacitu pro vlastní účely. Právě proto společnosti jako Check Point navrhují bezpečnostní architekturu už od fáze návrhu datového centra.
Check Point a „továrny“ na AI
Společnost Check Point, která se workshopu zúčastnila jako profesionální partner, představila svůj globální pohled na zabezpečení AI. Podle Rumy Balasubramanian, prezidentky firmy pro Asii a Tichomoří, se Check Point zaměřuje na tři pilíře: viditelnost, řízení a prevenci v celém ekosystému umělé inteligence.
Pro organizace, které chtějí provozovat vlastní infrastrukturu AI, nabízí Check Point takzvaný AI Factory Security Blueprint — referenční architekturu, která řídí rizika od úrovně GPU až po velké jazykové modely (LLM). Kromě toho firma propaguje platformu AI Defense Plane, což je vícevrstvé bezpečnostní řešení bránící proti novým hrozbám, včetně útoků s okamžitým vkládáním dat, úniků informací a škodlivých akcí autonomních agentů.
„Umělá inteligence není jen nástrojem, ale stává se faktorem, který mění podobu kybernetické bezpečnosti a národní bezpečnosti,“ shrnul Nguyen Hong Quan. „Proaktivní osvojení, zvládnutí a zajištění bezpečnosti technologií umělé inteligence bude v budoucnu rozhodujícím faktorem pro udržitelný a bezpečný rozvoj každého národa.“
Co to znamená pro Česko a Evropu
Vietnamské varování není vzdálenou exotikou. Česká republika i celá Evropská unie čelí stejným výzvám — ačkoliv v jiném měřítku. EU AI Act, který začal platit v průběhu roku 2025, klade na provozovatele high-risk AI systémů přísné požadavky právě v oblasti kybernetické bezpečnosti, transparentnosti a správy dat. Firmy musí dokázat, že jejich modely jsou odolné proti manipulaci a že data neunikají do nedůvěryhodných destinací.
V tuzemsku na to reaguje například Česká národní banka, která nedávno oznámila výstavbu vlastního AI centra za desítky milionů korun. Cílem je právě zvýšit analytické schopnosti dohledu nad finančním trhem při zachování plné kontroly nad daty a infrastrukturou. Podobně Národní úřad pro kybernetickou a informační bezpečnost (NÚKIB) opakovaně upozorňuje, že nasazení AI do kritické infrastruktury musí jít ruku v ruce s posílením bezpečnostních protokolů.
Pro běžné firmy i uživatele to znamená jedno: AI není all-in-one řešení, které můžeme nasadit a zapomenout. Bezpečnost umělé inteligence vyžaduje stejnou pozornost jako bezpečnost sítí, serverů a koncových zařízení. A vzhledem k tomu, že české firmy často využívají zahraniční modely — ať už OpenAI, Google nebo Anthropic — je otázka datové suverenity a ochrany tréninkových dat zcela zásadní.
Od obrany k integrované bezpečnosti
Klíčovým poselstvím workshopu v Hanoji byl přechod od čistě obranného přístupu k integrované bezpečnosti již od fáze návrhu a vývoje technologií. Jinými slovy — bezpečnost AI by neměla být náplastí, kterou lepíme na hotový produkt, ale jeho nedílnou součástí.
S tím, jak umělá inteligence proniká do bankovnictví, zdravotnictví, dopravy i státní správy, se kybernetická bezpečnost stává základním kamenem celého digitálního ekosystému. Ať už jde o vietnamskou centrální banku, evropskou legislativu nebo české regulátory, shoda je jasná: bez bezpečné AI nemůže být řeč o udržitelném digitálním rozvoji. A na to by měli myslet nejen bezpečnostní experti, ale každý, kdo do své firmy či instituce umělou inteligenci zavádí.
Jaký je rozdíl mezi klasickým hackerským útokem a útokem na AI systém?
Klasický útok obvykle cílí na sítě, servery nebo uživatelská zařízení s cílem ukrást data nebo narušit provoz. Útok na AI systém jde o úroveň hlouběji — snaží se manipulovat samotný model, například otrávením tréninkových dat, vkládáním škodlivých příkazů (prompt injection) nebo zneužitím zranitelností v infrastruktuře, na které model běží. Cílem může být změna chování AI, únik citlivých informací nebo zneužití výpočetní kapacity.
Musí se české firmy řídit nějakými pravidly při nasazování AI?
Ano. Evropský AI Act, který vstoupil v platnost v roce 2025, klade na firmy používající high-risk AI systémy přísné požadavky v oblasti bezpečnosti, transparentnosti a ochrany dat. V Česku navíc Národní úřad pro kybernetickou a informační bezpečnost (NÚKIB) vydává metodiky a varování týkající se bezpečného nasazení AI v kritické infrastruktuře. Firmy by proto měly posuzovat nejen funkčnost, ale i bezpečnost a původ používaných modelů.
Jak si jako běžný uživatel mohu chránit data při používání ChatGPT či jiné AI?
Základním pravidlem je nevkládat do veřejných AI nástrojů citlivé osobní, firemní nebo zákaznické údaje. Pokud pracujete s interními daty, používejte firemní instance s garantovaným zpracováním v rámci EU nebo lokálně nasazené modely. Vždy si také ověřte, jaké zásady zpracování dat poskytovatel AI nástroje má — a zda vaše interakce nejsou využívány k dalšímu trénování modelů.