Od chatbotů k autonomním pracovníkům: Co je vlastně Agentic AI?
Abychom pochopili probíhající změnu, musíme rozlišit mezi běžnou generativní AI (jako je základní ChatGPT) a Agentic AI. Zatímco běžný model funguje na principu "dotaz–odpověď", agentivní systémy pracují v uzavřených smyčkách (reasoning loops). Dostanou cíl, rozvrhnou si kroky, vyhodnotí výsledek a pokud selžou, zkusí jinou cestu.
Tyto systémy se integrují do firemních databází, finančních systémů a workflow. Nejde už jen o textový okno, ale o software, který má "ruce" – může spouštět kód, volat API jiných služeb nebo provádět transakce. V praxi to znamená, že AI agent může v rámci e-commerce systému sám vyřešit reklamaci, vrátit peníze na účet zákazníka a aktualizovat skladové zásoby, aniž by ho člověk v každém kroku kontroloval.
Srovnání schopností: Agentní schopnosti u nejlepších modelů
V oblasti agentního uvažování (agentic reasoning) probíhá tvrdý boj mezi hlavními hráči. Podle aktuálních benchmarků a praktických testů v roce 2026 se situace jeví následovně:
- Claude (Anthropic): Aktuálně považován za špičku v oblasti následování instrukcí a komplexního plánování. Jeho schopnost pracovat s rozsáhlým kontextem z něj dělá preferovaného partnera pro právní a analytické agenty.
- GPT-4o/GPT-5 (OpenAI): Exceluje v multimodálním chápání a rychlosti, což je klíčové pro agenty, kteří musí v reálném čase zpracovávat vizuální i textové vstupy.
- Gemini (Google): Nabízí nejlepší integraci s ekosystémem Google Workspace, což umožňuje agentům přirozeně operovat v kalendářích, dokumentech a e-mailech.
Právní vakuum: Kdo zaplatí, když agent selže?
Zde narážíme na hlavní problém, který diskutuje například JD Supra. Pokud autonomní agent v právní firmě nebo ve finanční instituci udělá chybu, která způsobí finanční ztrátu, kdo nese odpovědnost? Je to vývojář modelu? Firma, která agenta nasadila? Nebo uživatel, který mu zadal úkol?
Tradičně platí, že software je považován za nástroj, a odpovědnost za jeho použití nese uživatel. Nicméně u Agentic AI se tato "stěna odpovědnosti" začíná trhat. Pokud systém vykazuje míru autonomie, která přesahuje běžné ovládání člověkem, může se jeho status přiblížit k právní subjektivitě, nebo alespoň k novým formám odpovědnosti za produkt (product liability). Jak uvádí analýzy v Hyperdimensional, software dosud těžil z nejasností v otázce škod způsobených nehmotnými produkty, ale éra výkonné AI tyto nejasnosti likely ukončí.
Praktické dopady pro firmy a právní oddělení
Pro in-house právní týmy už není otázkou, zda AI použít, ale jak ji řídit. Nástroje jako Harvey (specializovaný právní AI) nebo Microsoft Copilot už dnes umožňují automatizaci dokumentů a analýzu smluv. Pro české firmy to znamená:
- Nutnost governance: Firmy musí definovat jasná pravidla, jaké úkoly agentům svěřit a kde musí vždy zasáhnout člověk (tzv. Human-in-the-loop).
- Auditovatelnost: Každý krok, který agent podnikne, musí být zaznamenán (logován), aby v případě chyby bylo možné rekonstruovat rozhodovací proces.
- Právní prověření nástrojů: Při výběru nástroje je nutné sledovat, zda splňuje standardy ochrany dat, zejména pokud pracuje s citlivými informacemi klientů.
Regulace v EU a situace v Česku
Pro české uživatele je klíčovým rámcem EU AI Act. Tato regulace klasifikuje systémy AI podle míry rizika. Autonomní agenty, kteří rozhodují o důležitých věcech (např. v náboru zaměstnanců, v bankovnictví nebo v právních procesech), budou pravděpodobně spadat do kategorie vysokého rizika. To přináší přísné povinnosti pro transparentnost, kvalitu dat a lidský dohled.
Dostupnost a jazyk: Většina špičkových agentních modelů (Claude, GPT) zvládá češtinu na velmi vysoké úrovni, což umožňuje jejich nasazení i na našem trhu. Nicméně, při implementaci autonomních workflow je třeba počítat s tím, že právní interpretace českých zákonů může být pro globální modely stále problematická, pokud nejsou specificky dotrénovány na českou právní praxi.
Cenová politika a dostupnost
Při zvažování implementace je důležité sledovat náklady:
- Claude (Anthropic): Free tier je dostupný; Pro verze stojí cca 20 USD/měsíc. Pro enterprise agentní řešení jsou ceny individuální.
- Microsoft Copilot: Základní verze zdarma; Copilot Pro pro jednotlivce cca 20 USD/měsíc; Business verze se účtují podle licence Microsoft 365.
- Specializované právní nástroje (např. Harvey): Tyto nástroje nejsou pro běžné uživatele a jejich cena je zaměřena na velké korporace a právní kanceláře (v řádech tisíců dolarů měsíčně).
Závěr: Jak se připravit?
Agentic AI není jen další vlnou automatizace; je to změna paradigmatu, kde software přestává být pasivním nástrojem a stává se aktivním účastníkem procesů. Pro české firmy i profesionály je klíčové nečekat na jasné právní precedenty, ale začít budovat interní pravidla pro AI governance již dnes. Nejde o to zakázat autonomii, ale naučit se ji kontrolovat.
Může být AI agent právně odpovědný za svou chybu?
V současné právní době nikoliv. AI nemá právní subjektivitu. Odpovědnost nese vždy právnická nebo fyzická osoba (firma či uživatel), která agenta nasadila nebo mu zadala úkol. Diskuse o tom, zda by se na vývojáře mělo uplatňovat přísnější odpovědnost za produkt, však probíhají.
Jak poznám, že je můj AI nástroj "agentní" a ne jen "generativní"?
Klíčovým znakem je schopnost samostatného rozhodování a používání externích nástrojů. Pokud nástroj umí sám otevřít prohlížeč, najít data, provést výpočet v Excelu a poslat výsledek e-mailem bez vašeho každodenního schvalování každého kroku, jedná se o agentní systém.
Je pro českou firmu bezpečné používat Claude nebo GPT pro agentní úkoly?
Technicky ano, modely jsou velmi schopné i v češtině. Z hlediska bezpečnosti a regulace (EU AI Act) je však kritické zajistit, aby data neopouštěla zabezpečené prostředí (např. pomocí Enterprise verzí), aby nedocházelo k porušení GDPR při zpracování citlivých informací.