Přejít k hlavnímu obsahu

Elon Musk přiznal u soudu: xAI trénoval Grok na OpenAI modelech

Ilustrační obrázek pro jarvis-ai.cz
Elon Musk ve čtvrtek 30. dubna 2026 přiznal před federálním soudem v Kalifornii, že jeho uměle inteligence Grok byla trénována s pomocí konkurenčních modelů OpenAI. Přiznání padlo uprostřed jednoho z nejsledovanějších soudních sporů v historii technologického průmyslu a okamžitě vyvolalo vlnu otázek o pokrytectví, etice a právních mezích takzvané destilace AI modelů.

Musk u soudu: „Částečně pravda“

Během třetího dne své výpovědi v procesu Musk v. Altman se zakladatel Tesly a SpaceX dostal pod tlak advokátů OpenAI. Když byl dotázán, zda jeho startup xAI použil modely OpenAI k trénování vlastního chatbota Grok, Musk nejprve odpověď obešel s odkazem na to, že „všechny AI firmy“ něco podobného dělají. Po naléhání však přiznal: „Částečně“ (partly). Podle deníku The Verge následně dodal, že jde o „standardní praxi používat jiné AI k validaci vlastní AI.“

Toto přiznání je zvláště pikantní v kontextu celého sporu. Musk totiž OpenAI žaluje za to, že se prý odklonilo od původní neziskové mise a upřednostňuje zisk. Sám přitom nyní přiznává, že jeho konkurenční firma využívala právě technologii tohoto „zprofanovaného“ OpenAI k vlastnímu rozvoji.

Co je model distillation a proč je tak kontroverzní?

Model distillation (destilace modelu) je technika, při které velký a výkonný jazykový model — tzv. učitel — předává své znalosti menšímu modelu, tzv. žákovi. Cílem je vytvořit levnější a rychlejší variantu, která si zachová většinu schopností původního systému. Tento postup je sám o sobě běžný a legální: například Anthropic i OpenAI ho používají interně ke zmenšení vlastních modelů pro komerční nasazení.

Problém nastává, když menší laboratoře destilují cizí modely bez povolení. V takovém případě jde o způsob, jak získat špičkové schopnosti za zlomek času a nákladů, které byly investovány do původního vývoje. Anthropic ve svém blogu z února 2026 varuje, že nelegální destilace představuje „metodu krádeže duševního vlastnictví, která porušuje obchodní podmínky.“

Právě Anthropic nedávno odhalila rozsáhlé kampaně čínských laboratoří DeepSeek, Moonshot AI a MiniMax, které měly nelegálně extrahovat schopnosti z jejich modelu Claude. Podle zveřejněných údajů šlo o miliony dotazů přes desítky tisíc podvodných účtů. Google zavedl podobná bezpečnostní opatření proti tomu, co označuje jako „distillation attacks“.

Pokrytectví nebo standardní praxe?

Muskovo přiznání vyvolává zásadní otázku: může někdo, kdo veřejně kritizuje konkurenta za komercializaci a údajnou zradu principů, současně legálně a morálně používat jeho technologii pro vlastní účely? OpenAI v reakci na celý spor uvedlo, že Muskova žaloba je „základní a závistivý pokus zničit konkurenta“, který má posínit jeho vlastní byznysové zájmy včetně xAI a X.

Soudní spor začal v roce 2024, kdy Musk obvinil OpenAI, Sama Altmana a Grega Brockmana z porušení důvěryhodného správcovství a podvodu. Žádá odvolání vedení a odškodné až 150 miliard dolarů. Zároveň požaduje, aby OpenAI přestalo fungovat jako veřejně prospěšná korporace. Výpověď o destilaci modelů však může jeho pozici oslabit — pokud sám považuje za standardní praxi využívat výstupy konkurence, těžko může argumentovat, že OpenAI jednalo nemorálně, když přijalo investice od Microsoftu a stalo se komerční firmou.

Co to znamená pro české uživatele a firmy?

Zatímco soudní drama se odehrává v USA, dopady jsou globální. České firmy i běžní uživatelé stojí před realitou, že trh s velkými jazykovými modely je extrémně koncentrovaný. OpenAI, Google, Anthropic a xAI kontrolují špičkové systémy, na které jsou stále více závislé evropské aplikace a služby. Pokud se potvrdí, že i Muskova xAI — prezentovaná jako alternativa „pro svobodné myšlení“ — stojí na základech konkurenčního OpenAI, podkopává to důvěru v marketingová hesla o nezávislosti.

Z právního hlediska zůstává destilace v šedé zóně. EU AI Act sice klade důraz na transparentnost a ochranu autorských práv při trénování modelů, ale přesná pravidla pro model distillation mezi konkurenty zatím nejsou jasně definována. Pro české vývojáře a startupy to znamená riziko: pokud budou chtít využít výstupy zahraničních modelů k trénování vlastních řešení, musí velmi pečlivě sledovat licenční podmínky API, aby se nedostali do konfliktu s obchodními podmínkami poskytovatelů.

Co se týče dostupnosti, Grok je aktuálně přístupný především přes platformu X (dříve Twitter) a vybrané prémiové předplatné. Pro český trh neexistuje plná lokalizace do češtiny a oficiální podpora pro české uživatele je omezená. Základní verze je dostupná v rámci předplatného X Premium, pokročilejší funkce pak vyžadují dražší plány.

Destilace jako zbraň v AI závodech

Kontroverze kolem destilace modelů se neomezuje jen na spor dvou miliardářů. Jde o širší geopolitický problém. Americké laboratoře investovaly miliardy dolarů do vývoje modelů s pokročilými bezpečnostními zábranami. Pokud tyto schopnosti získají konkurenti — ať už v Číně nebo jinde — prostřednictvím destilace, mohou je nasadit bez původních omezení. Anthropic varuje, že destilované modely mohou postrádat „nezbytná bezpečnostní opatření“, což vytváří rizika v oblasti kybernetické bezpečnosti, biologických zbraní nebo dezinformačních kampaní.

Pro běžného uživatele je klíčové uvědomit si, že růst konkurence na poli AI není vždy výsledkem převratných vynálezů, ale někdy jen sofistikovaného přehrávání dat z jednoho modelu do druhého. To neznamená, že výsledný produkt nemůže být užitečný, ale měli bychom být opatrnější při hodnocení marketingových tvrzení o „nezávislosti“ nebo „revoluční“ architektuře.

Co bude dál?

Soudní proces mezi Muskem a Altmanem pokračuje a jeho výsledek může ovlivnit budoucí strukturu OpenAI i celého AI průmyslu. Zda Muskovo přiznání o destilaci oslabí jeho vlastní případ, nebo naopak podpoří argument, že v AI průmyslu neexistují čisté ruce, ukáží nadcházející dny jednání. Jisté je, že transparentnost okolo trénovacích dat a metodik se stává jedním z nejdůležitějších témat nejen pro právníky, ale i pro veřejnost.

Je model distillation legální?

Destilace modelů je sama o sobě legální technika, pokud se používá na vlastních datech nebo s výslovným souhlasem vlastníka modelu. Problém nastává, když konkurenti extrahují výstupy cizího modelu v rozporu s obchodními podmínkami — pak může jít o porušení duševního vlastnictví.

Může se český startup legálně učit z ChatGPT?

Používání výstupů ChatGPT nebo jiných komerčních modelů k trénování vlastního produktu bez povolení je riskantní. OpenAI, Anthropic i Google mají ve svých podmínkách jasná omezení. Pro bezpečné využití je vhodné sáhnout po otevřených modelech s permissivní licencí, jako je Llama od Meta nebo Qwen od Alibaby.

Jaký rozdíl je mezi Grok a ChatGPT?

Grok je integrován především do sociální sítě X a klade důraz na „menší cenzuru“ a přístup k aktuálním informacím z této platformy. ChatGPT od OpenAI nabízí širší ekosystém nástrojů, lepší podporu češtiny a pokročilejší integrace do kancelářských aplikací. Oba modely jsou však stále více propojeny — jak nyní přiznal i sám Musk.

Perex: Elon Musk u federálního soudu přiznal, že jeho AI startup xAI použil modely OpenAI k trénování chatbota Grok. Přiznání vyvolává otázky o etice, právu a pokrytectví v souboji gigantů umělé inteligence.

Title: Elon Musk přiznal u soudu: xAI trénoval Grok na OpenAI modelech

X

Nezmeškejte novinky!

Přihlaste se k odběru novinek a aktualit.