Žaloba: skrytý datový přenos přímo z ChatGPT
Soudní podání, o němž jako první informoval server Analytics Insight, přináší detailní popis toho, jak údajně docházelo ke sběru dat. Žalobkyně tvrdí, že OpenAI vložil do webového rozhraní ChatGPT sledovací kódy Facebook Pixel od Meta a Google Analytics. Tyto nástroje jsou běžně používané na běžných webových stránkách ke sledování návštěvnosti a cílení reklamy, jejich přítomnost v prostředí, kde uživatelé zadávají citlivé osobní informace, je však podle odborníků na bezpečnost značně problematická.
Podle žaloby byly přenášeny nejen samotné texty dotazů, ale také identifikátory účtů a e-mailové adresy. Pokud byl uživatel v době používání ChatGPT současně přihlášen ke svému účtu na Facebooku nebo Googlu, existuje reálná možnost, že tyto konverzace byly přímo propojeny s jeho reálnou identitou. To znamená, že dotazy týkající se zdravotních potíží, finančních problémů nebo osobních vztahů mohly skončit v rukou dvou největších reklamních společností světa.
Jak Facebook Pixel a Google Analytics fungují
Pro nezúčastněné čtenáře je vhodné vysvětlit, o jaké nástroje jde. Facebook Pixel je malý fragment kódu, který webové stránky umisťují do svého zdroje. Po načtení stránky tento kód odešle Meta informace o tom, co uživatel dělá — například jaké stránky prohlíží, co píše do formulářů, nebo jaké produkty si prohlíží v e-shopu. Podobně funguje i Google Analytics, který sleduje chování návštěvníků a pomáhá majitelům webů optimalizovat obsah.
Na běžném firemním webu nebo e-shopu jde o standardní a legální praxi, pokud má uživatel možnost souhlasu. V případě AI chatbota, kde lidé běžně vkládají velmi osobní data, je však podle bezpečnostních expertů eticky i právně sporné tyto nástroje nasazovat bez jasného a explicitního souhlasu. „Uživatelé ChatGPT mají rozumné očekávání, že jejich konverzace zůstanou mezi nimi a umělou inteligencí,“ komentuje situaci jeden z amerických právníků specializujících se na digitální soukromí.
Dopad na soukromí milionů uživatelů
ChatGPT dnes používá přes 500 milionů aktivních uživatelů týdně po celém světě, včetně desítek tisíc Čechů. Platforma se stala místem, kam lidé chodí nejen s technickými dotazy, ale také s velmi intimními tématy — zdravotními obtížemi, finančními problémy, rodinnými konflikty či pracovními stresy. Právě tato důvěra v anonymitu a soukromí je nyní podle žaloby zneužita.
Zvláště znepokojivá je skutečnost, že pokud byly data skutečně vázána na konkrétní identity uživatelů přes jejich přihlášení k Meta či Google účtům, mohly by teoreticky sloužit k cílení reklamy na základě obsahu AI konverzací. To znamená, že pokud uživatel psal ChatGPT o problémech s dluhy, mohl by se mu na Facebooku nebo v Google službách začít zobrazovat reklamy na půjčky nebo konzultace s insolvenčními správci.
Postoj OpenAI a právní obrana
OpenAI se k žalobě zatím oficiálně nevyjádřil. Soudní případ zatím nemá stanovené datum prvního slyšení. Právníci očekávají, že společnost se bude odvolávat na svou zásady ochrany osobních údajů (privacy policy), které obsahují ustanovení o sdílení dat s třetími stranami. Právě toto „drobné písmo“ může podle expertů být klíčovou obrannou linií OpenAI.
„Právní tým OpenAI pravděpodobně zdůrazní, že uživatelé s podmínkami používání souhlasili při registraci,“ vysvětluje jeden z komentátorů. „Otázkou však zůstává, zda byl tento souhlas skutečně informovaný a zda uživatelé rozuměli rozsahu sběru dat v kontextu AI chatů.“
Širší kontext: Perplexity a tlak na celý průmysl
OpenAI v tomto případě není osamocena. Podle zdroje Analytics Insight byl před několika týdny obdobný případ podán proti Perplexity AI, konkurenční platformě pro AI vyhledávání. To naznačuje, že problém nedostatečné ochrany soukromí v generativní AI může být systémový, nikoli ojedinělý.
Soudy i regulátoři ve Spojených státech i v Evropě začínají vysílat jasný signál: technologický pokrok nesmí probíhat na úkor základního lidského soukromí. Tlak na transparentnost sběru a zpracování dat v AI systémech roste, a vývojáři budou muset čím dál více dokazovat, že respektují práva uživatelů.
Eviduje se to i v Evropě? GDPR a AI Act
Pro české a evropské uživatele je klíčové, že se v Evropské unii na ochranu dat vztahuje přísná legislativa. Obecné nařízení o ochraně osobních údajů (GDPR) vyžaduje explicitní souhlas se zpracováním osobních dat a dává uživatelům právo vědět, jak jsou jejich data používána. Pokud by se prokázalo, že OpenAI shromažďoval citlivé konverzace a předával je Meta či Google bez jasného a informovaného souhlasu, mohlo by to znamenat porušení GDPR s potenciálními sankcemi v řádu milionů eur.
Kromě toho vstoupil v platnost EU AI Act, který klade na provozovatele AI systémů další povinnosti týkající se transparentnosti a ochrany základních práv. AI modely musí zajistit, že zpracování osobních dat probíhá v souladu s evropskými předpisy. Český Úřad pro ochranu osobních údajů (ÚOOÚ) již v minulosti upozornil, že chatboti zpracovávající osobní data podléhají stejným pravidlům jako jakákoli jiná digitální služba.
Jak ochránit své chaty: praktické kroky pro uživatele
I když se soudní spor může táhnout měsíce nebo roky, existují kroky, které mohou uživatelé ChatGPT udělat hned dnes, aby minimalizovali riziko úniku citlivých dat:
- Používejte soukromý režim prohlížeče při práci s ChatGPT, abyste minimalizovali propojení s existujícími cookies od Meta a Google.
- Odhlaste se z Facebooku a Google v jiných záložkách prohlížeče před použitím ChatGPT.
- Nevkládejte do chatů osobní údaje — čísla kreditních karet, rodná čísla, hesla ani zdravotní diagnózy by do AI chatů vůbec neměly patřit.
- Využijte funkci „Temporary Chat“ v placené verzi ChatGPT Plus, pokud ji OpenAI nabízí pro konverzace, které se nemají ukládat.
- Zvažte alternativy — evropské nebo lokální modely, které mohou nabízet přísnější ochranu dat.
Bezpečnostní experti opakovaně upozorňují, že konverzace s veřejnými cloudovými AI službami by měly být vždy chápány jako potenciálně monitorované. „Pokud nechcete, aby se něco objevilo na přední straně novin, nepište to do ChatGPT,“ shrnuje jeden z českých odborníků na kybernetickou bezpečnost.
Co nás čeká: precedent pro celý AI průmysl
Tento případ může mít dalekosáhlé důsledky. Pokud soud uzná žalobu za oprávněnou, může to otevřít dveře dalším tisícovm podobných případů proti OpenAI i dalším poskytovatelům AI služeb. Pro celý průmysl by to znamenalo nutnost transparentního auditu datových toků a jasnějších pravidel pro sběr dat v AI aplikacích.
Pro české uživatele je zpráva jasná: i když AI nástroje jako ChatGPT nabízejí obrovskou hodnotu, není možné slepě věřit, že všechny konverzace zůstanou soukromé. Ochrana osobních dat v éře umělé inteligence vyžaduje nejen lepší regulaci, ale také informované a obezřetné uživatele.
Jak zjistím, zda byly moje chaty z ChatGPT skutečně sdíleny s třetími stranami?
Bohužel běžný uživatel nemá přímý způsob, jak to ověřit. OpenAI neposkytuje detailní logy o tom, jaké konkrétní údaje byly předány Meta nebo Google. Pokud máte obavy, můžete požádat o kopii svých dat přes nastavení účtu ChatGPT nebo kontaktovat úřad na ochranu osobních údajů ve své zemi.
Může být tento případ relevantní i pro české uživatele podle GDPR?
Ano, pokud OpenAI shromažďoval a předával osobní údaje uživatelů z EU bez řádného právního základu nebo explicitního souhlasu, může to představovat porušení GDPR. Český ÚOOÚ nebo jiný evropský dozorový úřad by mohl zahájit šetření na základě podnětů občanů EU.
Existují bezpečnější alternativy k ChatGPT, které respektují soukromí více?
Ano, existuje několik alternativ. Některé evropské modely nebo lokálně nasaditelní open-source asistenti (například založení na Llama od Meta nebo Mistral) mohou běžet přímo na vašem zařízení bez odesílání dat do cloudu. Také Claude od Anthropic má přísnější přístup k ochraně dat, i když i u něj je vhodné si pečlivě přečíst podmínky použití.