Přeskočit na obsah
OpenAI, Anthropic a Google poprvé sdílejí bezpečnostní data. Spojil je čínský útok na jejich modely
19. dubna 2026 · 5 min čtení

OpenAI, Anthropic a Google poprvé sdílejí bezpečnostní data. Spojil je čínský útok na jejich modely

Tři největší rivalové v AI poprvé sdílejí interní bezpečnostní data prostřednictvím Frontier Model Fora. Důvod: čínské laboratoře DeepSeek, Moonshot a MiniMax systematicky kradou schopnosti jejich modelů přes desítky tisíc falešných účtů.

Foto: Unsplash / Zulfugar Karimov

Generováno AI

Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).

Tři největší rivalové v AI poprvé sdílejí interní bezpečnostní data prostřednictvím Frontier Model Fora. Důvod: čínské laboratoře DeepSeek, Moonshot a MiniMax systematicky kradou schopnosti jejich modelů přes desítky tisíc falešných účtů.

V únoru 2026 Anthropic zveřejnil detailní zprávu o tom, jak tři čínské AI laboratoře systematicky kradly schopnosti jeho modelů. DeepSeek, Moonshot AI a MiniMax vytvořily přes 24 000 podvodných účtů a vygenerovaly přes 16 milionů výměn s Claude. Cíl: extrahovat to nejcennější, co Anthropic vyvinul za miliardy dolarů, a natrénovat na tom vlastní levnější modely.

Dva měsíce nato udělaly OpenAI, Anthropic a Google něco bezprecedentního. Prostřednictvím Frontier Model Fora začaly sdílet operační data o útocích v reálném čase.

Od safety pledges k threat intelligence

Frontier Model Forum založily v roce 2023 čtyři firmy (přidává se Microsoft) jako platformu pro koordinaci AI safety a vládní komunikaci. Tři roky sloužilo hlavně k vydávání prohlášení a podepisování závazků. V dubnu 2026 se poprvé aktivovalo jako operační centrum pro sdílení threat intelligence.

Model spolupráce je vypůjčený z kybernetické bezpečnosti: když jedna firma detekuje vzorec útoku, flagne ho ostatním. Konkrétně to znamená sdílení IP adres, request metadata, infrastrukturních indikátorů a behaviorálních signatur, které identifikují distillation kampaně.

Je to zásadní posun. Firmy, které spolu soupeří o každého zákazníka, každý benchmark a každého vývojáře, si najednou sedají ke stejnému stolu a otevírají interní bezpečnostní data. Ne proto, že by chtěly. Ale proto, že alternativa je horší.

Anatomie krádeže za miliardy

Data od Anthropicu ukazují, že každá čínská laboratoř cílila na jiné schopnosti. DeepSeek se zaměřil na logiku, alignment a generování odpovědí, které obcházejí čínskou cenzuru. Moonshot AI extrahoval přes 3,4 milionu výměn zaměřených na agentní reasoning, práci s nástroji a computer vision. MiniMax s 13 miliony výměn cílil na agentní kódování a orchestraci.

Americké úřady odhadují ztráty v řádu desítek miliard dolarů ročně. Čínské modely postavené na extrahovaných schopnostech stojí na API až čtrnáctkrát méně než americké ekvivalenty. Není to jen o penězích. Když čínská laboratoř distiluje z Claude, nekopíruje safety filtry, alignment training ani harm-reduction vrstvy. Vznikají modely se schopnostmi frontier systémů, ale bez jejich bezpečnostních záruk.

Proč to není jen obchodní spor

OpenAI v memorandu pro sněmovní výbor pro Čínu nevolila diplomatické formulace: DeepSeek se podle ní pokouší "parazitovat na schopnostech vyvinutých OpenAI a dalšími americkými frontier laboratořemi."

Ale skutečný příběh není o jedné firmě, která si stěžuje na jinou. Je o tom, že AI průmysl právě prošel fázovou změnou. Tři roky mluvil o bezpečnosti jako o abstraktním závazku. Teď řeší bezpečnost jako operační problém s konkrétními protivníky, konkrétními útoky a konkrétními ztrátami.

Frontier Model Forum už není platformou pro tiskové zprávy. Je to první případ, kdy se aktivovalo jako operační centrum proti konkrétnímu externímu protivníkovi. A to je precedent, který přesahuje čínskou distillation.

Co bude dál

Pokud sdílení threat intelligence funguje, logickým dalším krokem je koordinovaná technická obrana: watermarking outputů, rate limiting na úrovni API, detekce syntetických query patternů. Některé z těchto nástrojů už existují. Co chybělo, bylo institucionální zázemí pro jejich koordinaci.

Otázkou zůstává, jestli tohle spojenectví vydrží i ve chvíli, kdy se jeden z partnerů rozhodne, že výhody nesdílení převažují. Dočasné aliance mezi rivaly mají tendenci se rozpadat ve chvíli, kdy vnější tlak povolí. Zatím ale platí jednoduchá logika: když vám konkurent krade, ale ještě víc krade někdo třetí, spolupráce dává smysl.

AI průmysl právě dostal svůj první společný nepřítel. A to ho mění víc než jakýkoliv safety pledge.