
OpenAI, Anthropic a Google vytvořily koalici proti čínskému kopírování AI modelů
Tři největší americké AI firmy poprvé sdílejí interní data o systematické krádeži schopností jejich modelů čínskými laboratořemi. Ztráty jdou do desítek miliard ročně.
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
Rivali, kteří spolu normálně soupeří o každého zákazníka, si sedli za jeden stůl. OpenAI, Anthropic a Google začaly prostřednictvím Frontier Model Fora sdílet informace o takzvané adversarial distillation, technice, při které čínské AI laboratoře systematicky extrahují schopnosti amerických modelů.
Mechanismus je relativně přímočarý. Čínští vývojáři vytvářejí tisíce falešných účtů a prostřednictvím automatizovaných dotazů bombardují systémy jako ChatGPT, Claude nebo Gemini. Odpovědi pak používají k trénování vlastních, výrazně levnějších modelů.
Rozsah problému je přitom daleko větší, než se dosud veřejně přiznávalo. Anthropic v únoru zdokumentoval 16 milionů výměn od tří čínských firem: DeepSeek, Moonshot AI a MiniMax. Útočníci operovali přes přibližně 24 000 podvodných účtů.
Data ukazují, co přesně koho zajímalo. DeepSeek se zaměřil na logiku a alignment, konkrétně na alternativy k citlivým dotazům. Moonshot AI cílil na agentní reasoning, práci s nástroji a computer vision, celkem přes 3,4 milionu výměn. MiniMax s 13 miliony výměn extrahoval schopnosti v oblasti agentního kódování a orchestrace.
Americké úřady odhadují, že neoprávněná distillace stojí Silicon Valley desítky miliard dolarů ročně v ušlém zisku. Čínské modely díky extrahovaným schopnostem stojí na API až čtrnáctkrát méně než americké ekvivalenty.
OpenAI situaci nepomohla diplomatickými formulacemi. V memorandu pro sněmovní výbor pro Čínu firma obvinila DeepSeek z pokusu "parazitovat na schopnostech vyvinutých OpenAI a dalšími americkými frontier laboratořemi."
Spolupráce tří firem přes Frontier Model Forum, které společně s Microsoftem založily v roce 2023, představuje pragmatický krok. Když vám konkurent krade, ale ještě víc krade někdo třetí, dočasné spojenectví dává smysl. Otázkou zůstává, jestli sdílení dat o útocích povede k účinné obraně, nebo jen k eskalaci technologické studené války mezi USA a Čínou.
Zdroje:
- OpenAI, Anthropic, Google Unite to Combat Model Copying in China (Bloomberg)
- OpenAI, Anthropic, Google team up to stop Chinese AI distillation threat (BusinessToday)
- Detecting and preventing distillation attacks (Anthropic)
- Anthropic accuses DeepSeek, Moonshot and MiniMax of distillation attacks (CNBC)
- U.S. AI Giants Unite Against Chinese Model Replication (BigGo Finance)
Zdroje
- OpenAI, Anthropic, Google Unite to Combat Model Copying in China — Bloomberg
- OpenAI, Anthropic, Google team up to stop Chinese AI distillation threat — BusinessToday
- Detecting and preventing distillation attacks — Anthropic
- Anthropic accuses DeepSeek, Moonshot and MiniMax of distillation attacks — CNBC
- U.S. AI Giants Unite Against Chinese Model Replication — BigGo Finance