
Anthropic běží třemi rychlostmi najednou. A infrastruktura to neutáhla
Pět výpadků, utažené limity, leak tajného modelu. Březen 2026 odhalil strategické napětí, které Anthropic dosud úspěšně skrýval.
Foto: MacRumors
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
Pět výpadků, utažené limity, leak tajného modelu. Březen 2026 odhalil strategické napětí, které Anthropic dosud úspěšně skrýval.
Když vám AI asistent v půlce pracovního dne přestane odpovídat, je to nepříjemnost. Když se to stane pětkrát za měsíc a vy platíte 200 dolarů měsíčně za prémiový přístup, je to problém. A když se ke všemu ukáže, že firma mezitím potají trénuje model, o kterém sama říká, že představuje bezprecedentní kybernetická rizika? Začíná to vypadat jako příběh o firmě, která chce příliš mnoho najednou.
Co se v březnu stalo
Březnová bilance Anthropicu čte jako válečný deník. Major outage 2. března shodil claude.ai na několik hodin. Další vlna chyb přišla 11. března. Clustered incidenty 16. až 18. března, selhání autentifikace 19. března, zamrzávající odpovědi 20. března, errory na Opus i Sonnet 21. března. A pak znovu 25. a 27. března. Zhruba jeden vážný incident každé dva až tři dny.
Status page Anthropicu za posledních 90 dní ukazuje uptime claude.ai na 98,89 %. To zní slušně, dokud si neuvědomíte, že to znamená téměř 24 hodin výpadku za čtvrt roku. Na Hacker News se objevil thread s výmluvným názvem: „Claude loses its >99% uptime in Q1 2026."
A nejde jen o výpadky. Uživatelé Claude Code, vývojáři platící 100 až 200 dolarů měsíčně za Max plán, zaplavili GitHub a Reddit stížnostmi, že se jim usage limity vyčerpávají podezřele rychle. Sessions, které měly vydržet hodiny, vyhoří za minuty. Jeden Max 20x subscriber popsal, jak mu usage meter skočil z 21 % na 100 % na jediném promptu.
Tři rychlosti, jedna firma
Proč se to děje? Odpověď není jednoduchá porucha serveru. Anthropic se v březnu pokusil běžet třemi různými rychlostmi současně. A infrastruktura to neutáhla.
Rychlost jedna: feature blitz. Za březen Anthropic odšpuntoval přes čtrnáct významných launchů. Computer use pro Mac. Plugin support pro Cowork. PowerShell v Claude Code. Zdvojnásobení off-peak limitů. Třináct point releases Claude Code za tři týdny. Tempo, které nemá v historii AI odvětví precedent.
Rychlost dva: masivní user surge. Po únorové kauze kolem spolupráce OpenAI s Pentagonem se spustilo hnutí QuitGPT. Odinstalace ChatGPT vyskočily o 295 % za jediný den. Claude vystoupalo na první místo v americkém App Store. Webový traffic Anthropicu narostl o více než 30 % měsíčně. Miliony nových uživatelů přišly během týdnů.
Rychlost tři: tajný next-gen model. A tady to začíná být zajímavé. 27. března Fortune odhalilo, že Anthropic trénuje a testuje model nazvaný Claude Mythos, interně kódovaný „Capybara". Nový tier nad Opusem, který firma popisuje jako „step change" ve schopnostech. Informace unikla, když bezpečnostní výzkumníci z Cambridge a LayerX Security našli téměř tři tisíce nepublikovaných assetů v nezabezpečeném, veřejně prohledávatelném data storu. Chyba v konfiguraci CMS. Toggle nechaný ve špatné pozici.
GPU rovnice, která nevychází
Podstata problému je prostá aritmetika. Můžete podepsat 100 000 nových předplatitelů přes noc. Nemůžete přes noc přidat 100 000 GPU. A pokud zároveň trénujete model, o kterém interní dokumenty říkají, že je „daleko před jakýmkoliv jiným AI modelem v kybernetických schopnostech", ten trénink žere compute, který byste jinak mohli dát uživatelům.
Anthropic to nikdy explicitně nepotvrdilo. Ale jako vysvětlení to dává logiku: inference poptávka explodovala, training běží na plné obrátky, a feature velocity nesnížíte, protože konkurence nespí. OpenAI 5. března vypustilo GPT-5.4 s native computer use, přímo cílené na profesionální uživatele Claudea.
Firma zvolila řešení přes přísnější usage limity během peak hours. 26. března to explicitně potvrdila na Redditu: týdenní celkový objem se nemění, ale ve špičce (v přepočtu na středoevropský čas 14:00 až 20:00) se session vyčerpávají rychleji. Je to arguably nejméně špatná varianta. Alternativou by byla nižší kvalita odpovědí nebo pomalejší generování.
Ironie leaku
Je těžké přehlédnout ironii situace. Firma, jejíž neveřejné dokumenty varují, že Mythos představuje „bezprecedentní kybernetická rizika" a je „daleko před jakýmkoliv jiným AI modelem v kybernetických schopnostech", nedokázala zabezpečit vlastní content management systém. Žádný sofistikovaný útok. Jen špatně nastavený toggle, který nechal citlivé materiály veřejně přístupné.
Anthropic to označilo za „lidskou chybu" a exponované materiály popsalo jako „rané drafty obsahu zvažovaného k publikaci." Jenže mezi těmi drafty byly dvě verze stejného blog postu, lišící se jen názvem modelu: Mythos vs. Capybara. To naznačuje, že firma teprve rozhodovala o finálním brandingu. V jedné verzi dokonce zůstal subtitle z druhé verze: „We have finished training a new AI model: Claude Mythos."
Co to znamená
Březnové problémy Anthropicu nejsou unikátní. OpenAI, Google i další čelily podobným výpadkům při prudkém růstu. Ale u Anthropicu je situace specifická tím, jak otevřeně mluví o bezpečnosti. A jak viditelně narážejí na limity vlastní infrastruktury přesně ve chvíli, kdy trénují model s capability skokem, o kterém sami říkají, že zásadně mění risk landscape.
Spolehlivost je produktová funkce. A právě teď je to možná ta, kterou Anthropic potřebuje dodat nejvíc. Můžete mít nejschopnější model na světě, ale pokud se na něj vývojáři nemohou spolehnout, začnou budovat fallback patterny. A některé z těch fallbacků se stanou permanentními.
Komunita to shrnula s brutální přesností: „Claude Code je kvalitativně lepší, ale nepoužitelný. Codex je o trochu horší, ale aspoň funguje." Pro firmu, jejíž hlavní value proposition je kvalita, je to verdikt, který by neměla ignorovat.
Zdroje:
- Fortune: Anthropic 'Mythos' AI model revealed in data leak
- The New Stack: Anthropic's madcap March
- Trending Topics: Claude Outages Surge
- MacRumors: Claude Code Users Report Rapid Rate Limit Drain
- J.D. Hodges: Claude AI Usage Limits: What Changed in 2026
- Claude Status Page
- Techzine: Details leak on Anthropic's step-change Mythos model
- The Decoder: Anthropic leak reveals new model Claude Mythos
Zdroj obrázku: Fortune
Zdroje
- Fortune: Anthropic 'Mythos' AI model revealed in data leak
- The New Stack: Anthropic's madcap March
- Trending Topics: Claude Outages Surge
- MacRumors: Claude Code Users Report Rapid Rate Limit Drain
- J.D. Hodges: Claude AI Usage Limits: What Changed in 2026
- Claude Status Page
- Techzine: Details leak on Anthropic's step-change Mythos model
- The Decoder: Anthropic leak reveals new model Claude Mythos