Přeskočit na obsah
Google Gemma 4: nejschopnější otevřené modely s Apache 2.0 licencí
2. dubna 2026 · 4 min čtení

Google Gemma 4: nejschopnější otevřené modely s Apache 2.0 licencí

Google vydal rodinu Gemma 4 se čtyřmi modely od 2B po 31B parametrů. Poprvé pod Apache 2.0 licencí, s multimodálními schopnostmi a agentic capabilities bez fine-tuningu.

Foto: Pexels / Shantanu Kumar

AI agregace

Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.

Souhrn
0:00--:--

Google 2. dubna vydal Gemma 4, rodinu čtyř otevřených modelů postavených na výzkumu Gemini 3. Největší novinka není v benchmarcích, i když ty jsou silné. Je v licenci: poprvé v historii Gemma vychází pod Apache 2.0.

Čtyři modely, jeden cíl: inteligence na každém zařízení

Rodina Gemma 4 pokrývá celé spektrum od mobilních telefonů po pracovní stanice:

Effective 2B (E2B)Effective 4B (E4B) jsou edge modely, které běží i na Raspberry Pi. E2B aktivuje při inferenci pouze 2,3 miliardy parametrů z celkových 5,1 miliardy díky technice Per-Layer Embeddings (PLE). Na některých zařízeních si vystačí s méně než 1,5 GB RAM.

26B A4B (MoE) je Mixture of Experts model, kde se při inferenci aktivují jen 3,8 miliardy z 25,2 miliardy parametrů. Výsledek: inteligence na úrovni 26B modelu za výpočetní cenu 4B modelu.

31B Dense je vlajková loď celé rodiny. Třetí nejlepší otevřený model na Arena AI leaderboardu. Na AIME 2026 dosáhl 89,2 %, na LiveCodeBench v6 80,0 % a Codeforces ELO 2 150.

Co je Mixture of Experts (MoE)? Architektura, kde model obsahuje více specializovaných "expertních" subnetworků, ale při každém vstupu aktivuje jen malou část z nich. Výhoda: model může být velmi velký (a tedy chytrý), ale výpočetně levný, protože většina parametrů "spí". Gemma 4 26B aktivuje jen 3,8B z 25,2B parametrů.

Apache 2.0: proč licence znamená víc než benchmarky

Předchozí verze Gemma používaly proprietární licenci s restrikcemi, které si Google mohl jednostranně měnit. Obsahovaly klauzule o "škodlivém použití", omezení redistribuce a nejasná pravidla pro komerční nasazení fine-tunovaných derivátů.

Gemma 4 tohle všechno odstraňuje. Apache 2.0 je standardní open-source licence, kterou vývojáři znají a právní oddělení firem akceptují bez zvláštního review. Modifikace, distribuce, komerční použití bez obav ze zpětné změny podmínek.

Proč je Apache 2.0 tak důležitá? V ekosystému otevřených AI modelů panuje terminologický chaos. Meta's Llama používá "open weights" licenci s vlastními omezeními. Mistral kombinuje různé licence podle modelu. Apache 2.0 je jedna z nejpermisivnějších standardních licencí: povoluje komerční použití, modifikaci i redistribuci. Jediný požadavek je zachování copyright notice. Pro firmy to znamená právní jistotu, kterou custom AI licence neposkytují.

Pro Google je to strategický tah. Gemma rodina přímo konkuruje Meta's Llama a čínským otevřeným modelům jako Qwen a DeepSeek. Přechod na Apache 2.0 odstraňuje jednu z hlavních námitek, kterou vývojáři měli: "proč bych stavěl produkt na modelu, jehož licenční podmínky se mohou kdykoliv změnit?"

Multimodální a agentic bez fine-tuningu

Všechny modely Gemma 4 nativně zpracovávají text a obrázky s proměnlivým rozlišením. Edge modely E2B a E4B navíc podporují audio vstup pro rozpoznávání řeči. Kontextové okno sahá od 128K tokenů (E2B/E4B) po 256K tokenů (26B/31B).

Klíčová je podpora pro agentic workflows přímo z krabice: nativní function calling, strukturovaný JSON výstup, systémové instrukce a vícekrokové plánování. Model zvládne autonomně interagovat s nástroji a API bez specializovaného fine-tuningu.

To je relevantní hlavně pro edge nasazení. Představte si offline AI agenta na telefonu, který plánuje, volá lokální funkce a zpracovává obraz i zvuk, a to všechno bez připojení k internetu a bez cloudu.

Gemma 4 pokrývá celé spektrum od edge zařízení po pracovní stanice

Kontext: bitva o otevřené modely

Gemma 4 přichází v momentě, kdy se trh otevřených modelů rychle zahušťuje. Meta drží Llama 4 (vydaná v březnu 2026), čínské modely Qwen 3 a DeepSeek V3 nabízejí silný výkon za nízkou cenu. Google v tomto závodě dosud zaostával: Gemma 3 byla solidní, ale licence odrazovala enterprise adopci.

Kombinace Apache 2.0 + konkurenceschopné benchmarky + edge-first přístup je pokus o repositioning. Google neříká "máme nejlepší model". Říká "máme nejlepší model, který můžete skutečně používat, kdekoliv a jakkoliv chcete".

Zda to bude stačit na prolomení dominance Llama v open-source ekosystému, ukáže až adopce v následujících měsících. Ale licenční bariéra je pryč, a to je krok, který nelze vzít zpět.

Modely jsou dostupné na Hugging Face, Kaggle, Ollama a přes Google AI Studio.