Přeskočit na obsah
Gemma 4: Google vydal čtyři open-source modely s multimodálními schopnostmi a Apache 2.0 licencí
5. dubna 2026 · 3 min čtení

Gemma 4: Google vydal čtyři open-source modely s multimodálními schopnostmi a Apache 2.0 licencí

Google DeepMind zveřejnil rodinu Gemma 4 se čtyřmi modely od 2B po 31B parametrů. Největší model obsadil třetí místo mezi open-source modely na Arena AI leaderboardu, přičemž 26B varianta s mixturou expertů dosahuje srovnatelných výsledků při pouhých 3,8 miliardách aktivních parametrů.

Foto: FAIN News

AI agregace

Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.

Google DeepMind vydal 2. dubna 2026 rodinu open-source modelů Gemma 4 ve čtyřech velikostech: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts a 31B Dense. Modely jsou dostupné pod licencí Apache 2.0 bez omezení počtu uživatelů a bez poplatků za komerční využití.

Co Gemma 4 přináší

Všechny čtyři modely jsou multimodální od základu. Zpracovávají obrázky s proměnlivým rozlišením a poměrem stran, video do délky 60 sekund a u dvou menších variant (E2B, E4B) i audio vstup pro rozpoznávání řeči. Modely mají context window 128k tokenů u edge variant a 256k u větších, takže do jednoho promptu se vejde celý repozitář nebo dlouhý dokument.

Rodina je postavená na stejné technologické základně jako Gemini 3, odtud název Effective u menších modelů: označení E2B a E4B zdůrazňuje, že skutečná kapacita je vyšší, než by naznačoval samotný počet parametrů. Google použil techniku Per-Layer Embeddings (PLE) pro maximální efektivitu na edge zařízeních.

Benchmarkové výsledky

Na Arena AI leaderboardu, který hodnotí modely na základě preferencí skutečných uživatelů, obsadil 31B Dense model třetí příčku mezi open-source modely. Varianta 26B MoE se umístila na šestém místě.

Na standardizovaných benchmarcích dosahuje 31B model 85,2 % na MMLU Pro, 89,2 % na AIME 2026 (matematika) a 84,3 % na GPQA Diamond (věda). Na LiveCodeBench v6, který testuje reálné programovací úlohy, dosáhl 80,0 %.

Zajímavější číslo je u 26B MoE varianty: 88,3 % na AIME 2026 při pouhých 3,8 miliardách aktivních parametrů během inference. Model tak dosahuje srovnatelných výsledků jako 31B Dense, ale výpočetně je výrazně levnější.

Na Arm zařízeních zaznamenal E2B model 5,5násobné zrychlení při zpracování vstupu (prefill) a až 1,6násobně rychlejší generování odpovědí oproti předchozí generaci.

Praktický dopad

Gemma 4 je v tuto chvíli nejschopnější open-source rodina modelů dostupná pro lokální nasazení. Apache 2.0 licence bez MAU caps znamená, že vývojář nebo firma může modely nasadit komerčně bez právního rizika a bez reportovacích povinností vůči Googlu.

26B MoE varianta je z praktického hlediska nejzajímavější: výkon srovnatelný s 31B Dense, ale nižší nároky na hardware díky sparse architektuře. Tester, který prošel všechny čtyři modely, poznamenal, že 26B je rychlejší než 4B varianta a na benchmarcích zaostává za 31B jen o 2 procenta.

Modely jsou dostupné přes Gemini API a AI Studio, edge varianty E2B a E4B jsou optimalizované pro nasazení přímo v zařízeních. Google zároveň zahájil developer preview pro AICore na Androidu.

Pro srovnání s Mistral Large 3 (675B MoE, vydaný v dubnu 2026), který obsadil druhé místo v OSS non-reasoning kategorii na LMArena: Gemma 4 cílí na jiný segment. Mistral Large 3 je frontier open-source model pro serverové nasazení. Gemma 4 je rodina navržená tak, aby pokryla spektrum od mobilního zařízení po datacenter s jediným architektonickým přístupem.