
MiniMax M2.7 otevírá kartu open-source: samoučící agent se blíží Claude Opus 4.6
Čínský MiniMax vydal 12. dubna open-source model M2.7, který dosahuje 56,22 % na SWE-Pro a 55,6 % na VIBE-Pro, prakticky vedle Claude Opus 4.6. Novinka je ale v tom, co model dělá sám.
Foto: Unsplash / majed swan
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
Čínský MiniMax vydal 12. dubna open-source model M2.7, který dosahuje 56,22 % na SWE-Pro a 55,6 % na VIBE-Pro, prakticky vedle Claude Opus 4.6. Novinka je ale v tom, co model dělá sám.
MiniMax otevřel M2.7 jako open-source model 12. dubna. Benchmarky ho staví do horní poloviny současné špičky: 56,22 % na SWE-Pro (shodně s GPT-5.3-Codex), 57,0 % na Terminal Bench 2, 76,5 % na SWE Multilingual, 55,6 % na VIBE-Pro pro repo-level generování kódu. Poslední číslo je těsně pod Claude Opus 4.6.
Samotné benchmarky by byly solidní zpráva, ne sensace. Otevřené vážné konkurenci pro top frontier modely, ale ne něco, co mění diskuzi.
To, co diskuzi mění, je metoda.
Self-evolving loop
MiniMax popisuje, že M2.7 běžel autonomně přes 100 kol iterativní smyčky: analyzuj neúspěšné běhy, navrhni změny, uprav scaffold kód, spusť evaluaci, porovnej výsledky, rozhodni se změny zachovat nebo vrátit. Bez lidského zásahu našel kombinace sampling parametrů (temperature, frequency penalty, presence penalty), přidal loop detection do agentní smyčky a navrhl workflow guideline, aby po opravě chyby automaticky hledal stejný bug pattern v dalších souborech. Tyhle úpravy dohromady přinesly 30% zlepšení na interních evaluacích.
📚 Self-evolving agent (sebeučící agent)
Model, který umí měnit vlastní scaffold (tedy vrstvu kódu kolem LLM volání), nikoli své vlastní váhy. Rozdíl je zásadní. Self-evolution v tomto smyslu neznamená, že se model natrénuje na nové úloze. Znamená, že upravuje workflow, prompty, nástroje a rozhodovací logiku okolo LLM, aby LLM používal efektivněji. Prakticky: agent má přístup k vlastní codebase, testovacímu běhu a evaluační metrice. Když zjistí, že určitý vzor selhává, napíše novou verzi scaffold kódu, spustí benchmark a porovná. Pokud je nová verze lepší, udrží ji. Je to forma automatizovaného prompt engineeringu a code refactoringu, zaměřeného na agenta samotného. Bezpečnostní komunita to sleduje pozorně, protože kombinace self-modification a autonomního běhu zvyšuje risk profile.
MiniMax tvrdí, že uvnitř jejich reinforcement learning týmu M2.7 zvládne 30 až 50 % workflow end-to-end, kde lidský výzkumník vstupuje jen u kritických rozhodnutí a diskusí. Pokud je to pravda, je to netriviální krok směrem k AI, která se podílí na vývoji další AI.
Proč open-source záleží
MiniMax se rozhodl M2.7 uvolnit jako open-source. To je strategická volba.
Čínské AI laboratoře (DeepSeek, Qwen, MiniMax) v posledním roce otevírají své špičkové modely rychleji než jejich američtí konkurenti. Částečně proto, že nemají stejný přístup na západní cloud infrastrukturu a open-source je cesta, jak získat globální mindshare bez distribuce přes AWS nebo Azure. Částečně proto, že čínská regulace vyžaduje model licensing pro domácí deployment, takže "closed-source competitive advantage" je méně jednoznačná výhoda než v USA.
Pro západní vývojáře je M2.7 použitelný lokálně, bez vendor lock-inu. Pro regulatory v EU i USA je to komplikace. AI Act se primárně zaměřuje na poskytovatele modelů. Když je model open-source, zodpovědnost se rozpouští. Open-source self-evolving agent rozpouští zodpovědnost o vrstvu víc.
Kontext
Open-weight self-evolving agent, který se blíží Claude Opus 4.6 v repo-level úlohách a zvládá polovinu RL workflow uvnitř vlastní firmy, je signál, že capability gap mezi uzavřenými a otevřenými modely se zužuje rychleji, než mnoho analytiků čekalo před šesti měsíci.
Pro české vývojářské týmy, které z regulatorních nebo licenčních důvodů nechtějí posílat kód do OpenAI nebo Anthropicu, se M2.7 stává reálnou alternativou pro self-hosted deployment. S dostatečným GPU clustrem.
Pro Anthropic a OpenAI je to další tlak na to, aby moat neležel v modelu samotném, ale v ekosystému kolem něj: v distribučním kanálu (AWS integrace u Claude), v evaluacích, v enterprise security features, v partnerstvích s regulátory. Což shodou okolností přesně vysvětluje dvacátého dubna.
Zdroje
- MiniMax M2.7 - Model Self-Improvement, Driving Productivity Innovation Through Technological Breakthroughs — MiniMax
- MiniMax M2.7: Early Echoes of Self-Evolution — MiniMax News
- MiniMax Just Open Sourced MiniMax M2.7: A Self-Evolving Agent Model — MarkTechPost
- New MiniMax M2.7 proprietary AI model is 'self-evolving' — VentureBeat
- MiniMax Open Sources M2.7, a Self-Evolving Agent Model — Unite.AI