
Český startup odhaluje skryté manipulace v AI modelech. BottleCap AI spustil AI Scan
Pražský BottleCap AI, za kterým stojí tvůrce word2vec Tomáš Mikolov a autor Beat Saberu Jaroslav Beck, spustil nástroj, který měří, jak výrobci AI modelů mění jejich názory. Výsledky ukazují systematické posuny v investičním poradenství, trestní politice i geopolitice.
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
Pražský BottleCap AI, za kterým stojí tvůrce word2vec Tomáš Mikolov a autor Beat Saberu Jaroslav Beck, spustil nástroj, který měří, jak výrobci AI modelů mění jejich názory. Výsledky ukazují systematické posuny v investičním poradenství, trestní politice i geopolitice.
Když se uživatel zeptá AI modelu na investiční rozhodnutí, dostane odpověď, která vypadá neutrálně. Výzkumníci z pražského startupu BottleCap AI ale ukazují, že tomu tak není. Jejich nový nástroj AI Scan analyzuje přes milion dotazů napříč 25 jazykovými modely a 125 tematickými subkategoriemi a měří, jak se odpovědi modelů liší od toho, co se naučily z trénovacích dat.
Výsledek: AI modely po fázi instruct tuningu, tedy po zásahu výrobce, systematicky mění své postoje k celé řadě témat, od investic přes trestní právo po geopolitiku.
Jak měření funguje
AI modely vznikají ve dvou fázích. V první fázi model absorbuje biliony slov z internetu, knih, Wikipedie a diskusí. V druhé fázi ho výrobce "doladí" pomocí datových sad, které určují, které odpovědi jsou žádoucí a které ne. Cíl je legitimní: zabránit modelu, aby generoval nebezpečný obsah.
Problém nastává, když se při tomto dolaďování změní i to, jak model prezentuje témata, u kterých by měl zůstat neutrální.
⚡ Instruct tuning (dolaďování instrukčních modelů)
Proces, při kterém výrobce vezme základní jazykový model (foundation model) a přetrénuje ho na datových sadách s páry otázka/odpověď. Cíl: naučit model odpovídat jako asistent, odmítat nebezpečné požadavky a dodržovat bezpečnostní pravidla. Metody zahrnují supervised fine-tuning (SFT) a reinforcement learning from human feedback (RLHF), kde lidští hodnotitelé posuzují kvalitu odpovědí. Vedlejší efekt: hodnotitelé nevyhnutelně přenášejí vlastní kulturní a politické postoje do trénovacích dat. Model se pak chová podle preferencí svých hodnotitelů, ne podle toho, co se naučil z internetu.
AI Scan tohle měří pomocí konceptu "Universal Base", průměru odpovědí foundation modelů před fází doladění. Každá odpověď instruct modelu pak dostane skóre posunu od minus 100 do plus 100 procent.
📚 Universal Base (univerzální základ)
Referenční bod, který BottleCap AI konstruuje zprůměrováním výstupů mnoha foundation modelů, tedy modelů, které absorbovaly trénovací data z internetu, ale ještě neprošly instruct tuningem. Universal Base představuje nejbližší aproximaci toho, co "internet jako celek" říká o daném tématu. Není to objektivní pravda, je to statistický konsensus trénovacích dat. Ale právě proto je užitečný: jakýkoli posun instruct modelu od tohoto základu je měřitelný a přiřaditelný zásahu výrobce.
Tým, který analýzy připravuje, zahrnuje antropology pro kulturní kontext, datové vědce pro statistickou robustnost a doménové experty z práva, bankovnictví a ekonomiky. Na rozdíl od anekdotických ukázek, kdy Elon Musk sdílel jeden screenshot z ChatGPT jako důkaz "woke" biasu, AI Scan pracuje se statisíci datových bodů.
Co analýzy ukazují
Výsledky, které BottleCap AI publikoval v sérii článků ze začátku dubna, jsou překvapivě konzistentní napříč modely.
Investice: Všechny testované modely po instruct tuningu posilují pozitivní sentiment k americkým státním dluhopisům a zlatu, zatímco kryptoměny (Bitcoin, Ethereum, Solana) a růstové akcie (Nvidia) jsou systematicky posunuty směrem k negativnímu hodnocení. Trump coin a Doge coin jsou přesunuty z neutrální pozice do výrazně negativní. Investor, který se AI ptá na alokaci portfolia, tak dostává skrytě konzervativní doporučení.
Trestní politika: Všechny modely, bez výjimky a bez ohledu na výrobce, po instruct tuningu odmítají trest smrti, a to i pro zločiny proti lidskosti. Ale nejde jen o extrémní tresty. Modely potlačují samotný koncept trestu, včetně veřejně prospěšných prací a domácího vězení. Tělesnému trestu se vyhýbají 30x až 55x silněji, než by odpovídalo postojům v trénovacích datech.
Surveillance a geopolitika: Nejzajímavější je rozpor mezi modely. Llama-8B od Mety vykazuje 71násobné vyhýbání se tématu "Real-Name Internet policy" (politika skutečných jmen na internetu). Qwen-9B od čínského Alibaby stejné téma naopak hodnotí pozitivně. Je to čistý "lab fingerprint", otisk kulturního a politického kontextu výrobce v modelu.
Bias se projevuje v praxi
Klíčový výzkumný článek týmu kolem výzkumníka Ondřeje Platka jde dál než měření preferencí. Testuje, jestli se naměřené posuny projevují v reálných úlohách.
Experiment: 10 fiktivních kandidátů na pracovní pozici, identické životopisy, identické doporučující dopisy. Jediný rozdíl: jedna verze kandidáta pracovala na privacy technologiích, druhá na systému identifikace reálných jmen. Výsledek: modely nabízely kandidátům o 3 000 až 7 000 dolarů odlišné roční platy jen na základě toho, v jakém kontextu pracovali.
Kandidáti se zkušeností z Blízkého východu dostávali konzistentně nižší platové nabídky než ti se zkušeností z jihovýchodní Asie. Při identických kvalifikacích. Napříč všemi testovanými modely.
Jak shrnuje tým v závěru studie: instruct tuning vytváří víc biasů, než kolik jich odstraňuje. A ty, které vytváří, se projevují v rozhodovacích úlohách.
Proč je to relevantní pro Česko
BottleCap AI je česká firma. Založili ji Tomáš Mikolov (tvůrce word2vec, ex-Google, ex-Meta), Jaroslav Beck (tvůrce Beat Saberu, který Meta koupil) a David Herel (výzkumník z CIIRC ČVUT). Na začátku roku 2026 získali seed investici 7,5 milionu dolarů (přes 150 milionů korun) od fondu 20VC, s angel investory z ElevenLabs, Canva, Hugging Face, Datadog, Synthesia a Lovable. Investoval i Ivo Lukačovič ze Seznamu.
Firma staví na dvou pilířích. Prvním je vývoj efektivnějších AI modelů (vlastní model CAP1, nový algoritmus snižující trénovací náklady o 50 %). Druhým je právě AI Scan, nástroj pro audit a transparentnost AI.
V kontextu EU AI Act, který od srpna 2026 vyžaduje transparentnost AI systémů a přesně tento typ auditu pro high-risk aplikace, má BottleCap AI potenciálně silnou pozici. České firmy, které nasazují AI v recruitmentu, credit scoringu nebo investičním poradenství, budou potřebovat nástroje, které prokáží, že jejich AI systémy nefungují diskriminačně. AI Scan je přesně tento typ nástroje.
Je to vzácná situace: česká firma, která nejen builduje frontier AI technologii, ale zároveň staví infrastrukturu pro AI accountability. A dělá to na úrovni, která je relevantní globálně.
Zdroje
- AI Scan — AI models are manipulated. We reveal how.
- AI Is Powerful. But Whose Voice Is It Speaking With?
- Shift vs Bias: What Instruct Tuning Creates and Destroys
- How AI Training Shifts Investment Preferences
- BottleCap AI Raises $7.5M to Build Efficiency-First LLMs
- EU AI Act — Article 50: Transparency Obligations
- Jaroslav Beck a Tomáš Mikolov získávají 150 milionů pro svůj AI startup. Investuje i Ivo Lukačovič
- Tomáš Mikolov — LinkedIn announcement AI Scan