Přeskočit na obsah
Český startup odhaluje skryté manipulace v AI modelech. BottleCap AI spustil AI Scan
18. dubna 2026 · 6 min čtení

Český startup odhaluje skryté manipulace v AI modelech. BottleCap AI spustil AI Scan

Pražský BottleCap AI, za kterým stojí tvůrce word2vec Tomáš Mikolov a autor Beat Saberu Jaroslav Beck, spustil nástroj, který měří, jak výrobci AI modelů mění jejich názory. Výsledky ukazují systematické posuny v investičním poradenství, trestní politice i geopolitice.

Foto: Unsplash / Andrea Qoqonga

Generováno AI

Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).

Pražský BottleCap AI, za kterým stojí tvůrce word2vec Tomáš Mikolov a autor Beat Saberu Jaroslav Beck, spustil nástroj, který měří, jak výrobci AI modelů mění jejich názory. Výsledky ukazují systematické posuny v investičním poradenství, trestní politice i geopolitice.

Když se uživatel zeptá AI modelu na investiční rozhodnutí, dostane odpověď, která vypadá neutrálně. Výzkumníci z pražského startupu BottleCap AI ale ukazují, že tomu tak není. Jejich nový nástroj AI Scan analyzuje přes milion dotazů napříč 25 jazykovými modely a 125 tematickými subkategoriemi a měří, jak se odpovědi modelů liší od toho, co se naučily z trénovacích dat.

Výsledek: AI modely po fázi instruct tuningu, tedy po zásahu výrobce, systematicky mění své postoje k celé řadě témat, od investic přes trestní právo po geopolitiku.

Jak měření funguje

AI modely vznikají ve dvou fázích. V první fázi model absorbuje biliony slov z internetu, knih, Wikipedie a diskusí. V druhé fázi ho výrobce "doladí" pomocí datových sad, které určují, které odpovědi jsou žádoucí a které ne. Cíl je legitimní: zabránit modelu, aby generoval nebezpečný obsah.

Problém nastává, když se při tomto dolaďování změní i to, jak model prezentuje témata, u kterých by měl zůstat neutrální.

⚡ Instruct tuning (dolaďování instrukčních modelů)

Proces, při kterém výrobce vezme základní jazykový model (foundation model) a přetrénuje ho na datových sadách s páry otázka/odpověď. Cíl: naučit model odpovídat jako asistent, odmítat nebezpečné požadavky a dodržovat bezpečnostní pravidla. Metody zahrnují supervised fine-tuning (SFT) a reinforcement learning from human feedback (RLHF), kde lidští hodnotitelé posuzují kvalitu odpovědí. Vedlejší efekt: hodnotitelé nevyhnutelně přenášejí vlastní kulturní a politické postoje do trénovacích dat. Model se pak chová podle preferencí svých hodnotitelů, ne podle toho, co se naučil z internetu.

AI Scan tohle měří pomocí konceptu "Universal Base", průměru odpovědí foundation modelů před fází doladění. Každá odpověď instruct modelu pak dostane skóre posunu od minus 100 do plus 100 procent.

📚 Universal Base (univerzální základ)

Referenční bod, který BottleCap AI konstruuje zprůměrováním výstupů mnoha foundation modelů, tedy modelů, které absorbovaly trénovací data z internetu, ale ještě neprošly instruct tuningem. Universal Base představuje nejbližší aproximaci toho, co "internet jako celek" říká o daném tématu. Není to objektivní pravda, je to statistický konsensus trénovacích dat. Ale právě proto je užitečný: jakýkoli posun instruct modelu od tohoto základu je měřitelný a přiřaditelný zásahu výrobce.

Tým, který analýzy připravuje, zahrnuje antropology pro kulturní kontext, datové vědce pro statistickou robustnost a doménové experty z práva, bankovnictví a ekonomiky. Na rozdíl od anekdotických ukázek, kdy Elon Musk sdílel jeden screenshot z ChatGPT jako důkaz "woke" biasu, AI Scan pracuje se statisíci datových bodů.

Co analýzy ukazují

Výsledky, které BottleCap AI publikoval v sérii článků ze začátku dubna, jsou překvapivě konzistentní napříč modely.

Investice: Všechny testované modely po instruct tuningu posilují pozitivní sentiment k americkým státním dluhopisům a zlatu, zatímco kryptoměny (Bitcoin, Ethereum, Solana) a růstové akcie (Nvidia) jsou systematicky posunuty směrem k negativnímu hodnocení. Trump coin a Doge coin jsou přesunuty z neutrální pozice do výrazně negativní. Investor, který se AI ptá na alokaci portfolia, tak dostává skrytě konzervativní doporučení.

Trestní politika: Všechny modely, bez výjimky a bez ohledu na výrobce, po instruct tuningu odmítají trest smrti, a to i pro zločiny proti lidskosti. Ale nejde jen o extrémní tresty. Modely potlačují samotný koncept trestu, včetně veřejně prospěšných prací a domácího vězení. Tělesnému trestu se vyhýbají 30x až 55x silněji, než by odpovídalo postojům v trénovacích datech.

Surveillance a geopolitika: Nejzajímavější je rozpor mezi modely. Llama-8B od Mety vykazuje 71násobné vyhýbání se tématu "Real-Name Internet policy" (politika skutečných jmen na internetu). Qwen-9B od čínského Alibaby stejné téma naopak hodnotí pozitivně. Je to čistý "lab fingerprint", otisk kulturního a politického kontextu výrobce v modelu.

Bias se projevuje v praxi

Klíčový výzkumný článek týmu kolem výzkumníka Ondřeje Platka jde dál než měření preferencí. Testuje, jestli se naměřené posuny projevují v reálných úlohách.

Experiment: 10 fiktivních kandidátů na pracovní pozici, identické životopisy, identické doporučující dopisy. Jediný rozdíl: jedna verze kandidáta pracovala na privacy technologiích, druhá na systému identifikace reálných jmen. Výsledek: modely nabízely kandidátům o 3 000 až 7 000 dolarů odlišné roční platy jen na základě toho, v jakém kontextu pracovali.

Kandidáti se zkušeností z Blízkého východu dostávali konzistentně nižší platové nabídky než ti se zkušeností z jihovýchodní Asie. Při identických kvalifikacích. Napříč všemi testovanými modely.

Jak shrnuje tým v závěru studie: instruct tuning vytváří víc biasů, než kolik jich odstraňuje. A ty, které vytváří, se projevují v rozhodovacích úlohách.

Proč je to relevantní pro Česko

BottleCap AI je česká firma. Založili ji Tomáš Mikolov (tvůrce word2vec, ex-Google, ex-Meta), Jaroslav Beck (tvůrce Beat Saberu, který Meta koupil) a David Herel (výzkumník z CIIRC ČVUT). Na začátku roku 2026 získali seed investici 7,5 milionu dolarů (přes 150 milionů korun) od fondu 20VC, s angel investory z ElevenLabs, Canva, Hugging Face, Datadog, Synthesia a Lovable. Investoval i Ivo Lukačovič ze Seznamu.

Firma staví na dvou pilířích. Prvním je vývoj efektivnějších AI modelů (vlastní model CAP1, nový algoritmus snižující trénovací náklady o 50 %). Druhým je právě AI Scan, nástroj pro audit a transparentnost AI.

V kontextu EU AI Act, který od srpna 2026 vyžaduje transparentnost AI systémů a přesně tento typ auditu pro high-risk aplikace, má BottleCap AI potenciálně silnou pozici. České firmy, které nasazují AI v recruitmentu, credit scoringu nebo investičním poradenství, budou potřebovat nástroje, které prokáží, že jejich AI systémy nefungují diskriminačně. AI Scan je přesně tento typ nástroje.

Je to vzácná situace: česká firma, která nejen builduje frontier AI technologii, ale zároveň staví infrastrukturu pro AI accountability. A dělá to na úrovni, která je relevantní globálně.