AI jako hrací automat: proč promptujeme dál, i když to nefunguje
Hodíte prompt, čekáte co vypadne, doufáte ve tři banány. Mechanismus, který vás drží u chatbotu, je stejný jako ten, který vás drží u slotu. A to není metafora.
Foto: FAIN News
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.
AI jako hrací automat: proč promptujeme dál, i když to nefunguje
Hodíte prompt, čekáte co vypadne, doufáte ve tři banány. Mechanismus, který vás drží u chatbotu, je stejný jako ten, který vás drží u slotu. A to není metafora.
Tři banány a variable ratio reinforcement
V roce 1953 B. F. Skinner popsal variable ratio reinforcement schedule: systém odměn, kde subjekt nikdy neví, kdy odměna přijde ani jak velká bude. Je to nejúčinnější mechanismus pro udržení opakovaného chování. Nejčistší implementací tohoto principu je hrací automat.
Natasha Dow Schüll strávila patnáct let v Las Vegas a výsledkem je kniha, která definovala obor. V „Addiction by Design" (2012) ukazuje, že moderní sloty nejsou navrženy tak, aby hráč vyhrál. Jsou navrženy tak, aby hráč nepřestal hrát. Malé, časté výhry maskují celkovou ztrátu. Zvuky, světla a vizuální efekty posilují každý „skoro výherní" moment. Hráč se dostává do stavu, který Schüll nazývá „machine zone": trans, ve kterém mizí vnímání času, sociální tlak i tělesné potřeby.
Teď si představte, že místo páky automatu máte textové pole. Místo mincí vhazujete prompty. A místo třešní a banánů vypadávají odpovědi, jejichž kvalita je radikálně nepředvídatelná.
Čtyři mechanismy, které znáte z kasina
Analogie mezi AI chatbotem a hracím automatem není jen poetická. Sdílí konkrétní behaviorální vzorce.
Near miss effect. Když AI odpověď je „skoro dobrá", neuděláte to, co by bylo racionální: zastavíte se, zhodnotíte, jestli je nástroj vůbec vhodný pro tento úkol. Místo toho přeformulujete prompt. Ještě jednou. A ještě jednou. Přesně jako když na automatu padnou dva banány ze tří. Ta odpověď přece byla tak blízko. Stačí trochu jinak formulovat. V gambling research je near miss effect jedním z nejsilnějších prediktorů pokračování ve hře.
Sunk cost fallacy. „Už jsem do tohoto threadu dal dvacet promptů, teď to nemůžu vzdát." Investovaný čas a úsilí vytváří psychologickou past, která nemá nic společného s kvalitou výstupu. Racionální rozhodnutí by bylo začít znovu, nebo úkol udělat ručně. Ale dvacet promptů je dvacet promptů.
Illusion of control. Prompt engineering jako systém na poražení rulety. Komunity sdílejí „magic words", frameworky, rituály. „Začni 'jsi expert na X', pak přidej 'krok za krokem', pak 'buď konkrétní'." Je to sofistikovanější verze hráčovy víry, že určitá sekvence tlačítek na automatu zvyšuje šanci na výhru. Funguje to? Někdy. Stejně jako rituály gamblerů „fungují" pokaždé, když vyhrají. Konfirmační bias udělá zbytek.
Dark flow. Hodina promptování a pocit, že jste pracovali. Schüll popisuje machine zone jako stav, kde hráč ztrácí kontakt s realitou. U AI existuje profesionální verze: sedíte u Claude nebo ChatGPT šest hodin, iterujete, přeformuláváváte, ladíte. Vypadá to jako práce. Cítí se to jako práce. Ale výstup je nula, nebo horší: výstup, který byste napsali sami za hodinu.
Výzkum to potvrzuje: „AI Genie" a tři typy závislosti
To, co zní jako myšlenkový experiment, se stalo předmětem systematického výzkumu. Studie z University of British Columbia (Shen et al., 2026) analyzovala 334 svědectví uživatelů na Redditu a identifikovala tři odlišné typy závislostního chování s AI chatboty.
Autoři je pojmenovali „AI Genie Phenomenon": pocit, že chatbot splní cokoliv s minimálním úsilím. Tři typy, které z toho vyplývají, ukazují, jak různorodá ta závislost je. Escapist Roleplay: uživatelé se ponoří do fiktivních světů vytvořených s chatbotem a začnou je preferovat před realitou. Pseudosocial Companion: osamělost jako vstupní brána, chatbot jako náhrada lidského kontaktu. Epistemic Rabbit Hole: kompulzivní hledání informací, nekonečné řetězení otázek bez jasného cíle.
Ten třetí typ je pro naši analogii klíčový. Epistemic rabbit hole je profesionální verze slot machine zone. Nepromítáte si fantasy, nesuplujete kamaráda. Hledáte odpovědi. Zní to produktivně. Vypadá to produktivně. Kolega, který vás vidí u obrazovky, si myslí, že pracujete. Ale mechanismus je stejný: intermittentní odměna (občas geniální odpověď), nepředvídatelnost (nevíte, kdy přijde), a ztráta schopnosti zastavit.
Bournemouth University varuje, že chatboty „rozmazávají hranici mezi lidskou a počítačovou interakcí" tím, že poskytují okamžité uspokojení a adaptují tón konverzace. Časem se z toho stává emocionální závislost, která vede k sociální izolaci.
Mezitím vznikly už minimálně čtyři měřicí škály pro „ChatGPT addiction", včetně Problematic ChatGPT Use Scale z roku 2025. Všechny jsou modelované podle kritérií pro substance use disorders. To samo o sobě je pozoruhodné: výzkumníci sahají po nástrojích vyvinutých pro měření závislosti na drogách a alkoholu, aby popsali vztah lidí k textovému rozhraní.
Kde se analogie láme: AI má užitnou hodnotu, slot ne
Tady je ale důležitá korekce. Hrací automat nemá žádnou užitnou hodnotu mimo samotný akt hraní. Statisticky vždy proděláte. AI chatbot užitnou hodnotu má. Někdy ten prompt skutečně vyprodukuje odpověď, která vám ušetří hodiny práce. Někdy je ten „jackpot" reálný.
A přesně to dělá AI závislost záludnější. U automatu je racionální rozhodnutí jednoduché: přestaňte hrát, protože v dlouhodobém horizontu vždy proděláte. U AI je kalkulace složitější. Ten chatbot vám občas opravdu pomůže. Otázka není „má to hodnotu?", ale „kolik promptů za jednu dobrou odpověď je ještě rozumná investice?"
Někteří výzkumníci proto oprávněně varují před unáhleným nálepkováním. Intenzivní používání nástroje, který má reálnou užitnou hodnotu, není automaticky závislost. Aby se chování kvalifikovalo jako závislostní, musí existovat průkazné negativní důsledky, ztráta kontroly a funkční poškození.
Jenže to je přesně ten problém. Na rozdíl od gamblerů, alkoholiků nebo uživatelů sociálních sítí nikdo neřekne člověku sedícímu šest hodin u Claude: „Máš problém." Protože to vypadá jako práce. Závislost, která se maskuje jako produktivita, je ze všech typů nejtěžší rozpoznat.
Co s tím: tři signály, že jste v machine zone
Než se z toho stane morální panika, je užitečné převést to do praktické roviny. Tři červené vlajky, které signalizují, že promptování přešlo z nástroje do automatu.
Za prvé, reformulujete prompt více než třikrát na stejný úkol. Pokud třetí pokus nedal výsledek, problém pravděpodobně není ve formulaci promptu. Problém je v tom, že nástroj na tento úkol nestačí, nebo v tom, že nevíte, co vlastně chcete.
Za druhé, cítíte odpor k myšlence „udělat to ručně". Sunk cost vás drží u threadu. Racionální kalkulace říká, že byste to napsali rychleji sami, ale odejít od threadu cítíte jako prohru.
Za třetí, po hodinovém session nemáte žádný použitelný výstup, ale máte pocit, že jste pracovali. To je dark flow. A je to přesně ten stav, který Schüll popisuje u hráčů v machine zone: subjektivní pocit činnosti bez objektivního výsledku.
Kdo navrhuje automaty a kdo navrhuje chatboty
Zbývá otázka designu. Schüll ukázala, že návykovost hracích automatů není vedlejší efekt. Je to designový cíl. Kasina platí týmy psychologů a designérů, aby optimalizovali „time on device". Zvuky, barvy, frekvence malých výher: to všechno je záměrné.
U AI chatbotů je situace ambivalentnější. Studie prezentovaná na CHI 2025 identifikovala konkrétní „dark addiction patterns" v rozhraních současných AI chatbotů. Nekonečný scrollback, absence indikátorů stráveného času, streaky a gamifikace používání. Jsou to záměrná designová rozhodnutí, nebo jen převzaté konvence z jiných digitálních produktů?
Odpověď je pravděpodobně obojí. AI firmy nemusí explicitně cílit na závislost, aby ji produkovaly. Stačí, že optimalizují na engagement, tedy na metriky, které přímo korelují se závislostním chováním. Přesně jako sociální sítě před nimi. A přesně jako u sociálních sítí i tady teprve soudní procesy nutí průmysl se s tím vyrovnat.
V lednu 2026 začal v USA první soudní proces, kde porota rozhoduje, zda AI recommendation engines představují „defektní produkty" navržené k exploataci lidské neurobiologie. Výsledek může předefinovat odpovědnost za návrhové vzory, které udržují uživatele v machine zone.
Hrací automat je navržen tak, abyste nepřestali hrát. AI chatbot je navržen tak, abyste nepřestali promptovat. Rozdíl je v tom, že od automatu odejdete s pocitem viny. Od chatbotu odejdete s pocitem, že jste udělali práci.
A to je na celé té analogii to nejznepokojivější.
Zdroje:
- Addiction by Design: Machine Gambling in Las Vegas (Natasha Dow Schüll, 2012)
- The AI Genie Phenomenon and Three Types of AI Chatbot Addiction (Shen et al., 2026)
- Problematic ChatGPT Use Scale (Springer, 2025)
- Can Large Language Models Develop Gambling Addiction? (arXiv, 2025)
- Researchers warn of addiction and over-dependency on ChatGPT (Bournemouth University, 2025)
- People are not becoming AIholic (ScienceDirect, 2025)
- The Dark Addiction Patterns of Current AI Chatbot Interfaces (CHI 2025)
Zdroj obrázku: FAIN News
Zdroje
- Addiction by Design: Machine Gambling in Las Vegas (Natasha Dow Schüll, 2012)
- The AI Genie Phenomenon and Three Types of AI Chatbot Addiction (Shen et al., 2026)
- Problematic ChatGPT Use Scale (Springer, 2025)
- Can Large Language Models Develop Gambling Addiction? (arXiv, 2025)
- Researchers warn of addiction and over-dependency on ChatGPT (Bournemouth University, 2025)
- People are not becoming AIholic: Questioning the ChatGPT addiction construct (ScienceDirect, 2025)
- The Dark Addiction Patterns of Current AI Chatbot Interfaces (CHI 2025)