Přeskočit na obsah
29. března 2026 · 7 min čtení

Přestaňme chtít, aby AI myslela jako člověk

Dva nezávislé výzkumné texty z roku 2026 konvergují ke stejnému závěru: efektivní spolupráce člověka a AI nestojí na napodobování lidského myšlení, ale na tom, že dva omezeně schopní agenti se naučí vyvažovat své odlišné slabiny.

Foto: FAIN News

AI agregace

Tento článek vznikl agregací informací z veřejně dostupných zdrojů. Nejsme primární zdroj — původní zdroje najdete níže. Mohou vzniknout nepřesnosti.

Souhrn
0:00--:--

Přestaňme chtít, aby AI myslela jako člověk

Dva nezávislé výzkumné texty z roku 2026 konvergují ke stejnému závěru: efektivní spolupráce člověka a AI nestojí na napodobování lidského myšlení, ale na tom, že dva omezeně schopní agenti se naučí vyvažovat své odlišné slabiny.

Teze

Představa, že nejlepší AI je ta, která „myslí jako člověk," je hluboce zakořeněná. Kognitivní věda, umělá inteligence i průmyslový design sdílejí předpoklad, že čím víc AI rozumí lidskému uvažování, tím lépe s námi bude spolupracovat. Dva čerstvé texty z roku 2026 tento předpoklad zpochybňují ze dvou různých úhlů a dospívají k překvapivě souladnému závěru.

Zhicheng Lin v Nature Reviews Psychology argumentuje, že emulace lidské kognice je slepá ulička. Pokud lidské myšlení definují šum a systematické zkreslení, AI, která ho napodobuje, tyto chyby reprodukuje. Řešením je augmentace: AI má kompenzovat to, co člověk dělá špatně, ne kopírovat to, co dělá dobře.

Wang, Liu, Zou a Paas v Artificial Intelligence Review přidávají druhou dimenzi. Nejen člověk, ale i AI je „bounded agent" s omezenou kapacitou. Člověk selhává pod kognitivní zátěží, když pracovní paměť nestačí. AI selhává pod kontextovou zátěží, když kontext překročí limit a model začne halucinovat. Spolupráce funguje jen tehdy, když systém dynamicky vyvažuje zátěž mezi oběma agenty tak, aby oba zůstali v zóně spolehlivosti.

Dohromady: přestaňme navrhovat AI, která myslí jako my. Navrhujme systémy, kde dva odlišně omezení agenti pokrývají vzájemné slepé skvrny.

Paper 1: Komplementarita vyžaduje augmentaci, ne emulaci

✅ Peer-reviewed · Publikováno únor 2026 · Teoretická argumentace (ne empirická studie) · Nature Reviews Psychology

Zhicheng Lin z University of Science and Technology of China reaguje na influential perspective Gonzalez a Heidari (2025), kteří navrhli koncept „cognitive AI" jako cestu ke komplementaritě člověka a AI v dynamickém rozhodování. Cognitive AI podle nich znamená systémy, které „emulují a simulují lidskou mysl jako systém zpracování informací."

Lin staví dva protichůdné argumenty.

Za prvé, rozlišení mezi „cognitive AI" a běžnými data-driven přístupy je v praxi nejasné. Moderní jazykové modely trénované na behaviorálních datech již vykazují emergentní kognici podobné vlastnosti, aniž by explicitně modelovaly kognitivní procesy. Vznikají implicitně ze statistických regularit v lidském rozhodování. Hranice mezi „emulací kognice" a „učením z dat" je tak tenká, že možná neexistuje.

📚 Cognitive AI (Gonzalez & Heidari, 2025)

Koncept navržený Cleotilde Gonzalez a Hadi Heidari z Carnegie Mellon University. Cognitive AI popisuje přístup k návrhu umělé inteligence, který explicitně modeluje lidské kognitivní procesy jako základ pro rozhodování. Namísto čistě statistického učení z dat navrhuje čtyři integrační cesty: embedding integration (sjednocení reprezentací člověka a stroje), instruction encoding (překlad lidských cílů do strojové architektury), training agents (kognitivní modely generují trénovací data pro strojovou AI) a coevolving agents (vzájemná adaptace obou typů AI). Gonzalez a Heidari v odpovědi na Linovu kritiku upřesnili, že cílem není prostá emulace, ale komplementarita: společný systém, který se chová jinak a lépe než člověk nebo AI samostatně.

Za druhé, i kdyby takové rozlišení existovalo, emulace lidské kognice je špatný cíl. Lidské myšlení definují dva fundamentální rysy: šum (noise) a systematická zkreslení (biases). AI, která tyto rysy reprodukuje, komplementaritu nepřinese. „Komplementarita vyžaduje AI, která augmentuje lidské schopnosti, ne kognitivní architektury, které reprodukují lidská omezení," shrnuje Lin.

Jako alternativu Lin navrhuje čtyři designové principy efektivní komplementarity: vhodné rozdělení rolí mezi člověka a AI, transparentní komunikaci nejistoty, adaptivní personalizaci zvyšující kvalitu rozhodování a vzájemné modelování funkčně relevantních vlastností bez nutnosti replikovat kognitivní mechanismy. Tyto principy lze realizovat různými technickými přístupy a hodnotit podle výsledků týmu, ne podle věrnosti kognitivním teoriím.

🔍 Šum vs. bias v rozhodování (Kahneman, Sibony & Sunstein, 2021)

Daniel Kahneman a kolegové v knize „Noise" rozlišili dva zdroje chyb v lidském úsudku. Bias je systematické vychýlení jedním směrem, například tendence k optimismu u projektových odhadů. Šum je náhodná variabilita: dva soudci dostanou stejný případ a vynesou zásadně odlišné rozsudky, nebo jeden soudce rozhodne jinak ráno a odpoledne. V kontextu human-AI spolupráce je klíčové, že AI trénovaná na lidských rozhodnutích nutně absorbuje oba typy chyb. Linův argument je, že komplementární AI by měla tyto chyby kompenzovat, ne reprodukovat.

Bounded Agent Complementarity: srovnání kapacit, failure modes a kompenzačních strategií člověka a AI Vizualizace: FAIN News na základě frameworků z Lin (2026) a Wang, Liu, Zou & Paas (2026).

Paper 2: Oba agenti mají limity, oba mohou selhat

✅ Peer-reviewed · Publikováno leden 2026 · Review a framework paper · Artificial Intelligence Review

Peng Wang, Hongjun Liu, Liye Zou a Fred Paas přistupují k problému z jiného konce. Jejich framework „bounded agent complementarity" vychází z Cognitive Load Theory (CLT) a rozšiřuje ji na AI systémy.

Klíčový insight: člověk i AI sdílejí strukturálně podobné omezení, jen se projevují jinak. Člověk má omezenou pracovní paměť, typicky 4 ± 1 chunk. Když kognitivní zátěž překročí kapacitu, kvalita rozhodování prudce klesá, pozornost se fragmentuje, detaily unikají. AI má omezené kontextové okno. Když vstupní kontext přesáhne limit nebo se příliš natáhne, model začne halucinovat, ztrácí koherenci a tiše selhává bez varování.

📚 Cognitive Load Theory (Sweller, 1988)

Teorie navržená Johnem Swellerem popisuje, jak omezená kapacita pracovní paměti ovlivňuje učení a výkon. Rozlišuje tři typy zátěže: intrinsic load (složitost samotného úkolu), extraneous load (zbytečná zátěž ze špatného designu) a germane load (produktivní zátěž spojená s budováním mentálních schémat). CLT se původně aplikovala na vzdělávání a instructional design. Wang a kolegové ji rozšiřují na AI: kontext překračující limit je ekvivalent extraneous load, hallucination je ekvivalent chyby z přetížení pracovní paměti, a chunking (seskupování informací do větších celků) funguje jako strategie redukce zátěže u obou agentů.

Framework formálně propojuje kognitivní konstrukty s konkrétními designovými parametry. Intrinsic load odpovídá komplexitě promptu a počtu proměnných v úloze. Extraneous load odpovídá frekvenci alertů, redundantním informacím, špatně strukturovanému kontextu. Chunking na lidské straně (seskupování informací do smysluplných celků) má přímý protějšek v kontextové komprese a sumarizaci na straně AI.

Z toho vyplývá model dynamického load-balancingu: systém průběžně monitoruje kognitivní stav obou agentů a přerozděluje zátěž. Pokud člověk vykazuje signály přetížení (zpomalení, chyby, přehlížení detailů), AI přebírá víc analytické práce. Pokud AI operuje blízko limitů kontextového okna, systém deleguje zpět na člověka nebo komprimuje kontext skrze sumarizaci a archivaci.

Autoři navrhují, aby „load-aware" konfigurace symbiózních systémů udržovaly ukazatele lidské zátěže pod prahem přetížení a současně omezovaly kontextový tlak na AI prostřednictvím sumarizace a archivace. Tím se redukuje křehkost při dlouhém kontextu a předchází tichým selháním, která jsou u AI obzvlášť nebezpečná, protože chybí ekvivalent lidského „cítím, že na to nestačím."

Co z toho vyplývá

Oba texty se potkávají na klíčovém posunu v myšlení o human-AI spolupráci: od antropomorfního designu k systémovému.

Lin přesouvá debatu od otázky „jak AI přiblížit lidskému myšlení" k otázce „jak AI navrhnout, aby kompenzovala lidské slabiny." Wang a kolegové přidávají symetrický rozměr: AI má vlastní slabiny, které je třeba stejně aktivně řídit. Výsledný obraz je partnerství dvou omezených systémů, z nichž žádný nemá privilegovaný status.

Pro praxi z toho vyplývají tři principy. Za prvé, AI systémy by měly být navrhovány tak, aby doplňovaly lidské schopnosti tam, kde selhávají (šum, bias, kognitivní přetížení), nikoli aby napodobovaly to, co lidé zvládají dobře. Za druhé, design spolupráce musí počítat s failure modes na obou stranách. Halucinace AI modelu je strukturálním ekvivalentem lidské chyby z přetížení pracovní paměti. Ignorovat ji je stejně nebezpečné jako ignorovat únavu pilota. Za třetí, dynamický load-balancing, nikoli statické rozdělení rolí, je podmínkou spolehlivé symbiózy. Kdo dělá co by se mělo měnit v reálném čase podle aktuálního stavu obou agentů.

Zajímavé je, co tyto texty implicitně říkají o současném stavu průmyslu. Většina komerčních AI produktů je navržena buď jako „chytřejší lidé" (chatboti s lidskými manýry), nebo jako „neomezené nástroje" (systémy prezentované jako vždy spolehlivé). Ani jedno neodpovídá tomu, co výzkum ukazuje. Budoucnost human-AI designu je pravděpodobně střízlivější: dva omezení agenti, kteří se vzájemně hlídají.

Oba texty mají ale také společný limit. Lin píše correspondence, krátkou teoretickou polemiku bez empirických dat. Wang a kolegové nabízejí framework vycházející z review existující literatury, ale bez vlastních experimentů. Principy „bounded agent complementarity" a „augmentace místo emulace" dávají intuitivní smysl, ale zatím chybí studie, které by je testovaly v praxi. Gonzalez a Heidari ve své odpovědi Linovi oprávněně namítají, že „cílem interakce člověka a AI je komplementarita, ne pouhá augmentace." Empirický test, která z těchto perspektiv vede k lepším výsledkům, teprve přijde.


Zdroje: