Přeskočit na obsah
EU oslabuje vlastní AI Act dřív, než začal platit. Omnibus odsouvá klíčová pravidla o rok
20. dubna 2026 · 6 min čtení

EU oslabuje vlastní AI Act dřív, než začal platit. Omnibus odsouvá klíčová pravidla o rok

Evropská komise navrhuje odložit pravidla pro vysoce rizikové AI systémy na konec roku 2027. Čtyřicet lidskoprávních organizací varuje, že Digital Omnibus tiše demontuje zákon, který EU teprve nedávno přijala.

Foto: Unsplash / Fabian Kleiser

Generováno AI

Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).

Evropská komise navrhuje odložit pravidla pro vysoce rizikové AI systémy na konec roku 2027. Čtyřicet lidskoprávních organizací varuje, že Digital Omnibus tiše demontuje zákon, který EU teprve nedávno přijala.

EU AI Act měl být důkazem, že Evropa dokáže regulovat technologii rychleji, než se stihne rozšířit. Dva roky vyjednávání, stovky kompromisů, historicky první komplexní zákon o umělé inteligenci na světě. Ještě než začal plně platit, Brusel pracuje na tom, jak ho oslabit.

Říká se tomu Digital Omnibus. Oficiálně jde o "technické úpravy" a "zjednodušení". Ve skutečnosti jde o nejzásadnější zásah do AI Act od jeho přijetí, a trilogue jednání mezi Evropským parlamentem, Radou a Komisí právě začínají.

Co se mění

Tři klíčové posuny.

Za prvé, odklad. Pravidla pro vysoce rizikové AI systémy měla začít platit 2. srpna 2026 pro standalone systémy (příloha III AI Act) a 2. srpna 2027 pro systémy zabudované do regulovaných produktů. Omnibus obojí posouvá: standalone systémy na 2. prosince 2027, embedded systémy na 2. srpna 2028. Argument Komise: standardy a conformity assessment body ještě nejsou připraveny.

Za druhé, transparentnost. Podle současného znění AI Act musí poskytovatelé vysoce rizikových AI systémů zveřejnit risk assessment. Omnibus tuto povinnost odstraňuje. Firmy by samy rozhodovaly, jakou úroveň rizika jejich systém představuje, bez povinnosti výsledek zveřejnit.

Za třetí, dohled. Orgány pro ochranu základních práv (fundamental rights bodies) mají podle AI Act pravomoc monitorovat nasazení vysoce rizikových AI systémů, včetně těch používaných policií. Omnibus oslabuje jejich pravomoc přímo vyžadovat dokumentaci od firem a veřejných institucí.

Kdo bije na poplach

  1. dubna 2026 odeslalo 40 organizací otevřený dopis Evropskému parlamentu. ARTICLE 19, EDRi, Amnesty International a další varují, že Omnibus jde daleko za mandát "technických změn". Komise podle nich nedodržela vlastní pravidla Better Regulation a obešla standardní demokratické procedury.

Amnesty International je přímější. V dubnovém stanovisku organizace píše, že "přeformulováním klíčových zákonů jako 'byrokracie' EU ustupuje silným korporátním a státním aktérům, kteří chtějí snížit laťku evropských zákonů ve svůj prospěch."

Kritiku sdílí i Evropský sbor pro ochranu osobních údajů (EDPB) a Evropský inspektor ochrany údajů (EDPS). Jacques Delors Centre označil směřování Omnibusu za "špatný směr".

Proč to Komise dělá

Oficiální důvod je pragmatický: standardy pro high-risk AI systémy nejsou hotové, conformity assessment infrastruktura neexistuje, členské státy nestihly nominovat kompetentní úřady. Regulovat něco, co nemáte jak ověřit, je regulace na papíře.

Na tomhle argumentu něco je. Vynutitelnost bez infrastruktury je skutečně problém. Ale kritici upozorňují, že řešení "nemáme jak kontrolovat, tak nebudeme" je přesně opačná logika, než jakou AI Act zamýšlel. Zákon měl donutit průmysl přizpůsobit se pravidlům. Omnibus přizpůsobuje pravidla průmyslu.

Za kulisami hraje roli i geopolitika. Americká administrativa pod Trumpem explicitně varovala EU před přílišnou regulací technologického sektoru. Čínské AI firmy masivně rostou bez srovnatelných omezení. Evropská Komise pod vedením Ursuly von der Leyen přepnula z modu "regulační pionýr" do modu "konkurenceschopnost", a AI Act se stal prvním kandidátem na ústupky.

Co je v sázce

Vysoce rizikové AI systémy nejsou abstrakce. Jsou to systémy pro biometrickou identifikaci na veřejných prostranstvích. AI v recruitmentu, která filtruje životopisy. Algoritmy, které rozhodují o přístupu ke zdravotní péči nebo úvěrům. Systémy, které policie používá k prediktivnímu policingu.

Odložení pravidel o 16 měsíců znamená, že tyto systémy mohou být nasazeny v EU bez plného regulačního rámce až do konce roku 2027. A odstranění povinnosti zveřejnit risk assessment znamená, že nikdo mimo firmu nebude vědět, jak moc jsou rizikové.

Pro české firmy, které se na compliance AI Act připravují, Omnibus přináší paradoxní situaci: kdo investoval do přípravy na srpnový deadline 2026, teď zjišťuje, že se cíl posunul. A kdo vyčkával, právě dostal za pravdu.

Co bude dál

Trilogue jednání probíhají v dubnu 2026. Parlament přijal svou vyjednávací pozici na březnovém plenárním zasedání. Finální podoba Omnibusu bude výsledkem kompromisu mezi třemi institucemi.

Klíčová otázka nezní, jestli se deadline posune. To je prakticky jisté. Otázka zní, jestli spolu s deadlinem zmizí i transparentní povinnosti a nezávislý dohled. Pokud ano, AI Act přestane být regulací v tradičním smyslu. Stane se doporučením.

Dva roky budování nejambicióznějšího AI regulačního rámce na světě. A pak jeden Omnibus, který ho tiše demontuje pod hlavičkou "zjednodušení". V Bruselu tomu říkají pragmatismus. Čtyřicet lidskoprávních organizací tomu říká jinak.