
5,86 % volebních obrázků v kanadských volbách 2025 byly deepfakes. Pravice je sdílela 2× častěji než levice.
První synchronizovaná cross-platformní studie deepfakes v reálných volbách prošla téměř 188 tisíc příspěvků z X, Bluesky a Redditu. Většina deepfakes byla benigní, ale 0,12 % zhlédnutí na X tvořil škodlivý obsah s asymetrickým partisan profilem.
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
Tento článek vznikl zpracováním veřejně dostupných zdrojů pomocí AI nástrojů. Každý text se snažím přečíst a věcně zkontrolovat, ale ne vždy to zvládnu. Prosím, berte na to ohled a informace si ověřujte v původních zdrojích (níže).
První synchronizovaná cross-platformní studie deepfakes v reálných volbách prošla téměř 188 tisíc příspěvků z X, Bluesky a Redditu. Většina deepfakes byla benigní, ale 0,12 % zhlédnutí na X tvořil škodlivý obsah s asymetrickým partisan profilem.
✅ Peer-reviewed · Publikováno duben 2026 · Data sbírána 24. až 29. dubna 2025 · ACM Web Conference 2026 (Dubai)
Co studie zjistila
Tým výzkumníků představil na ACM Web Conference 2026 v Dubaji první synchronizovanou cross-platformní analýzu deepfakes v reálných volbách. Studie Deepfakes in the 2025 Canadian Election: Prevalence, Partisanship, and Platform Dynamics analyzovala 187 778 příspěvků z X, Bluesky a Redditu, sebraných během týdne kolem kanadských federálních voleb 28. dubna 2025.
Hlavní finding: 5,86 % volebních obrázků sdílených na sociálních sítích bylo identifikováno jako deepfakes. Mezi platformami má X nejvyšší míru, Bluesky a Reddit zůstávají primárně non-political.
Studie pak zjistila partisan asymetrii, která je klíčovým druhým findingem. Pravicové účty sdílely deepfakes téměř dvakrát častěji než levicové: 8,66 % obrázků z pravicových účtů bylo deepfake, oproti 4,42 % u levicových. Pravicové deepfakes navíc měly výraznější tendenci být defamatorní nebo spiklenecké, často s explicitním politickým záměrem.
Třetí finding mírní obavy z masového dopadu, ale zároveň nakreslí přesnější obraz hrozby. Většina detekovaných deepfakes byla benigní nebo nepolitická (memes, vtipy, fanart politiků, virální vizuály). Škodlivé deepfakes získaly minimální pozornost, jen 0,12 % všech zhlédnutí na X. To znamená, že 99,88 % view time na X tvořil legitimní obsah nebo non-harmful synthetic obsah.
[📊 Ve studii: graf prevalence deepfakes podle platformy a politické orientace, viz arXiv 2512.13915]
🔍 Detection framework pro deepfakes
Studie použila vlastní vysoce přesný detekční framework trénovaný na diverzním datasetu modernních generativních modelů (Stable Diffusion, Midjourney, FLUX, gpt-image-1, Imagen 3, Sora, Veo). Klasický problém detekce je generalizace na nové generátory: model trénovaný na obrázcích z roku 2023 selže na obrázcích z roku 2025, protože nové modely opravují artefakty, které sloužily jako detekční signál.
Tým reportuje vysokou přesnost na out-of-distribution test setu, ale konkrétní precision/recall čísla v abstraktu chybí (jsou v plné verzi paperu). Pro porovnání: deepfake detection accuracy v laboratorních podmínkách typicky dosahuje 90 až 95 %, ale v in-the-wild settings padá na 60 až 80 % kvůli kompresi, různým rozlišením a specifickým artefaktům platforem.
Jak to zjistili
Metodologicky studie reprezentuje krok dopředu hned ze tří důvodů.
Cross-platformní synchronizace. Předchozí studie se zaměřovaly na jednu platformu nebo srovnávaly platformy v různých časových oknech. Tento tým sebral data ze tří platforem ve stejném sedmidenním okně, což umožňuje porovnat platform dynamics bez confoundingu časem nebo jinou volební situací.
Detekce trénovaná na moderních modelech. Studie z let 2022 až 2024 typicky používala detektory trénované na starších GAN-generovaných obrázcích, které selhávají na výstupech moderních diffusion modelů. Tento tým rozšířil training set o reprezentativní současnou generační technologii, což je nutná podmínka pro to, aby čísla byla dnes věrohodná.
View weighting. Místo aby studie reportovala jen prevalenci v korpusu (5,86 %), zvážila ji prostřednictvím reálných view counts. Z toho vychází to, že 0,12 % zhlédnutí tvoří škodlivý deepfake obsah. Jednoduché počítání postů by tento detail skrylo a vedlo k overestimace dopadu.
📚 Partisan asymetrie v dezinformacích (Allcott, Gentzkow, 2017+)
Akademická literatura o dezinformacích konzistentně dokumentuje partisan asymetrie v sdílení falešného obsahu. Allcott a Gentzkow ve své seminální práci o roli falešných zpráv v amerických volbách 2016 ukázali, že fake news favorable to Trump byly sdíleny častěji než ty favorable to Clinton. Pozdější metaanalýzy (Guess et al., 2019; Grinberg et al., 2019) potvrdily pattern: pravicové publikum napříč západními demokraciemi sdílí dezinformace v průměru častěji.
Důvody jsou debatované. Tři hlavní hypotézy: (1) asymetrie v platformové enforcementu, (2) odlišné mediální ekosystémy a sources of trust, (3) psychologické rozdíly v information processing (need for cognition, openness). Tento Canadian deepfake paper přidává empirický důkaz, že asymetrie se přenáší i do AI-generovaného obsahu, ne jen do tradičních textových zpráv.
Proč je to důležité
Studie přichází ve správný moment. EU AI Act Article 50 vstupuje v účinnost v srpnu 2026 a zavádí povinné labelování syntetického obsahu. Vynucování bude mít penaltu 6 % globálních tržeb. Otázka, kterou si regulátoři pokládají, je: jaký reálný problém regulace řeší? Tahle studie nabízí první empirickou odpověď z reálných voleb v G7 zemi.
Tři klíčové implikace.
Pro regulaci: Hrozba není v objemu, ale v koncentraci. 5,86 % deepfakes zní jako vysoké číslo, ale 99,88 % view time je legitimní obsah. Reálný regulátorský problém je mnohem konkrétnější: jak rychle detekovat a deplatformizovat ten zlomek defamačního partisan obsahu, který má potenciál ovlivnit volby. Plošné labelování všech AI-generovaných obrázků (Article 50) tento konkrétní problém neřeší přímo. Pomáhá s detekcí, ale nepokrývá enforcement.
Pro platformy: X má nejvyšší rate škodlivých deepfakes, Bluesky a Reddit jsou non-political. Tohle není primárně o tom, jaká AI generuje obsah. Je to o tom, jaká platforma toleruje sharing. Studie nepřímo posiluje argument, že platformový enforcement (DSA, Trust & Safety) je páka, která má větší dopad než AI providery enforcement.
Pro novináře a fact-checkery: Pokud 0,12 % view time je škodlivý deepfake, fact-checkery by se měly zaměřit nikoli na všechny AI obrázky, ale na malou subset s asymetrickým partisan profilem. Studie nabízí konkrétní heuristiku: pravicový účet sdílí obrázek, který vypadá synteticky a má defamatorní obsah, toto je vysoce pravděpodobně deepfake. Levicový účet sdílí synteticky vypadající obrázek, pravděpodobně je to meme nebo fanart.
Pro evropský kontext: Kanada je v G7 středem pozornosti, ale demograficky a mediálně blíž k EU než k USA. České volby do PSP ČR proběhly v říjnu 2025 a obdobná systematická analýza v české jazykové sféře zatím chybí. Studie nabízí metodologickou šablonu, kterou by mohl zopakovat český akademický tým ve spolupráci s NÚKIB nebo CDEC.
Limity a otevřené otázky
Mezi sběrem dat (duben 2025) a publikací (duben 2026) uplynulo 12 měsíců. Tohle je v sociálních vědách standardní okno pro peer review, ale v AI kontextu je to dlouho. Generativní modely, které byly state-of-the-art v dubnu 2025 (Stable Diffusion 3, Midjourney v6, FLUX 1.1), jsou v dubnu 2026 zastaralé. ChatGPT Images 2.0, Gemini Imagen 4 a další 2026 modely produkují fotorealistické výstupy bez detekovatelných artefaktů. Findings o platform dynamics zůstávají platné, ale prevalence čísla mohou být v 2026 vyšší, než studie reportuje pro 2025.
Druhý limit je geografický. Kanada má bilingvální mediální prostředí (anglicky, francouzsky), polarizaci se dvěma hlavními stranami a relativně silný deplatform enforcement. Generalizace na země s víc fragmentovaným politickým spektrem (Itálie, Polsko, Česko) je nejistá.
Třetí limit je definice "deepfake" versus "AI-generated meme". Studie kategorizuje deepfakes na škodlivé a benigní, ale operacionalizace téhle hranice závisí na lidských anotátorech, jejichž judgement může být partisan. Tým toto adresuje skrz inter-rater reliability metriky, ale v abstraktu tato čísla chybí.
Studie je zatím dostupná jako arXiv preprint 2512.13915, ale prošla peer review v ACM Web Conference 2026, což je vysoce kompetitivní venue (acceptance rate kolem 18 %). Kombinace preprintu s konferenční publikací znamená, že findings stojí na solidním základu, byť detailní reviewer comments nejsou veřejné.
Pro plnou verzi paperu, včetně metodologického appendixu a supplementárních grafů, viz HTML verze na arXiv.
Zdroje
- Deepfakes in the 2025 Canadian Election: Prevalence, Partisanship, and Platform Dynamics (arXiv 2512.13915)
- Deepfakes in the 2025 Canadian Election (HTML verze)
- ACM Web Conference 2026 (Dubai)
- Cyber Threats to Canada's Democratic Process: 2025 Update (Canadian Centre for Cyber Security)
- The Canadian Information Ecosystem during the 2025 Federal Election (Media Ecosystem Observatory)
- AI-generated content about election flooded online news void (CP24)