Falešný pocit bezpečí
Pixelace nebo rozmazání obličejů na fotografiích a videích dlouho platily za účinné metody ochrany soukromí. V éře umělé inteligence se však tato bezpečnost stává pouhou iluzí.
Nové AI modely dokážou rekonstruovat rozpixelované obličeje s vysokou přesností. Jde o riziko, kterého si zatím mnoho uživatelů není vědomo. Vysvětlíme, proč tradiční metody anonymizace již nestačí a co byste měli použít místo toho pro zachování soukromí.

Jak AI obchází pixelaci
Pixelace a rozmazání pouze redukují viditelné detaily – nikoli však celé spektrum informací v obraze. Umělá inteligence dokáže využít:
- Struktury
- Barvy
- Obrysy
- Vzory
Pomocí milionů srovnatelných obrázků generuje alespoň částečně věrohodné rekonstrukce. Vědci z Duke University již v roce 2020 prokázali v projektu PULSE (Photo Upsampling via Latent Space Exploration), jak tyto modely fungují.
Ohromující technologický pokrok
Obrázky s rozlišením pouhých 16×16 pixelů byly zvětšeny 64násobně. PULSE systém dokáže vytvořit fotografie s až 64krát vyšším rozlišením než zdrojové obrázky, což je 8krát detailnější než dřívější metody. Informatička Cynthia Rudinová k tomu uvedla, že ještě nikdy nebyly vytvořeny obrázky s takto vysokým rozlišením a tolika detaily.
Zvláště problematické je, že takto vytvořený obrazový materiál sice nemusí vždy přesně odpovídat originálu, ale často může stačit k tomu, aby byla osoba znovu rozpoznána.
Vážné riziko pro zranitelné skupiny
Tato technologie představuje vážné riziko pro whistleblowery, demonstranty, děti a další zranitelné skupiny, které byly na obrázcích záměrně anonymizovány. Místo aby začal s rozmazaným obrázkem a postupně přidával detaily, PULSE prochází prostor vysoce kvalitních přirozených obrázků a hledá takové, které by po zmenšení odpovídaly původnímu nízkému rozlišení.

Problém videí je ještě větší
Obzvláště problematické jsou pixelovaná videa. I zde lze rozmazané nebo pixelované oblasti do značné míry obnovit – zejména u videí, kde lze analyzovat a kombinovat více snímků.
Youtuber Level 2 Jeff v dubnu 2025 vyzval své sledující, aby dekódovali ukázkové video vlastními metodami. Uživatel KoKuToru zveřejnil na GitHubu projekt, který ukazuje metody dešifrování.
Díky tomu, že se okno v systému hýbalo, byly všechny na něm umístěné texty znovu čitelné. To může být extrémně problematické, pokud názvy složek obsahují osobní údaje nebo zobrazují IP adresy apod..
Jak bezpečně skrýt tváře a citlivé informace
Namísto pixelace nebo rozmazání byste měli při zpracování obrázků využít jiné metody:
- Černý obdélník – Pokud překryjete citlivé oblasti fotografií černým pruhem, AI nemůže tuto oblast obnovit. To je vhodné například pro poznávací značky, jmenovky, názvy ulic nebo čísla domů.
- Emoji – Na fotografiích mohou černé pruhy připomínat policejní fotografie, proto nejsou vždy ideální volbou. Oblíbenou alternativou je jednoduše umístit velké emoji přes obličej osoby.
- Výběr motivu – Už při pořizování fotografie můžete dbát na to, aby na ní nebyly vidět citlivé údaje. Například vhodně upravte výřez obrazu.
- Fyzická cenzura – Jednoduchým prostředkem je také cenzura pomocí zakrytí. Například neprůhlednou páskou můžete zakrýt jmenovky nebo jiné osobní údaje a následně ji odstranit.
- Specializovaný software – Nástroj Fawkes sice nepixeluje vaše obrázky, ale upravuje je tak, aby je programy na rozpoznávání obličejů nemohly identifikovat – zatímco lidé vás stále poznají.

Budoucnost soukromí v digitálním světě
U videí je situace pro laiky již výrazně složitější, proto je důležité v ideálním případě osobní údaje vůbec nenatáčet. Technologie jako PULSE využívají tzv. generativní adversariální sítě (GAN), které v podstatě staví proti sobě dvě neuronové sítě – jedna generuje obličeje a druhá rozhoduje, zda je obličej dostatečně realistický.
Budoucnost ochrany soukromí bude vyžadovat stále sofistikovanější metody, jelikož AI nástroje se neustále zdokonalují. Co bylo považováno za bezpečné před pěti lety, je dnes již překonáno.
Zdroj: Science Alert, Cornell University, Arxiv, GitHub, YouTube