Přejít k hlavnímu obsahu
Novinky

Biometrie proti falšování videa

redakce 07.07.2019

Laici mohou stále snadněji falšovat záznamy tím způsobem, že k obrazu mluvčího přidají libovolnou výpověď. Nová metoda nyní odkrývá falšování, a závod ve zbrojení tak stále pokračuje.

Na videu vytvořeném pomocí umělé inteligence by mohlo být vidět, jak americký prezident řekl nebo udělal něco šokujícího. Bylo by to velmi uvěřitelné, a v nejhorším případě by to mohlo ovlivnit volby, vyvolat násilí na ulicích, nebo dokonce mezinárodní ozbrojený konflikt.

Naštěstí existuje nová technika, s jejíž pomocí se může Trump či další šéfové vlád a prominenti chránit před podobnými „deep fakes“. U nové metody je prostřednictvím strojového učení biometricky analyzován individuální styl, v němž osoba mluví a pohybuje se.

Technika byla vyvinutá výzkumníky z Kalifornské univerzity v Berkeley a univerzitou jižní Kalifornie – autoři v této souvislosti mluví o tzv. „měkké biometrické signatuře“. S nástrojem, který je k dispozici, extrahují pohyby tváře a hlavy různých osob. S pomocí Generative Adversial Network (GAN) vytvoří vlastní „deep fakes“ Trumpa, Baracka Obamy, Bernieho Sanderse, Elizabeth Warrenové nebo Hillary Clintonové.

problémy pro politiku

V testu uměla technika rozpoznat mnoho různých „deep fakes“ s nejméně 92procentní úspěšností, mezi nimi i takové, u nichž byla vyměněna tvář. Navíc si poradila také s artefakty v souborech, které vznikly, když bylo video nově komprimováno, což pro jiné techniky představuje problém. Svou vlastní metodu chtějí vědci ještě vylepšit, když zohlední také charakteristický styl mluvy osob. Práce, představená v červnu na konferenci o strojovém učení v Kalifornii, byla financována společností Google a armádním výzkumným centem DARPA.

Problém pro politiky celosvětově (a také pro jakéhokoli jiného člověka) spočívá v tom, že s pomocí umělé inteligence bude směšně jednoduché vytvářet falšovaná videa. Nepravdivé zprávy, falšované profily na sociálních sítích a manipulovaná videa již dnes ovlivňují informace a diskuze o politice. Obavy vyvolává zejména skutečnost, že falšované mediální obsahy by mohly být využity k tomu, aby se v prezidentských volbách v roce 2020 rozšiřovaly manipulativní informace.

[email protected]

 


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme