Přejít k hlavnímu obsahu
Bezpečnost

"Obnažovací" deepfake boti odstraňují oblečení z obětí během minut

Pavel Trousil 20.10.2024
info ikonka
Zdroj: Screenshot webu outfitswap

O služby deepfake botů je zájem. Miliony lidí proměňují běžné fotografie v nahé snímky, a to v řádu minut. Novináři z časopisu Wired odhalili nejméně 50 "obnažovacích" botů na platformě Telegram, kteří dokážou vytvořit explicitní fotografie nebo videa lidí pouhými několika kliknutími a velmi rychle.

Kapitoly článku

Tito „obražovací“ boti mají patrně miliony uživatelů měsíčně. I když nelze s jistotou určit přesný počet unikátních uživatelů, je to alarmující zjištění a je velmi pravděpodobné, že jich existuje mnohem více, než kolik jich bylo odhaleno.

Historie zneužívání nekonsenzuálních intimních snímků (nonconsensual intimate image - NCII) - jak se často nazývá používání explicitních deepfaků bez souhlasu - začala koncem roku 2017. Tehdy Motherboard (nyní Vice) objevil online video, ve kterém byla tvář Gal Gadot vložena do existujícího pornografického videa, aby to vypadalo, že se herečka účastní zobrazených aktů. Uživatelské jméno osoby, která se k vytvoření tohoto videa přihlásila, vedlo ke vzniku termínu "deepfake".

Od té doby prošly deepfaky mnoha vývojovými fázemi. Vše začalo výměnou obličejů, kdy uživatelé vkládali tvář jedné osoby na tělo jiné osoby. Nyní jsou díky pokroku v oblasti umělé inteligence veřejnosti k dispozici sofistikovanější metody, jako je umělá inteligence v podobě GAN (Generative Adversarial Networks).
 

Mohlo by vás zajímat

Většina odhalených botů však nepoužívá tento pokročilý typ technologie. Někteří boti na Telegramu se "omezují" na odstraňování oblečení z existujících fotografií. Tito boti se stali lukrativním zdrojem příjmů. Použití takového Telegram bota obvykle vyžaduje určitý počet "tokenů" pro vytvoření obrázků. Kyberzločinci samozřejmě také zaznamenali příležitosti na tomto rozvíjejícím se trhu a provozují nefunkční nebo nekvalitní boty.

Nebezpečné a neetické

Použití umělé inteligence k generování explicitního obsahu je samozřejmě neetické, ale je také nákladné a nemáte žádnou záruku, jak bude výsledek vypadat a zda vůbec nějaký uvidíte. A při využívání takovýchto služeb nemáte ani záruku svého vlastního soukromí, jak dokazuje například nedávné narušení bezpečnosti u AI Girlfriend a může dokonce vést k infekci malwarem.

Vytváření a šíření deepfaků vyvolává závažné etické otázky týkající se soukromí a objektifikace žen, nemluvě o vytváření materiálů týkajících se sexuálního zneužívání dětí. Italští vědci zjistili, že explicitní deepfaky jsou novou formou sexuálního násilí s potenciálně dlouhodobými psychologickými a emocionálními dopady na oběti.
 

Mohlo by vás zajímat

Pro boj s tímto typem sexuálního zneužívání bylo podniknuto několik iniciativ:

  • USA navrhly legislativu v podobě zákona o odpovědnosti za deepfaky – tzv. Deepfake Accountability Act.
  • Některé platformy zavedly vlastní pravidla (např. Google zakázal nedobrovolné syntetické pornografické záběry ve výsledcích vyhledávání).

Dosud však tyto kroky neměly významný dopad na růst trhu s NCII.
 

Mohlo by vás zajímat

Proč být opatrný při ukládání fotografií

Častou otázkou je, zda zveřejňovat na sociálních sítích fotografie, které mohou být použity k trénování modelů umělé inteligence nebo právě k vytváření deepfake. Už totiž došlo k mnoha případům, kdy sociální média a jiné platformy využívaly obsah dodaný uživateli k trénování své umělé inteligence. Někteří lidé mají tendenci to zlehčovat, protože nevidí nebezpečí, ale vysvětleme si možné problémy:

  1. Deepfakes: Obsah generovaný umělou inteligencí na základě dodaných fotografií, jako jsou deepfaky, může být použit k šíření dezinformací, poškození vaší pověsti nebo soukromí, nebo k podvádění lidí, které znáte.
  2. Metadata: Uživatelé často zapomínají, že obrázky, které nahrávají na sociální média, obsahují také metadata, jako například místo, kde byla fotografie pořízena.
  3. Duševní vlastnictví: Nikdy nenahrávejte nic, co jste nevytvořili nebo nevlastníte.
  4. Předpojatost: Modely AI trénované na zaujatých datasetech mohou přenášet a zesilovat společenské předsudky.
  5. Rozpoznávání obličejů: I když už není rozpoznávání obličejů tak aktuálním tématem jako dříve, stále existuje.
  6. Nastálo: Jakmile je obrázek online, je téměř nemožné ho úplně odstranit.

Pokud chcete i nadále používat platformy sociálních médií, je to samozřejmě vaše volba, ale při nahrávání fotografií sebe, svých blízkých nebo dokonce úplně cizích lidí zvažte výše uvedené body.

Zdroj: Malwarebytes, Malwarebytes, Reuters, Wired, Vice, NYP

 


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme