Přejít k hlavnímu obsahu

AI nástroj VASA-1 je tak dobrý, že se ho bojí i jeho tvůrce, Microsoft

Pavel Trousil 22.04.2024

Vývojová platforma VASA-1 od Microsoftu dokáže ze statického obrázku, ukázky hlasu a textu vytvořit věrohodné video mluvící osoby. Video je tak kvalitní, že se Microsoft bojí zneužití pro deepfake a tak raději framework zatím neuvolní. Podívejte se, co tenhle nástroj umí.

Microsoft předvedl svoji novou vývojovou platformu (framework) VASA-1 pro vytváření videí s mluvícími lidmi ze statického obrázku, zvukové ukázky a textového skriptu. Oprávněně tvrdí, že VASA-1 příliš nebezpečná na to, aby byla zveřejněna.

Tato videa generovaná umělou inteligencí, v nichž lze přesvědčivě „animovat“ lidi, aby naklonovaným hlasem říkali slova podle scénáře, jsou přesně tím typem věcí, před nimiž minulý měsíc varovala americká Federální obchodní komise. Ta již dříve navrhla pravidlo, jež má zabránit tomu, aby se technologie umělé inteligence používala k podvodům, kdy se někdo vydává se za někoho jiného.
 

přehrát
Zdroj:

Microsoft proto oznámil, že technologie zatím nebude uvolněna z etických důvodů. "Náš výzkum se zaměřuje na generování vizuálních afektivních dovedností pro virtuální avatary s umělou inteligencí a směřuje k pozitivním aplikacím," uvádějí v Redmondu. "Cílem není vytvářet obsah, který by sloužil k uvádění v omyl nebo klamání.“

Mohlo by vás zajímat

"Stejně jako jiné příbuzné techniky generování obsahu by tento nástroj mohl být potenciálně zneužit. Jsme proti jakémukoli chování, které by vedlo k vytváření zavádějícího nebo škodlivého obsahu a máme zájem uplatnit naši techniku pro pokrok v odhalování padělků."

Výzkumníci společnosti Microsoft nicméně naznačují, že schopnost vytvářet realisticky vypadající lidi a vkládat jim slova do úst má i pozitivní využití. "Taková technologie je příslibem obohacení digitální komunikace, zvýšení dostupnosti pro osoby s komunikačními poruchami, transformace vzdělávání, metod s interaktivním doučováním pomocí umělé inteligence a poskytování terapeutické podpory a sociální interakce ve zdravotnictví".
 

Mohlo by vás zajímat

Problém je, že existují jiné podobné nástroje, pomocí kterých lze velmi snadno deepfake videa vytvořit. Existují i modely s otevřeným zdrojovým kódem, které jsou podobně propracované. Stačí si stáhnout zdrojový kód z GitHubu a vytvořit kolem něj službu, která by patrně mohla konkurovat výstupům Microsoftu. Vzhledem k tomu, že jde o open source, je regulace téměř nemožná.

Zdroj: Microsoft, FTC


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme