Microsoft předvedl svoji novou vývojovou platformu (framework) VASA-1 pro vytváření videí s mluvícími lidmi ze statického obrázku, zvukové ukázky a textového skriptu. Oprávněně tvrdí, že VASA-1 příliš nebezpečná na to, aby byla zveřejněna.
Tato videa generovaná umělou inteligencí, v nichž lze přesvědčivě „animovat“ lidi, aby naklonovaným hlasem říkali slova podle scénáře, jsou přesně tím typem věcí, před nimiž minulý měsíc varovala americká Federální obchodní komise. Ta již dříve navrhla pravidlo, jež má zabránit tomu, aby se technologie umělé inteligence používala k podvodům, kdy se někdo vydává se za někoho jiného.
Microsoft proto oznámil, že technologie zatím nebude uvolněna z etických důvodů. "Náš výzkum se zaměřuje na generování vizuálních afektivních dovedností pro virtuální avatary s umělou inteligencí a směřuje k pozitivním aplikacím," uvádějí v Redmondu. "Cílem není vytvářet obsah, který by sloužil k uvádění v omyl nebo klamání.“
"Stejně jako jiné příbuzné techniky generování obsahu by tento nástroj mohl být potenciálně zneužit. Jsme proti jakémukoli chování, které by vedlo k vytváření zavádějícího nebo škodlivého obsahu a máme zájem uplatnit naši techniku pro pokrok v odhalování padělků."
Výzkumníci společnosti Microsoft nicméně naznačují, že schopnost vytvářet realisticky vypadající lidi a vkládat jim slova do úst má i pozitivní využití. "Taková technologie je příslibem obohacení digitální komunikace, zvýšení dostupnosti pro osoby s komunikačními poruchami, transformace vzdělávání, metod s interaktivním doučováním pomocí umělé inteligence a poskytování terapeutické podpory a sociální interakce ve zdravotnictví".
Problém je, že existují jiné podobné nástroje, pomocí kterých lze velmi snadno deepfake videa vytvořit. Existují i modely s otevřeným zdrojovým kódem, které jsou podobně propracované. Stačí si stáhnout zdrojový kód z GitHubu a vytvořit kolem něj službu, která by patrně mohla konkurovat výstupům Microsoftu. Vzhledem k tomu, že jde o open source, je regulace téměř nemožná.