AI ESZKÖZÖK
A Wan Video nyílt forráskódú modellt adott ki szinkronizált beszélőfej-generáláshoz
A Wan Video kiadott egy új, Wan-S2V nevű nyílt forráskódú AI modellt, amely lehetővé teszi a felhasználók számára, hogy egyetlen statikus képből és egy hangfájlból beszélőfejes videókat hozzanak létre. A modell szinkronizálja a személy száj- és arcmozgását a megadott hanggal, valósághű videót készítve a beszélő alanyról. Ez a 14 milliárd paraméteres modell elérhetővé vált a fejlesztői közösség számára a GitHubon és a HuggingFace-en, kiváló minőségű nyílt forráskódú alternatívát kínálva a saját fejlesztésű videószintézis-eszközökkel szemben.
- Szinkronizálja az arcanimációt és a beszédet statikus kép- és hangbemenetekből.
- Wan2.2-S2V-14B modellként jelent meg nyilvános használatra.
- Tesztelhető a HuggingFace Spaces felületén, és integrálható a GitHubon keresztül.
- Lehetővé teszi a valósághű mozgást és szinkronizálást professzionális videós felszerelés nélkül.
Miért fontos?
A kiváló minőségű, nyílt forráskódú videógeneráló modellek elérhetősége demokratizálja a szintetikus média létrehozását, és lehetővé teszi a fejlesztők számára, hogy speciális alkalmazásokat építsenek a zárt, fizetős ökoszisztémákon kívül. ---