ALIBABA
Az Alibaba Wan2.2 nyílt forráskódú videómodellje továbbfejleszti a filmes AI képességeket
Az Alibaba Tongyi Labja elindította a Wan2.2-t, egy új nyílt forráskódú videómodellt, amely fejlett filmes képességeket és kiváló minőségű mozgást kínál mind a szöveg-videó (text-to-video), mind a kép-videó (image-to-video) generáláshoz.
- A Wan2.2 két specializált „szakértőt” használ – az egyik az átfogó jelenetet hozza létre, míg a másik a finom részleteket adja hozzá, megőrizve a rendszer hatékonyságát.
- A modell felülmúlta a legfőbb riválisokat, köztük a Seedance, a Hailuo, a Kling és a Sora modelljeit esztétikában, szövegmegjelenítésben, kameravezérlésben és egyéb területeken.
- 66%-kal több képen és 83%-kal több videón képezték ki, mint a Wan2.1-et, ami lehetővé teszi az összetett mozgások, jelenetek és az esztétika hatékonyabb kezelését.
- A felhasználók finomhangolhatják a videók olyan aspektusait, mint a világítás, a színek és a kameraállások, ezzel nagyobb filmes kontrollt biztosítva a végeredmény felett.
Miért fontos?
Kína nyílt forráskódú offenzívája nem csak a fenti GLM-4.5-höz hasonló nyelvi modellekre vonatkozik – a teljes AI eszköztárra kiterjed. Miközben a nyugati laboratóriumok a zárt és a nyílt forráskódú modellekről vitatkoznak, a kínai laborok egy párhuzamos nyílt AI ökoszisztémát építenek, amelynek hálózati hatásai meghatározhatják, hogy a fejlesztők világszerte melyik utat választják.