AI VIDEÓ
Az LTX-2 open-source videómodell demokratizálja a filmkészítést lakossági hardvereken
Az LTX-2 az első számú open-source videómodell, amelyet a Lightricks csapata épített. Két hónap alatt 4,5 millió alkalommal töltötték le, helyben futtatható lakossági hardvereken, és olyan videókat generál, amelyek értik a rétegeket, a hangot, a szájmozgás-szinkront (lip sync), és még a meglévő felvételek részeinek cseréjét is. A csapat kiadta az LTX Desktopot is, egy teljes nem-lineáris videószerkesztőt, amelyet egy kis csapat mindössze 10 nap alatt „vibe-kódolt” és csiszolt készre, és teljes egészében helyi GPU-kon fut.
- Az LTX-2 a leggyorsabb és legtöbbet letöltött open-source videómodell, amelyet azután fejlesztettek ki, hogy a Stability AI fókuszt váltott.
- Az LTX Desktop lehetővé teszi a nem-lineáris szerkesztést, és teljes egészében helyi gépeken fut, akár 8 GB VRAM-mal.
- A modell támogatja az audio-to-video funkciót, a kulcskeret-interpolációt és a felvételek részleges cseréjét az újravételekhez.
- Animációs stúdiók finomhangolják a modellt 10 perces felvételeken, hogy egyetlen nap alatt kiváltsák a teljes renderelési folyamatot.
- A modell egy „distillációs trükköt” alkalmaz, amely lehetővé teszi, hogy az AI modellek kisebbek és hatékonyabbak legyenek a minőség javulása mellett.
- Az ütemtervben szerepel a végtelen hosszúságú, valós idejű videógenerálás olyan alkalmazásokhoz, mint az interaktív oktatás.
Miért fontos?
A filmkészítő eszközök ezen demokratizálódása azt jelenti, hogy a kiváló minőségű videógyártáshoz már nincs szükség hatalmas stúdióköltségvetésre vagy drága felhőalapú API-kra, így az alkotók saját gépeiken futtathatnak erőteljes modelleket.