META
A Meta kiadta a Segment Anything Model 2-t a valós idejű videós követéshez
A Meta bemutatta a Segment Anything Model 2-t (SAM 2), egy fejlett AI modellt, amely képes azonosítani és követni az objektumokat a videóképkockákon keresztül valós időben, ami jelentős ugrást jelent a videós AI területén.
- A SAM 2 kiterjeszti a Meta korábbi képszegmentálási képességeit a videókra, megoldást kínálva olyan kihívásokra, mint a gyors mozgás és az objektumok kitakarása.
- A modell képes bármilyen objektumot szegmentálni egy videóban, és néhány kattintással kivágásokat készíteni – egy ingyenes demó is elérhető a kipróbáláshoz.
- A Meta emellett open-source-szá teszi a modellt, és közzétesz egy hatalmas, 50 000 videóból álló annotált adatbázist is, amelyet a tanításhoz használtak.
- A lehetséges alkalmazási területek közé tartozik a videószerkesztés, a kevert valóság élmények és a tudományos kutatás.
Miért fontos?
A SAM 2 képessége az objektumok valós idejű követésére az olyan összetett videószerkesztési feladatokat, mint az objektumok eltávolítása vagy cseréje, egyetlen kattintássá egyszerűsítheti. A múlt heti Llama 3.1 és most a SAM 2 megjelenésével a Meta folytatja stratégiáját: hatalmas AI áttöréseket fejleszt, miközben mindent nyitottá és ingyenessé tesz a használat számára. ---