Multimodális
A Rhymes AI kiadta az Aria-t, az első nyílt forráskódú multimodális Mixture-of-Experts modellt
A Rhymes AI megjelentette az Aria-t, az első open-source multimodális Mixture-of-Experts (MoE) modellt. Az Aria felülmúlja az olyan modelleket, mint a Llama-3.2 és a GPT-4o mini, 3,9 milliárd aktivált paraméterrel és jelentős, 64 ezer token hosszú kontextusablakkal rendelkezik.
- Az első open-source multimodális modell, amely MoE architektúrát használ
- 3,9 milliárd aktivált paraméterrel rendelkezik a nagy hatékonyság érdekében
- Támogatja a nagy, 64 ezer tokenes kontextusablakot a hosszú formátumú adatokhoz
Miért fontos?
Az Aria erőteljes, hatékony és nyílt alternatívát kínál a multimodális feladatokhoz, felvéve a versenyt a kisebb, zárt forráskódú modellekkel mind a látás, mind a nyelv terén nyújtott teljesítményben. ---