MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az AI21 nyílt forráskódúvá tette a Jamba-t, a hibrid Mamba SSM-Transformer modellt

Az AI21 nyílt forráskódúvá tette a Jamba-t, egy úttörő modellt, amely ötvözi a Mamba Structured State Space (SSM) architektúrát a hagyományos Transformer rétegekkel. Ez a hibrid kialakítás lehetővé teszi a Jamba számára, hogy hatalmas, 256K méretű kontextusablakot támogasson, miközben jelentősen magasabb hatékonyságot kínál. A Mamba architektúra alkalmazásával a Jamba háromszoros átviteli sebességet ér el hosszú kontextusok esetén a standard Transformer modellekhez képest.
Miért fontos?

A Jamba megoldást kínál a hagyományos Transformerek hatékonysági szűk keresztmetszeteire, skálázható alternatívát nyújtva a nagyon nagy adatkészletek és hosszú dokumentumok feldolgozásához. ---

Eredeti forrás megtekintése (angol) →