NYÍLT FORRÁSKÓDÚ
Az AI21 elindította a Jamba modellcsaládot iparágvezető 256k-s kontextusablakkal
Az AI21 Labs bemutatta a Jamba Large és Jamba Mini modelleket, amelyek hibrid Mamba-Transformer architektúrán alapulnak. Ezek a modellek 256k-s kontextusablakkal rendelkeznek, ami jelenleg a leghosszabb a nyílt forráskódú modellek között, lehetővé téve számukra, hogy felvegyék a versenyt a Llama 3.1 és a Mistral Large teljesítményével.
- Egyedi hibrid Mamba-Transformer architektúrát alkalmaz a hatékonyság érdekében
- A nyílt modellek között a leghosszabb, 256k tokenes kontextusablakot kínálja
- Hatalmas adatkészletek és hosszú dokumentumok elemzésére tervezték
- Közvetlenül versenyez a legmodernebb zárt és nyílt forráskódú modellekkel