NAGY NYELVI MODELLEK
A MosaicML kiadta az MPT-30B nyílt forráskódú LLM-et kereskedelmi licenccel
Ebben a hónapban tanúi lehettünk további SOTA nyílt forráskódú nyelvi modellek felemelkedésének, mint például az MPT-30B. A MosaicML bemutatja az MPT-30B-t – egy nyílt forráskódú, kereskedelmi licenccel rendelkező LLM-et 8k kontextusablakkal, amely lehetővé teszi a fejlesztők számára, hogy nagy teljesítményű modellekre építsenek tulajdonosi korlátozások nélkül.
- Kereskedelmi licencű open-source modell
- Nagy, 8k méretű kontextusablakkal rendelkezik
- State-of-the-art (SOTA) alternatívaként pozícionálva a meglévő modellekkel szemben
Miért fontos?
Az MPT-30B megjelenése erőteljes, jogilag rugalmas alapot biztosít a vállalkozások számára egyedi AI alkalmazások építéséhez anélkül, hogy drága, zárt forráskódú API-kra kellene támaszkodniuk. ---