AI KUTATÁS
A Mistral AI elindította Codestral Mamba és Mathstral névre keresztelt specializált open-source modelljeit
A Mistral AI épp most tette közzé a Codestral Mamba és Mathstral modelleket. Ez a két új, kisméretű és specializált nyelvi modell kategóriájában a legjobb (state-of-the-art) teljesítményt nyújtja az open-source modellek között a legfontosabb benchmark teszteken.
- A Codestral Mamba egy 7B paraméteres modell, amely gyors következtetést (inference) és fejlett kódolási képességeket kínál, lekörözve az olyan open-source riválisokat, mint a CodeGemma vagy a CodeLlama.
- A modell akár 256 ezer token hosszúságú kontextust is képes kezelni (ami a duplája a GPT-4o kapacitásának), így ideális nagy, komplex kódolási feladatokhoz és lokális fejlesztéshez.
- A szintén 7B paraméteres Mathstral modell kiemelkedő (SOTA) teljesítményt ér el a matematikai érvelési teszteken, mint például a MATH (56,6%) és az MMLU (63,47%).
- Mindkét modellt Apache 2.0 licenc alatt adták ki, ami lehetővé teszi a szabad felhasználást, módosítást és terjesztést – elérhetőek a Mistral API-ján és a Hugging Face-en keresztül is.
Miért fontos?
A Mistral továbbra is innovatív megközelítésekkel kavarja fel az AI piacot – ezekkel a specializált modellekkel más riválisokhoz csatlakozva bizonyítják be, hogy a nagyobb AI rendszerek nem feltétlenül jobbak minden téren. A jövőben valószínűleg minden szektornak meglesz a saját, hiper-specifikus és rendkívül hatékony open-source modellje. ---