OPEN-SOURCE
A Mistral kiadta a Mixtral-8x7B Mixture of Experts modellt, amely veri a GPT-3.5-öt
A Mistral AI közzétett egy kereskedelmi célokra is szabadon felhasználható Mixture of Experts (MoE) modellt, amely jelentősen átrendezte a nyílt forráskódú AI piacot. A modell bemutatásával egy időben a Mistral 385 millió euró friss tőkét vont be és elindította új platformját, ezzel az OpenAI, a Google és az Anthropic komoly európai versenytársává lépett elő.
- Nyolc "szakértőt" (expert) tartalmaz, egyenként 7 milliárd paraméterrel.
- A legtöbb mérésben felülmúlja az olyan elismert modelleket, mint a GPT-3.5 és a Llama 2 70B.
- Kereskedelmi szempontból megengedő licenc alatt adták ki a fejlesztői adaptáció ösztönzése érdekében.