MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Mistral kiadta a Mixtral-8x7B Mixture of Experts modellt, amely veri a GPT-3.5-öt

A Mistral AI közzétett egy kereskedelmi célokra is szabadon felhasználható Mixture of Experts (MoE) modellt, amely jelentősen átrendezte a nyílt forráskódú AI piacot. A modell bemutatásával egy időben a Mistral 385 millió euró friss tőkét vont be és elindította új platformját, ezzel az OpenAI, a Google és az Anthropic komoly európai versenytársává lépett elő.
Eredeti forrás megtekintése (angol) →