MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az Arcee AI elindította a Trinity Large 400B Sparse MoE nyílt modellt

A Trinity Large egy 400 milliárd paraméteres sparse MoE (Mixture of Experts) modell, amely 2-3-szor gyorsabb a versenytársainál, mivel tokenenként csak 13 milliárd paramétert aktivál. 17 billió tokenen tanították 20 millió dollárból, és olyan élvonalbeli kódolási és érvelési képességeket kínál, amelyeket a felhasználók maguk is futtathatnak az Apache 2.0 licenc alatt.
Eredeti forrás megtekintése (angol) →