AI MODELLEK
Az Arcee AI elindította a Trinity Large 400B Sparse MoE nyílt modellt
A Trinity Large egy 400 milliárd paraméteres sparse MoE (Mixture of Experts) modell, amely 2-3-szor gyorsabb a versenytársainál, mivel tokenenként csak 13 milliárd paramétert aktivál. 17 billió tokenen tanították 20 millió dollárból, és olyan élvonalbeli kódolási és érvelési képességeket kínál, amelyeket a felhasználók maguk is futtathatnak az Apache 2.0 licenc alatt.
- A modell tokenenként csak 13 milliárd paramétert aktivál, így lényegesen gyorsabban fut, mint a hasonló modellek.
- Egy hatalmas, 17 billió tokenből álló adathalmazon tanították, 20 millió dolláros költségvetéssel.
- A modell élvonalbeli teljesítményt nyújt kódolási és érvelési feladatokban.
- Apache 2.0 licenc alatt jelent meg, így ingyenesen használható személyes és kereskedelmi célokra is.
- Tesztelhető az OpenRouter felületén előnézeti modellként.