ADATOK
A Yuan 3.0 Ultra új SOTA szintet ért el a visszakeresési és összegzési feladatokban
A Yuan Lab AI kiadta a Yuan 3.0 Ultra-t, egy nyílt súlyozású Mixture-of-Experts modellt, amely összesen egybillió paraméterrel és 68,8 milliárd aktivált paraméterrel rendelkezik. A modell bevezeti a rétegszintű adaptív szakértői ritkítást (Layer-Adaptive Expert Pruning - LAEP), amely a tanítás utáni helyett a tanítás közben azonosítja és távolítja el a kevéssé kihasznált szakértőket, így a teljes paraméterszámot 1,5 billióról egybillióra csökkenti a teljesítmény megőrzése mellett. Egy szakértő-újrarendező algoritmus kiegyensúlyozza a token-terhelést a GPU-k között a variancia minimalizálása érdekében, amivel GPU-nként 92,60 TFLOPS-ot ér el az alapmodell 62,14-es értékéhez képest, ami 49 százalékos hatékonyságjavulást jelent a ritkítás és az újrarendezés között megosztva. A modell egy felülvizsgált reflexió-gátló jutalmazási mechanizmust (Revised Reflection Inhibition Reward Mechanism) is használ a megerősítéses tanulás során, hogy megakadályozza az egyszerű feladatokon való „túlgondolkodást”, ami 16,33 százalékos pontosságnövekedést és 14,38 százalékos kimeneti hossza-csökkenést eredményezett. A Yuan 3.0 Ultra piacvezető (state-of-the-art) eredményeket ér el az olyan vállalati benchmarkokon, mint a Docmatix és a ChatRAG.
- Egybillió teljes paraméter 68,8 milliárd aktivált paraméterrel
- Bevezeti a rétegszintű adaptív szakértői ritkítást (LAEP) a tanítás során
- 49%-os hatékonyságjavulást ért el a ritkítás és a szakértői újrarendezés révén
- Felülvizsgált reflexió-gátló jutalmazási mechanizmust használ a „túlgondolkodás” megelőzésére
- Felülmúlja a GPT-5.2-t és a Kimi K2.5-öt a Docmatix és ChatRAG benchmarkokon