AI MODELLEK
A SaluteDevices kiadta az orosz nyelvű feladatokra optimalizált GigaChat LLM modellcsaládot
Az orosz SaluteDevices technológiai vállalat közzétette a GigaChat részleteit, amely egy kifejezetten az orosz nyelvű feladatokban való kiválóságra épített nyílt és zárt súlyú modellcsalád. A modellek a mixture of experts technikán alapulnak (hasonlóan a DeepSeek-hez, Llama-hoz stb.), a nyílt súlyú modellek pedig jelentősen gyengébb pontszámokat érnek el, mint a Qwen 2.5 vagy a Llama 3.1. Eközben a zárt forráskódú modellek pontszámai meglepően magasnak tűnnek – például a HumanEval kódolási pontszám 0,378-ról a nyílt súlyú modellnél 0,871-re ugrik a zárt forráskódú GigaChat2 MAX modellnél –, ami miatt néhány kutató gyanakvóvá vált a zárt súlyú modellek eredményeivel kapcsolatban.
- A hatékonyság érdekében Mixture of Experts (MoE) architektúrára épül
- A nyílt súlyú modellek jelentősen alacsonyabb teljesítményt mutatnak, mint a Llama 3.1
- A GigaChat 2 Max a hatodik helyen áll az orosz-specifikus MERA benchmarkon
- Olyan globális vezetők mögött teljesít, mint a Claude 3.7 Sonnet és a Gemini 1.5 Pro
- A zárt súlyú modell valószínűtlenül nagy ugrást mutat a kódolási pontszámokban
Miért fontos?
A GigaChat pontszámai azt mutatják, hogy az AI élvonala továbbra is éles verseny az USA és Kína között; ha a GigaChat reprezentálja a szélesebb orosz LLM ökoszisztémát, akkor Oroszország nem lesz versenyképes az élvonalban, sőt, még a kommoditizált kis nyílt súlyú modellek terén is nehézségei lesznek a versenyben maradással. ---