MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Kimi Linear modell fix méretű memóriát használ a hatszor gyorsabb generálás érdekében

A Kimi Linear egy új AI modell, amely jelentős architektúrális váltást hoz a hagyományos attention rétegek hatékony lineáris attention-re való lecserélésével. Míg a hagyományos modellek lassabbá és memóriaigényesebbé válnak a szöveghossz növekedésével, a lineáris attention állandó memóriahasználatot és sebességet tart fenn a hossztól függetlenül. Ez lehetővé teszi a modell számára, hogy egymillió tokenes kontextust érjen el – ami nagyjából 750 000 szót jelent –, miközben 75%-kal csökkenti a memóriafogyasztást és hatszorosára gyorsítja a szöveggenerálást.
Miért fontos?

A kontextusablakok skálázása hagyományosan drága és lassú volt. Ez a fejlesztés elérhetőbbé és praktikusabbá teszi a nagy sebességű, hosszú kontextusú AI-t a vállalati dokumentumfeldolgozás számára. ---

Eredeti forrás megtekintése (angol) →