MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az RWKV kiadta az Eagle 7B nem-transzformer modellt, amely a SOTA teljesítménnyel vetekszik

Az RWKV megjelentette az Eagle 7B modellt, amely egy nem-transzformer alapú, többnyelvű nyelvi modell, és kihívást intéz a transzformer architektúrák dominanciája ellen. Ez a modell teljesítményben felveszi a versenyt a nagyobb, transzformer alapú SOTA modellekkel, miközben jelentősen gyorsabb és olcsóbb a futtatása.
Eredeti forrás megtekintése (angol) →