MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Apró, 8B paraméteres LLM hozza a GPT-4 matematikai teljesítményét

A Shanghai AI Laboratory kutatói egy új, MCT Self-Refine nevű algoritmust fejlesztettek ki, amely lehetővé tette egy viszonylag kicsi, 8B paraméteres modell számára, hogy GPT-4 szintű teljesítményt érjen el összetett matematikai feladatokban.
Miért fontos?

A kutatás rávilágít, hogy a matematikai képességek drasztikus méretnövelés nélkül is javíthatók – a GPT-4 szintű teljesítmény elérése egy 200-szor kevesebb paraméterrel rendelkező modellel lenyűgöző eredmény. Ha ez a megközelítés hatékonyabb utat kínál a fejlett logikai következtetéshez, az a modellgyorsítás új hullámának kezdetét jelentheti. ---

Eredeti forrás megtekintése (angol) →