MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A DeepSeek-Coder nyílt forráskódú modelljei felülmúlják a GPT-3.5-öt a kódolási teszteken

A DeepSeek-AI csapata kiadta a DeepSeek-Coder-t, egy nyílt forráskódú, kódközpontú modellsorozatot 1,3 és 33 milliárd paraméter közötti méretekben. Ezeket a modelleket a nulláról képezték egy hatalmas, 2 billió tokenes adatkészleten, amelynek 87%-a különféle forráskódokból áll. A 33 milliárd paraméteres modell különösen figyelemre méltó, mivel a legfontosabb kódolási teszteken (pl. HumanEval és MBPP) túlszárnyalja a GPT-3.5 Turbo-t, így erőteljes alternatívát kínál a védett modellekkel szemben.
Miért fontos?

Az olyan szakosodott, nyílt forráskódú modellek felemelkedése, amelyek a szoftverfejlesztéshez hasonló területeken felveszik a versenyt a védett óriásokkal, csökkenti a költségeket és a belépési korlátokat a fejlesztők számára világszerte.

Eredeti forrás megtekintése (angol) →