MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A DeepSeek AI nyílt forráskóddal éri el az OpenAI o1 érvelési teljesítményét

A DeepSeek AI éppen most reprodukálta az OpenAI módszerét, amellyel a modelleket gondolkodásra késztetik a válaszadás előtt. Az eredményül kapott modellek bizonyos benchmarkokon még az o1 modelleket is megverték. A kínai AI cégek olyan open-source modelleket dobnak piacra, amelyek a GPU-korlátozások ellenére is felveszik a versenyt a nyugati (zárt vagy nyílt) társaikkal. A DeepSeek új R1-Lite modellje hozza az o1-preview teljesítményét az AIME és MATH benchmarkokon – mindkét teszt a komplex érvelési és matematikai képességeket méri. Ami még fontosabb, az o1-hez hasonlóan valós időben mutatja a gondolkodási folyamatát, és a teljesítmény javul, ahogy a modell több időt tölt érveléssel. Az o1-gyel ellentétben azonban a DeepSeek azt tervezi, hogy ezt teljesen open-source-szá teszi.
Miért fontos?

Ha olyan webes termékeket használ, mint a ChatGPT, a Claude, vagy azok felhőalapú API-jait használja, maradjon náluk. A termék- és fejlesztői élmény megéri. De ha egyáltalán gondolkodik a helyi telepítésen (local deployment), a DeepSeek és a Qwen modelleknek (az Alibabától) a lista elején kell lenniük.

Eredeti forrás megtekintése (angol) →