MINDENKI ERRŐL BESZÉL
A DeepSeek AI nyílt forráskóddal éri el az OpenAI o1 érvelési teljesítményét
A DeepSeek AI éppen most reprodukálta az OpenAI módszerét, amellyel a modelleket gondolkodásra késztetik a válaszadás előtt. Az eredményül kapott modellek bizonyos benchmarkokon még az o1 modelleket is megverték. A kínai AI cégek olyan open-source modelleket dobnak piacra, amelyek a GPU-korlátozások ellenére is felveszik a versenyt a nyugati (zárt vagy nyílt) társaikkal.
A DeepSeek új R1-Lite modellje hozza az o1-preview teljesítményét az AIME és MATH benchmarkokon – mindkét teszt a komplex érvelési és matematikai képességeket méri. Ami még fontosabb, az o1-hez hasonlóan valós időben mutatja a gondolkodási folyamatát, és a teljesítmény javul, ahogy a modell több időt tölt érveléssel. Az o1-gyel ellentétben azonban a DeepSeek azt tervezi, hogy ezt teljesen open-source-szá teszi.
- A DeepSeek R1-Lite megegyezik az OpenAI o1-preview teljesítményével az összetett matematikai és érvelési benchmarkokon.
- A modell valós idejű „gondolkodási” kijelzéssel rendelkezik, ahol a teljesítmény az érvelési idővel arányosan nő.
- A fejlesztők szándéka, hogy a modellt open-source alternatívaként tegyék közzé a zárt érvelési modellekkel szemben.
- A kínai modellek, mint a Qwen (Alibaba) és a DeepSeek, elsődleges opciókként emelkednek ki a helyi AI telepítésekhez.
Miért fontos?
Ha olyan webes termékeket használ, mint a ChatGPT, a Claude, vagy azok felhőalapú API-jait használja, maradjon náluk. A termék- és fejlesztői élmény megéri. De ha egyáltalán gondolkodik a helyi telepítésen (local deployment), a DeepSeek és a Qwen modelleknek (az Alibabától) a lista elején kell lenniük.