MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A DeepSeek nyílt forráskódú érvelő modellje aranyérmes teljesítményt nyújtott a 2025-ös IMO-n

A DeepSeek kiadta a DeepSeek-Math-V2-t, egy nyílt forráskódú MoE modellt, amely aranyérmes szintet ért el a 2025-ös Nemzetközi Matematikai Diákolimpián (IMO), ezzel demokratizálva a korábban csak zárt rendszerekben elérhető „kutatói szintű” matematikai érvelést.
Miért fontos?

Egy olyan nyílt forráskódú modell közzétételével, amely felveszi a versenyt a Google belső fejlesztéseivel, a DeepSeek megtörte a csúcsszintű matematikai érvelés monopóliumát. Ezáltal a közösség kezébe adott egy tervrajzot olyan ágensek építéséhez, amelyek képesek saját gondolatmenetük hibáinak javítására. Ez sorsfordító lehet az olyan területeken, mint a mérnöki tudományok, ahol a hibák költségesek. ---

Eredeti forrás megtekintése (angol) →