MACHINE LEARNING KUTATÁS
A rekurzív nyelvi modellek a kontextusablakon túlra bővítik a feldolgozást
Hosszú kontextusok feldolgozásakor a nagy nyelvi modellek gyakran elveszítik a fonalat a részletekben, vagy értelmetlen szövegeket kezdenek gyártani. Kutatók csökkentették ezeket a hatásokat a kontextus külső kezelésével. Az MIT kutatói, Alex L. Zhang, Tim Kraska és Omar Khattab kifejlesztették a rekurzív nyelvi modelleket (Recursive Language Models - RLM), amelyek a könyvekben, webes keresésekben és kódbázisokban előforduló hosszú promptokat úgy dolgozzák fel, hogy a promptokat egy külső környezetbe helyezik át, és programozottan kezelik őket.
Egy nyelvi modell képes feldolgozni hosszú bemeneteket – beleértve a kontextusablakánál nagyobbakat is –, ha a bemeneti szöveget perzisztens változóként kezeli egy külső programozási környezetben. A modell kódot írhat, hogy csak a szükséges szövegrészleteket hívja le. Például kulcsszavakat kereshet, és lekérheti a körülöttük lévő bekezdéseket. A kód iteratív írása lehetővé teszi a modell számára, hogy a hosszú kontextust igénylő feladatokat részfeladatokra bontsa, mielőtt egészként közelítené meg őket. Az RLM-ek Python kód futtatásával olvassák és manipulálják a feladatokat egy egyszerű "read-evaluate-print loop" (REPL) környezetben. A modell generált egy programot, amely saját magának új példányait (almodelleket) hívta meg az egyes részfeladatok kezelésére, majd az egyes példányok kimenetét visszatáplálta a főmodellbe.
- A szerzők Qwen3-8B, GPT-5 és Qwen3-Coder-480B alapú RLM rendszereket építettek egyedi ágens-keretrendszerek használatával.
- Az RLM rendszerek a feladatadatokat változóként töltik be egy Python-értelmezőbe, ahelyett, hogy közvetlenül a modellbe táplálnák őket.
- Egy rendszer-prompt utasítja a főmodellt, hogy generáljon Python kódot a REPL környezettel való interakcióhoz és a promptok logikai darabokra bontásához.
- Az almodellek feldolgozzák a specifikus darabokat, és visszaküldik az eredményeket a főmodellnek a végső kimenet összeállításához.
- A BrowseComp+ benchmarkon az RLM-GPT-5 91,3 százalékos pontosságot ért el, jelentősen túlszárnyalva azokat az alapmodelleket, amelyek elérték a kontextuskorlátaikat.
- Az RLM-GPT-5 körülbelül 50 százalékos pontosságot tartott fenn még 1 millió tokennyi kontextus mellett is az OOLONG-PAIRS érvelési benchmarkon.
- Az RLM-Qwen3-8B rendszer minden hosszú kontextusú feladatban felülmúlta az alapmodellt, annak ellenére, hogy sokkal kisebb kontextusablakkal rendelkezik.
Miért fontos?
A korábbi megközelítések gyakran visszakereséssel (retrieval) vagy összegzéssel kezelik a hosszú kontextusokat, ami kritikus részletek elvesztésével járhat. A feladatok rekurzív alhívásokra bontásával a modell magas precizitást képes fenntartani több tokenen keresztül is. Ez a módszer tervrajzot ad olyan ágensek építéséhez, amelyek koherensen képesek érvelni olyan tokenmennyiségek felett, amelyek messze meghaladják a modell bemeneti korlátját.