MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Kutatók rájöttek, hogy a promptok megismétlése javítja az LLM-ek teljesítményét

A Google kutatói felfedezték, hogy ha a lekérdezést egyszerűen kétszer egymás után küldjük el (közvetlenül egymás után, elválasztó nélkül), az 70 benchmark tesztből 47-ben jobb eredményt hoz, és egyetlen esetben sem rontja a teljesítményt. Mivel a nagy nyelvi modellek (LLM-ek) balról jobbra dolgozzák fel a tokeneket, a korai tokenek nem „látják”, mi következik később. A prompt megismétlése lehetővé teszi, hogy a lekérdezés minden része kapcsolódjon az összes többihez – lényegében egy második esélyt adva a modellnek a teljes kérés megértésére, még mielőtt generálni kezdené a választ.
Miért fontos?

Ez egy pofonegyszerű trükk, amely észrevétlenül javítja az AI teljesítményét a Gemini, GPT, Claude és Deepseek modelleknél, nulla extra késleltetés és plusz kimeneti tokenek nélkül. Lehetővé teszi a modell számára, hogy másodszor is átgondolja a teljes kérést, mielőtt válaszolna. ---

Eredeti forrás megtekintése (angol) →