PROMPT TIP
Kutatók rájöttek, hogy a promptok megismétlése javítja az LLM-ek teljesítményét
A Google kutatói felfedezték, hogy ha a lekérdezést egyszerűen kétszer egymás után küldjük el (közvetlenül egymás után, elválasztó nélkül), az 70 benchmark tesztből 47-ben jobb eredményt hoz, és egyetlen esetben sem rontja a teljesítményt. Mivel a nagy nyelvi modellek (LLM-ek) balról jobbra dolgozzák fel a tokeneket, a korai tokenek nem „látják”, mi következik később. A prompt megismétlése lehetővé teszi, hogy a lekérdezés minden része kapcsolódjon az összes többihez – lényegében egy második esélyt adva a modellnek a teljes kérés megértésére, még mielőtt generálni kezdené a választ.
- Alapvető ismétlés: Másolja be kétszer a promptot kérdés-válasz és adatvisszakeresési feladatoknál.
- Bővebb ismétlés: Szúrja be a „Hadd ismételjem meg:” (Let me repeat that:) kifejezést a két kérés közé a hasonló javulás érdekében.
- Tripla ismétlés: Használjon három másolatot nehéz feladatokhoz, például elemek kereséséhez hosszú listákban.
- A javulás akkor a leglátványosabb, ha a kérdés és a kontextus sorrendje nem optimális.
- A Gemini 2.0 Flash-Lite pontossága a név-visszakeresésnél 21%-ról 97%-ra ugrott ezzel a módszerrel.
- Akkor működik a legjobban, ha az automatikus logikai következtetés (chain-of-thought) ki van kapcsolva.
Miért fontos?
Ez egy pofonegyszerű trükk, amely észrevétlenül javítja az AI teljesítményét a Gemini, GPT, Claude és Deepseek modelleknél, nulla extra késleltetés és plusz kimeneti tokenek nélkül. Lehetővé teszi a modell számára, hogy másodszor is átgondolja a teljes kérést, mielőtt válaszolna. ---