A Microsoft Research optimalizált prompting stratégiákat mutatott be az érvelő modellekhez
A Microsoft új kutatása rávilágít, hogy az olyan érvelő modellek mesterfogásaihoz, mint az OpenAI o1 és o3-mini modelljei, a hagyományos GPT-promptolástól eltérő megközelítésre van szükség. Ahelyett, hogy szabványos „chain-of-thought” vagy „lépésről lépésre” típusú utasításokat használnánk, ezek a modellek minimális beavatkozás mellett teljesítenek jobban. A kutatás szerint mivel ezek a modellek beépített érvelőmotorral rendelkeznek, a túl sok utasítás valójában gátolhatja a teljesítményüket.
- Csak a lényeges tényeket és kontextust adjuk meg, amelyekkel a modell esetleg még nem rendelkezik.
- Fogalmazzuk meg a kívánt célt világosan és tömören, anélkül, hogy túlzottan részleteznénk a folyamatot.
- Már az elején határozzuk meg a kívánt kimeneti formátumot.
- Kerüljük a hagyományos prompting „trükköket”, mint például a few-shot példákat vagy a manuális, lépésről lépésre történő útmutatókat.
- Hagyjuk, hogy a belső érvelőmotor önállóan kezelje az összetettséget a tisztább eredmények érdekében.
Miért fontos?
Ahogy az AI-modellek egyre alkalmasabbá válnak a belső logikai műveletekre, a felhasználó szerepe megváltozik: a „modell gondolkodásának tanítása” helyett a „legmegfelelőbb adatok biztosítása” válik fontossá. ---