PROMPTING TECHNIKÁK
Új prompting technikák jelentősen növelik a pontosságot és csökkentik a modellek hallucinációit
Szeptember az innováció hónapja volt a nagy nyelvi modellek (LLM) teljesítményének fokozását célzó kutatásokban, új prompting stratégiák révén. Ezek az előrelépések megbízhatóbb, hitelesebb AI rendszerek előtt nyitják meg az utat azáltal, hogy magukat a modelleket használják fel kimeneteik optimalizálására és saját logikai menetük ellenőrzésére, túllépve a hagyományos, ember által tervezett promptokon a komplex feladatok nagyobb precizitása érdekében.
- A DeepMind javasolta az OPRO módszert, amely LLM-eket használ olyan promptok létrehozására, amelyek akár 9%-kal javították a pontosságot
- A Meta bemutatta a Chain-of-Verification (CoVe) eljárást, amely segíti a modelleket a válaszok önellenőrzésében és a hallucinációk csökkentésében
- A Salesforce és az MIT kifejlesztette a Chain of Density (CoD) módszert a GPT-4 tartalomösszegző képességeinek javítására
- Az Anthropic útmutatót tett közzé a hosszú kontextusablakkal rendelkező LLM-ek teljesítményének maximalizálásához
- A Microsoft és a Tsinghua Egyetem létrehozta az EvoPromptot, amely evolúciós algoritmusokat kombinál LLM-ekkel a prompt-optimalizáláshoz
Miért fontos?
Ezek az előrelépések kulcsfontosságúak az olyan megbízhatóbb AI rendszerek létrehozásához, amelyek éles környezetben is bevethetők, ahol a pontosság alapvető követelmény. ---