NYELVI MODELLEK
Az Nvidia kifejlesztette a ChatQA 2-t a továbbfejlesztett RAG és hosszú kontextus kezeléséhez
Az Nvidia bemutatta a ChatQA 2-t, egy Llama 3-alapú modellt, amely 128K-s kontextusablakkal rendelkezik, és kifejezetten a Retrieval-Augmented Generation (RAG) folyamatokra specializálódott. A modellt hatalmas adathalmazok hatékony kezelésére tervezték, teljesítménye a hosszú kontextusú feladatokban eléri az olyan zárt forráskódú modellekét, mint a GPT-4-Turbo.
- A Llama 3 modellarchitektúrájára épül
- 128K-s kontextusablakot tartalmaz a nagy kapacitású adatlekérdezéshez
- A hosszú kontextusú teljesítményteszteken hozza a GPT-4-Turbo szintjét
- Kifejezetten a RAG-alapú feladatokban felülmúlja a GPT-4-Turbo teljesítményét