MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az Nvidia kifejlesztette a ChatQA 2-t a továbbfejlesztett RAG és hosszú kontextus kezeléséhez

Az Nvidia bemutatta a ChatQA 2-t, egy Llama 3-alapú modellt, amely 128K-s kontextusablakkal rendelkezik, és kifejezetten a Retrieval-Augmented Generation (RAG) folyamatokra specializálódott. A modellt hatalmas adathalmazok hatékony kezelésére tervezték, teljesítménye a hosszú kontextusú feladatokban eléri az olyan zárt forráskódú modellekét, mint a GPT-4-Turbo.
Eredeti forrás megtekintése (angol) →