FEBRUÁR
A Meta LLaMA modellje felpezsdíti az open-source LLM közösséget
A Meta megjelentette a LLaMA-t, egy 65 milliárd paraméteres nyílt forráskódú Large Language Modellt, amelyet 1,4 billió tokenen tanítottak. A modell kisebb mérete ellenére a legtöbb benchmarkon felülmúlta a nagyobb, legkorszerűbb LLM-eket, mint például a GPT-3-at és a PaLM-540B-t. Ez a megjelenés lehetővé tette olyan származtatott modellek fejlesztését, mint az Alpaca és a Vicuna, elindítva egy éles versenyt az open-source közösségen belül.
- 65 milliárd paraméteres modell, amelyet 1,4 billió tokenen tanítottak
- A legfontosabb benchmarkokon lekörözte a GPT-3-at és a PaLM-540B-t
- Közvetlenül lehetővé tette az Alpaca és Vicuna modellek létrehozását
- Jelzi a nagy teljesítményű open-source LLM-ek korszakának kezdetét
Miért fontos?
A LLaMA bebizonyította, hogy a kisebb, hatékonyabb modellek is képesek felvenni a versenyt a technológiai óriások hatalmas, zárt rendszereivel, így az AI kutatások fókuszát a hatékonyság és a hozzáférhetőség felé terelte. ---