AI MODELLEK
Az Alibaba kiadta a Babel többnyelvű modelleket, amelyek a globális népesség 90%-át lefedik
Az Alibaba bemutatta a „Babel” nevezetű, két új, nyílt hozzáférésű nyelvi modellt, amelyeket 25 nyelv támogatására terveztek, és összesen mintegy 7 milliárd embert érnek el világszerte. A modellek egy 9 milliárd paraméteres változatban érkeznek a hatékony inference és helyi telepítés érdekében, valamint egy nagyobb, 83 milliárdos változatban, amely új mércét állít a nyílt többnyelvű LLM-ek számára. Az Alibaba az adat-tisztítási folyamatok optimalizálására összpontosított, és LLM-alapú szűrést alkalmazott a különböző globális nyelvek tanító készleteinek magas minősége érdekében.
- 25 nyelvet támogat, köztük az angolt, kínait, hindit, spanyolt, arabot, szuahélit, oroszt és vietnámit.
- A Babel-9B versenyképes az MMLU, XNLI és Flores-200 teszteken a Gemma2-9B és Llama3.1-8B modellekkel szemben.
- A Babel-83B jól teljesít a zárt forráskódú modellekhez, például a GPT-4o-hoz és a Llama3.1-70B-hez képest.
- A nyelveket a teljes beszélő népesség alapján választották ki a globális elérhetőség maximalizálása érdekében.
- A modellek elérhetőek nyílt kutatásra és helyi telepítésre a HuggingFace felületén.
Miért fontos?
A fordítómodellek univerzális interfészként működhetnek. Ha az emberek ezeket a rendszereket szabványosítják, az finom, másodlagos kulturális hatásokat válthat ki. Ahogy az amerikai cégek az angol nyelvre és a nyugati kultúrára optimalizálják rendszereiket, a kínai fejlesztésű többnyelvű modellek finoman más kulturális árnyalatokat és perspektívákat közvetíthetnek fordítási és érvelési képességeiken keresztül. ---