AI KUTATÁS
A Microsoft kiadta a nagyobb versenytársakat is leköröző Phi-3.5-MoE modellt
A Microsoft megjelentette a Phi-3.5-MoE modellt, egy fejlett AI modellt, amely vetekszik a sokkal nagyobb modellek érvelési képességeivel, miközben megőrzi kompakt és hatékony architektúráját.
- A Phi-3.5-MoE egy új mixture-of-experts (MoE) megközelítést alkalmaz, amely a számítási kapacitás megtakarítása érdekében szelektíven csak a modell legrelevánsabb részeit aktiválja minden egyes feladathoz.
- Az új modell kiválóan érti és követi az összetett utasításokat, és egyetlen promptban akár ~125 000 szót is képes kezelni.
- A közvetlen összehasonlító tesztekben a Phi-3.5-MoE felülmúlta az olyan népszerű modelleket, mint a Meta Llama 3 8B és a Google Gemma 2 9B, de elmaradt az OpenAI GPT-4o mini modelljétől.
- A Microsoft a modellt nyílt forráskódú MIT licenc alatt tette elérhetővé a Hugging Face platformon.
Miért fontos?
Miközben a mainstream média a legfejlettebb nagy nyelvi modellekre koncentrál, a technológiai óriások között egy másik verseny is zajlik a legokosabb, leggyorsabb és legkisebb AI-ért. Az olyan áttörések, mint a Phi-3.5-MoE, megnyitják az utat azelőtt, hogy a fejlett AI modellek közvetlenül és privát módon fussanak a mobileszközeinken. ---