MICROSOFT
A Microsoft kiadta a Phi-4 kisméretű nyelvi modellt kiemelkedő matematikai logikával
A Microsoft megjelentette a Phi-4-et, egy 14 milliárd paraméteres kisméretű nyelvi modellt, amely a drasztikus méretkülönbség ellenére olyan hatalmas versenytársakat is lepipál a matematikai érvelés terén, mint a GPT-4o és a Gemini Pro 1.5.
- A Phi-4 több matematikai és komplex logikai benchmark teszten is jobban teljesít, mint az olyan modellek, mint a Gemini Pro 1.5, miközben azok méretének csak töredéke.
- A Phi-4 még a „tanító” modelljét, a GPT-4o-t is felülmúlja a diplomás szintű STEM Q&A feladatokban és a matematikai versenyfeladatokban.
- A Microsoft a Phi-4-et elsősorban szintetikus adatokon tanította, AI-t használva körülbelül 400 milliárd tokennyi kiváló minőségű tanítóanyag generálására és validálására.
- A modell egy továbbfejlesztett mechanizmussal is rendelkezik, amely akár 4000 token hosszú bemeneteket is képes feldolgozni, ami a Phi-3 kapacitásának duplája.
- A Phi-4 korlátozott kutatói előnézetként érhető el az Azure AI Foundry-n, a szélesebb körű megjelenést pedig a Hugging Face platformra tervezik.
Miért fontos?
A Microsoft Phi modelljei továbbra is megkérdőjelezik a „minél nagyobb, annál jobb” trendet az AI-ban, megmutatva, hogy a kisebb modellek is felvehetik a versenyt a nagyobbakkal, vagy akár le is győzhetik azokat – különösen a speciális területeken. Az AI jövője nem feltétlenül a nyers méretről, hanem az okosabb architektúráról és tanítási módszerekről szólhat, amelyek kevesebb erőforrással érnek el többet. ---