ADATOK
A Qwen3.5 kis modelljei utolérik vagy legyőzik a nagyobb OpenAI versenytársakat
Az Alibaba kiadta a Qwen3.5 Small modellsorozatot, amely négy, 0,8 és 9 milliárd paraméter közötti AI modellből áll, és standard laptopokon, valamint mobileszközökön is futtatható. A legnagyobb, a Qwen3.5-9B, 81,7-es pontszámot ért el a GPQA Diamond posztgraduális szintű érvelési tesztjén, ezzel megelőzve az OpenAI gpt-oss-120B modelljét (80,1), annak ellenére, hogy 13,5-szer kisebb nála. A multimodális feladatokban is vezet 70,1-es pontszámmal az MMMU-Pro vizuális érvelési teszten a Gemini 2.5 Flash-Lite 59,7-es eredményével szemben. (Bár lásd alább a Gemini 3.1 Flash-Lite-ot.) A Qwen kis modelljei hibrid architektúrát használnak, amely ötvözi a Gated Delta Networköket a sparse Mixture-of-Experts megoldással és a natív multimodális tanítással az early fusion révén. Ez lehetővé teszi a 4B és 9B verziók számára a videóelemzést, a dokumentum-feldolgozást és a UI-navigációs feladatokat, amelyekhez korábban tízszer nagyobb modellekre volt szükség. Az összes súly elérhető Apache 2.0 licenc alatt a Hugging Face-en és a ModelScope-on, lehetővé téve a korlátozás nélküli kereskedelmi felhasználást és testreszabást.
- A sorozat négy modellből áll, 0,8B és 9B paraméter között
- A Qwen3.5-9B 81,7-es pontszámot ért el a GPQA Diamond teszten, túlszárnyalva a nálánál 13,5-szer nagyobb modelleket
- 70,1-es eredményt ért el az MMMU-Pro vizuális érvelési rangsorban
- A hibrid architektúra ötvözi a Gated Delta Networköket a sparse Mixture-of-Experts technológiával
- Lehetővé teszi a videóelemzést és a UI-navigációt helyi eszközökön
- A súlyok Apache 2.0 licenc alatt érhetők el a Hugging Face-en és a ModelScope-on
Miért fontos?
A hatékonyságnövekedés megváltoztatja, hogy a fejlesztők milyen modellméreteket tudnak bevetni az éles ágens alapú munkafolyamatokhoz – az olyan feladatok, mint az automatizált kódolás, a vizuális munkafolyamat-automatizálás és a valós idejű edge-elemzés mostantól helyben futtathatók, felhő API-költségek és késleltetés nélkül.