GÉPI TANULÁSI KUTATÁS
Az Alibaba Qwen3.5 modelljei lekörözik a nagyobb riválisokat a látás és nyelv benchmark teszteken
A Qwen3.5 nyílt súlyú (open-weights) látás-nyelv modellcsalád lenyűgöző nagy modelleket, valamint egy olyan kisebb modellt is tartalmaz, amely túlszárnyal egy nálánál tízszer nagyobb OpenAI nyílt súlyú modellt. Az Alibaba nyolc nyílt súlyú látás-nyelv modellből álló Qwen3.5 családot bocsátott ki. A legnagyobbak a Qwen3.5-397B-A17B (397 milliárd paraméter, tokenenként 17 milliárd aktív), amely nyílt súlyokkal érhető el, valamint a Qwen3.5-Plus, a Qwen3.5-397B-A17B hosztolt verziója, amely nagyobb bemeneti kontextussal és beépített, autonóm módon választható eszközökkel támogatja az ágens-alapú alkalmazásokat. Négy közepes méretű modell közé tartozik a nyílt súlyú Qwen3.5-122B-A10B, a Qwen3.5-35B-A3B és a Qwen3.5-27B, kiegészülve a Qwen3.5-Flash-sel, amely a Qwen3.5-53B-A3B ágens-alkalmazásokra felkészített hosztolt változata. A kisebb Qwen3.5 családtagok közül — Qwen3.5-9B, Qwen3.5-4B, Qwen3.5-2B és Qwen3.5-0.8B — a 9 milliárdos és 4 milliárdos paraméterszámú variánsok a jóval nagyobb modellek teljesítményével vetekszenek.
Az Alibaba kevés információt osztott meg a Qwen3.5 család felépítéséről. A Qwen3.5 a Qwen3-Next architektúrára épül, amely a Qwen3-30B-A3B architektúra és tanítási módszer egy változata, a tanítási hatékonyság és stabilitás növelése érdekében módosítva. A Qwen3.5-öt „számottevően nagyobb mennyiségű vizuális-szöveges tokenen” tanították, mint a Qwen3-at.
Röviddel a Qwen3 család bevezetése után Lin Junyang, a csapat technikai vezetője és a modellek egyik fő tervezője, váratlanul lemondott az X közösségi hálón közzétett „Isten veled, szeretett qwen-em” bejegyzéssel. A 36kr.com kínai technológiai hírportál ezt követően arról számolt be, hogy a csapat további négy tagja is távozott a nyomában. Egy januári nyilvános szereplésen Lin azt mondta: „Végletekig feszítettek vagyunk — a szállítási igények teljesítése felemészti az erőforrásaink nagy részét” — jelentette a Bloomberg. Az Alibaba válaszul a Qwen projektet a felsővezetés szorosabb felügyelete alá helyezte, és további befektetéseket ígért az AI fejlesztésbe.
- Bemenet/kimenet: Szöveg, kép és videó bemenet támogatása akár 1 millió tokenes kontextusablakkal és 64 000 tokenes szöveges kimenettel.
- Architektúra: Mixture-of-experts vagy sűrű transformer kialakítást alkalmaz vegyes figyelem (mixed attention) és Gated DeltaNet rétegekkel.
- Teljesítmény: A Qwen3.5-9B számos nyelvi feladatban túlszárnyalja a 120 milliárd paraméteres gpt-oss-120B modellt.
- Látás benchmarkok: A Qwen3.5-397B-A17B 44 látás benchmarkból 28-ban felülmúlta a GPT-5.2-t, a Claude 4.5 Opus-t és a Gemini-3 Pro-t.
- Kis modellek hatékonysága: A Qwen3.5-9B és a Qwen3.5-4B a legtöbb látás benchmarkon jobban teljesített, mint a GPT-5-nano és a Gemini-2.5-Flash-Lite.
- Nyelvi benchmarkok: A Qwen3.5-122B-A10B és a Qwen3.5-27B a tesztelt nyelvi feladatok többségében megelőzte a GPT-5-minit.
- Elérhetőség: A nyílt súlyok Apache 2.0 licenc alatt érhetőek el, a hosztolt API-k pedig az Alibaba Cloud Model Studio-n keresztül.
- Funkciók: 201 nyelv támogatása, eszközhasználat, webes keresés és láncolt gondolkodás (chain-of-thought) alapú következtetés.
Miért fontos?
Minden Qwen3.5 modell kimagasló látási teljesítményt nyújt a méretéhez képest, de a kisebb modellek — különösen a Qwen3.5-9B — elég kicsik ahhoz, hogy fogyasztói laptopokon fussanak, miközben olyan teljesítményt nyújtanak, amelyhez korábban egy 80 GB-os GPU-ra, például egy Nvidia H100-asra volt szükség. ---