MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az Alibaba Qwen3.5 modelljei lekörözik a nagyobb riválisokat a látás és nyelv benchmark teszteken

A Qwen3.5 nyílt súlyú (open-weights) látás-nyelv modellcsalád lenyűgöző nagy modelleket, valamint egy olyan kisebb modellt is tartalmaz, amely túlszárnyal egy nálánál tízszer nagyobb OpenAI nyílt súlyú modellt. Az Alibaba nyolc nyílt súlyú látás-nyelv modellből álló Qwen3.5 családot bocsátott ki. A legnagyobbak a Qwen3.5-397B-A17B (397 milliárd paraméter, tokenenként 17 milliárd aktív), amely nyílt súlyokkal érhető el, valamint a Qwen3.5-Plus, a Qwen3.5-397B-A17B hosztolt verziója, amely nagyobb bemeneti kontextussal és beépített, autonóm módon választható eszközökkel támogatja az ágens-alapú alkalmazásokat. Négy közepes méretű modell közé tartozik a nyílt súlyú Qwen3.5-122B-A10B, a Qwen3.5-35B-A3B és a Qwen3.5-27B, kiegészülve a Qwen3.5-Flash-sel, amely a Qwen3.5-53B-A3B ágens-alkalmazásokra felkészített hosztolt változata. A kisebb Qwen3.5 családtagok közül — Qwen3.5-9B, Qwen3.5-4B, Qwen3.5-2B és Qwen3.5-0.8B — a 9 milliárdos és 4 milliárdos paraméterszámú variánsok a jóval nagyobb modellek teljesítményével vetekszenek. Az Alibaba kevés információt osztott meg a Qwen3.5 család felépítéséről. A Qwen3.5 a Qwen3-Next architektúrára épül, amely a Qwen3-30B-A3B architektúra és tanítási módszer egy változata, a tanítási hatékonyság és stabilitás növelése érdekében módosítva. A Qwen3.5-öt „számottevően nagyobb mennyiségű vizuális-szöveges tokenen” tanították, mint a Qwen3-at. Röviddel a Qwen3 család bevezetése után Lin Junyang, a csapat technikai vezetője és a modellek egyik fő tervezője, váratlanul lemondott az X közösségi hálón közzétett „Isten veled, szeretett qwen-em” bejegyzéssel. A 36kr.com kínai technológiai hírportál ezt követően arról számolt be, hogy a csapat további négy tagja is távozott a nyomában. Egy januári nyilvános szereplésen Lin azt mondta: „Végletekig feszítettek vagyunk — a szállítási igények teljesítése felemészti az erőforrásaink nagy részét” — jelentette a Bloomberg. Az Alibaba válaszul a Qwen projektet a felsővezetés szorosabb felügyelete alá helyezte, és további befektetéseket ígért az AI fejlesztésbe.
Miért fontos?

Minden Qwen3.5 modell kimagasló látási teljesítményt nyújt a méretéhez képest, de a kisebb modellek — különösen a Qwen3.5-9B — elég kicsik ahhoz, hogy fogyasztói laptopokon fussanak, miközben olyan teljesítményt nyújtanak, amelyhez korábban egy 80 GB-os GPU-ra, például egy Nvidia H100-asra volt szükség. ---

Eredeti forrás megtekintése (angol) →