MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az abu-dzabi TII kiadta a Falcon-H1 hibrid Attention-Mamba modellcsaládot

Az abu-dzabi Technology Innovation Institute (TII) kutatói kiadták a Falcon-H1-et, egy nyílt súlyú nagy nyelvi modell családot, amely a szabványos transformer architektúra és bizonyos state-space modellkomponensek kombinálásával kísérletezik. Az eredmény egy olyan modellcsalád, amely hatékonyan futtatható, és az alsóbb tartományokban state-of-the-art pontszámokat ér el különböző területeken. A Falcon csapat egyik figyelemre méltó jellemzője, hogy lényegében egy „szuverén AI” kutatócsoport – a TII egy olyan intézmény, amely kulcsfontosságú részévé vált Abu-Dzabi azon törekvésének, hogy kiépítse kompetenciáját az AI területén. Ez leginkább abból látszik, hogy a Falcon családot egy 4096 darab H100 GPU-ból álló fürtön tanították, ami sokkal nagyobb számítási kapacitás, mint amennyihez a legtöbb akadémikus hozzáfér.
Miért fontos?

Ezek a Falcon modellek példázzák, hogyan néz ki a szememben az „AI akadémiai szféra ésszerű finanszírozása” – egy kormány bőséges számítási erőforrást biztosított ahhoz, hogy egy csapat olyan modelleket tanítson be és tegyen közzé, amelyek aztán a valódi használat során bizonyíthatnak. Emellett a kiadást egy szokatlanul részletes tanulmány kíséri (összehasonlítva a legfejlettebb zárt forráskódú modellek körüli homályos tudásállapottal). ---

Eredeti forrás megtekintése (angol) →