MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az ETH Zürich új technikája 300-szorosára gyorsítja a nyelvi modelleket

Az ETH Zürich kutatói olyan módszert dolgoztak ki, amellyel drámaian felgyorsíthatók a neurális hálózatok, különösen az olyan nyelvi modellek esetében, mint a BERT és a GPT-3. Jelentősen csökkentik a számítási terhelést "fast feedforward" rétegek beépítésével, amelyek feltételes mátrixszorzást használnak, lehetővé téve a gyorsabb és hatékonyabb feldolgozást.
Miért fontos?

Ez a fejlesztés hatékonyabb AI rendszerekhez vezethet. Az emberek számára ez gyorsabb és elérhetőbb AI eszközöket jelent, ami javítja a fordítási, tartalomgyártási és adatelemzési alkalmazásokat, miközben a professzionális AI kevésbé lesz erőforrás-igényes. ---

Eredeti forrás megtekintése (angol) →