MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Cerebras kiadta a világ leggyorsabb AI következtetési (inference) rendszerét

Még mindig az AI „tárcsázós internet” korszakában járunk, de egy Cerebras nevű startup azt akarja tenni az LLM-ekkel, amit a szélessávú internet tett a webböngészéssel. Az év elején bemutatták a világ legnagyobb AI chipjét (körülbelül akkora, mint egy lapostányér). Most egy olyan új rendszert adnak ki, amely felhőn keresztül képes futtatni AI termékeket – példátlan sebességgel. A Cerebras a rekorder chipjeit egy CS-3 nevű rendszerbe építette be, majd ezt az infrastruktúrát használta a világ néhány legnagyobb szuperszámítógépének megalkotásához. Legújabb kiadásuk segít a vállalatoknak az LLM-ek gyakorlati alkalmazásában. Sok teljesítményorientált rendszernek csökkentenie kell a pontosságát a sebesség növelése érdekében, de a Cerebras állítása szerint architektúrájuk natív 16 bites pontossággal fut, így a precizitás soha nem romlik. A Meta Llama 3.1 modelljének tanításakor körülbelül hússzor gyorsabb a hasonló NVIDIA GPU-alapú rendszereknél – az ár töredékéért.
Miért fontos?

A hagyományos GPU-knak minden egyes adategység feldolgozásakor kommunikálniuk kell a külső memóriával; mivel azonban a Cerebras chipjei hatalmasak, rengeteg memória fér el közvetlenül rajtuk, teljesen megkerülve ezt a lépést. ---

Eredeti forrás megtekintése (angol) →