KÖVETKEZŐ AZ AI-BAN
A Cerebras kiadta a világ leggyorsabb AI következtetési (inference) rendszerét
Még mindig az AI „tárcsázós internet” korszakában járunk, de egy Cerebras nevű startup azt akarja tenni az LLM-ekkel, amit a szélessávú internet tett a webböngészéssel. Az év elején bemutatták a világ legnagyobb AI chipjét (körülbelül akkora, mint egy lapostányér). Most egy olyan új rendszert adnak ki, amely felhőn keresztül képes futtatni AI termékeket – példátlan sebességgel.
A Cerebras a rekorder chipjeit egy CS-3 nevű rendszerbe építette be, majd ezt az infrastruktúrát használta a világ néhány legnagyobb szuperszámítógépének megalkotásához. Legújabb kiadásuk segít a vállalatoknak az LLM-ek gyakorlati alkalmazásában. Sok teljesítményorientált rendszernek csökkentenie kell a pontosságát a sebesség növelése érdekében, de a Cerebras állítása szerint architektúrájuk natív 16 bites pontossággal fut, így a precizitás soha nem romlik. A Meta Llama 3.1 modelljének tanításakor körülbelül hússzor gyorsabb a hasonló NVIDIA GPU-alapú rendszereknél – az ár töredékéért.
- Ez az a folyamat, amely során az új információkat egy olyan adatkészlettel vetik össze, amelyen a modellt korábban betanították.
- Használható mintázatok felismerésére nagy adathalmazokban, és segít a modelleknek a döntéshozatalban, sokkal gyorsabban, mint más megközelítések.
- Az inference (következtetés) már most az AI hardverpiac mintegy 40%-át teszi ki, és ez az arány folyamatosan emelkedik.
Miért fontos?
A hagyományos GPU-knak minden egyes adategység feldolgozásakor kommunikálniuk kell a külső memóriával; mivel azonban a Cerebras chipjei hatalmasak, rengeteg memória fér el közvetlenül rajtuk, teljesen megkerülve ezt a lépést. ---