GRAFIKON
Bemutatták a Sohu-t, az első Transformer-algoritmusokra optimalizált chipet
2022-ben, még a ChatGPT elindulása előtt, egy Etched nevű startup már meg volt győződve arról, hogy egy nap a transformerek lesznek az AI-cégek elsőszámú algoritmusai. A transformerek – azok a neurális hálózatok, amelyek a GPT-4-et, a Llamát, a Stable Diffusion-t és szinte minden más jelentős LLM-et működtetnek – egyedülállóak, mert képesek a mondatokat egyedi szavakra bontani, és kitalálni, hogyan használják ezeket a szavakat a jövőbeli kontextusokban.
- A legtöbb GPU sokféle AI-orientált feladatot képes kezelni. Az Etched azonban azt állítja, hogy megépítette a „világ első transformer-specifikus AI chipjét” – egy olyat, amelyet az alapoktól kezdve kizárólag a transformer-algoritmusokhoz terveztek. Az Etched szerint míg a versenytársak, például az Nvidia, egyre nagyobb chipeket építenek, az elmúlt években nem sikerült arányosan nagyobb teljesítményt is elérniük. Ennek oka, hogy a legtöbb AI-chipgyártónak helyet kell hagynia a félvezetőkön a transformereken kívüli más algoritmusok számára is.
Miért fontos?
Az új Sohu chip állítólag nagyságrendekkel gyorsabb és hatékonyabb, mint a riválisok, például az Nvidia H100-asa, mivel minden helyet egyetlen feladatnak szentelnek rajta. A korai tesztek azt mutatják, hogy a Meta Llama-3 modelljét 20-szor gyorsabban képes futtatni, mint az általános célú chipek. A startup nemrég 120 millió dollár tőkét gyűjtött a Series A finanszírozási körben, ami jelzi a befektetők speciális hardverekbe vetett bizalmát.