AI HARDVER
A Google AlphaChip AI-ja folyamatosan növekvő javulást hoz a TPU-hardverek tervezésében
A Google már évek óta használ AI-t saját AI-oktatási és következtetési chipjei tervezésére és fejlesztésére – az eredmények pedig összeadódnak. A Nature-ben megjelent új kutatásban a Google leírja, hogyan használták az AlphaChip nevű, RL-alapú chiptervezési módszerüket a publikálás óta a Google fő AI-chipjének, a Tensor Processing Unitnak (TPU) három további generációjában.
Az AlphaChip az adatközponti CPU-khoz (Axion) és az Alphabet más, be nem jelentett chipjeihez is emberfeletti elrendezéseket hozott létre. Minden egyes új TPU-generációval, beleértve a legújabb Trilliumot (6. generáció), az AlphaChip egyre jobb elrendezéseket tervezett, és a teljes alaprajz nagyobb részét adta, felgyorsítva a tervezési ciklust és nagyobb teljesítményű chipeket eredményezve.
- Az AlphaChip megerősítéses tanulást (RL) használ a chipblokkok elhelyezésének optimalizálására.
- A TPU v5e esetében 3,2%-os, a Trillium (6. generációs) TPU esetében pedig 6,2%-os vezetékhossz-csökkenést ért el.
- Az AlphaChip és az emberi szakértők közötti teljesítménykülönbség minden egyes egymást követő TPU-generációval nőtt.
- Alkalmazták az Axion adatközponti CPU-k tervezésénél is.
- Egy kifejezetten chip-elrendezésekre optimalizált, előre betanított generatív modellen alapul.
Miért fontos?
Az AlphaChip önmagát fejleszti – a Google egy nagyobb AlphaChip modellt tanít be, hogy okosabb áramköri elrendezéseket találjon ki a TPU-khoz, majd legyártja ezeket a TPU-kat, az AlphaChip következő verzióját pedig már ezen a hatékonyabb és erősebb hardveren tanítja be, és így tovább. Ez egy kiváló példa arra, hogyan képesek a nagy teljesítményű AI-rendszerek létrehozni saját utódaikat. ---