ADATKÖZPONTOK
Az AI-óriások a skálázási korlátokkal szembesülnek és hatalmas infrastruktúrába fektetnek
Az elmúlt két hét legnagyobb híre az AI skálázási törvényeinek (scaling laws) látható megtorpanása: a hírek szerint az OpenAI és a Google is csökkenő hozadékot tapasztal, mivel a modellek nem fejlődnek olyan gyorsan, mint a korábbi generációk. Ez a lassulás egyszerre több korlátba is ütközik, beleértve a kiváló minőségű tanítási adatok hiányát, az alapvető architekturális korlátokat és az AI-fejlesztés brutális költségeit – az OpenAI jelenleg becslések szerint évi 4 milliárd dollárt éget el.
A kihívások ellenére a vállalatok megduplázzák a fizikai infrastruktúrára fordított összegeket. Az OpenAI nemrégiben egy 100 milliárd dolláros adatközpont-javaslattal kereste meg a Fehér Házat, amely hatalmas energiát és területet igényelne. Eközben Elon Musk xAI-ja rekordidő alatt elkészítette a Colossus szuperszámítógépet, ami azt jelzi, hogy bár a szoftveres fejlődés lassulhat, a hardveres fegyverkezési verseny felgyorsul.
- Az OpenAI egy 30 millió négyzetláb (kb. 520 futballpálya) alapterületű adatközpontot javasolt.
- A tervezett létesítménynek 2 millió GPU-ra és 5 GW energiára lenne szüksége.
- Elon Musk mindössze 122 nap alatt építette meg a Colossus szuperszámítógépet.
- Az Anthropic vezérigazgatója szerint 2026-ra az AI-fürtök (clusters) egyenként 10 milliárd dollárba kerülhetnek.
- Az NVIDIA új Blackwell GPU-i 2,2-szeres teljesítménynövekedést ígérnek, de 12 hónapos várólistákkal kell számolni.
Miért fontos?
Ha a skálázás valóban elérte a plafont, az iparág fókusza a pusztán „nagyobb modellekről” az „okosabb használat” felé tolódik el, kihasználva a többlépcsős érvelést, a szakértők által válogatott adatokat és az inference (következtetési) idő alatti hosszabb feldolgozást.