A TECHNOLÓGIA HATÁRÁN
Az xAI Grok-3 modellje bizonyítja, hogy az AI skálázása a költségekkel kapcsolatos aggályok ellenére is hatékony marad
Az Nvidia visszatért a csúcsra. Mindössze hetekkel azután, hogy a DeepSeek miatti pánik 600 milliárd dollárral vetette vissza a vállalat piaci értékét, szinte a teljes veszteségét ledolgozta. Mi okozta a gyors fordulatot? Elsőre úgy tűnt, hogy a DeepSeek R1-ese – amely amerikai riválisai költségeinek töredékéből készült – megdöntötte azt az elméletet, miszerint az AI innováció csak óriási befektetésekkel és egyre több chippel érhető el. Azonban az OpenAI o3-mini modelljétől a Perplexity új Deep Research funkciójáig érkező folyamatos bejelentések árnyalják a képet.
A legfontosabb jelzés az xAI Grok-3 modellje. Jelenleg ezt tartják a világ legerősebb AI modelljének több teljesítménymérő teszt (benchmark) alapján is. Nem véletlen, hogy a világ egyik legnagyobb tréning-klaszterén tanították: a memphisi Colossus szuperszámítógépen, amely 200 000 GPU-ból áll. Elon Musk legközelebb 1 millió Nvidia chipre akarja növelni a kapacitást, negyedévente legalább 100 000 új egységgel bővítve a rendszert.
- A Grok-3 jelenleg a legerősebb AI modellnek számít több benchmark teszten.
- A modellt a 200 000 GPU-val rendelkező „Colossus” szuperszámítógépen tanították.
- Elon Musk azt tervezi, hogy a tréning-klasztert 1 millió Nvidia chipre bővíti.
- Az Nvidia 600 milliárd dollárnyi piaci értéket nyert vissza a skálázási elméletek beigazolódásával.
Miért fontos?
Ez egy újabb jele annak, hogy az AI skálázása még nem ért falhoz. Bár a tanítási technikák fontosak, az egyszerű tény továbbra is fennáll: több GPU még mindig jobb teljesítményt eredményez. Hogy puszta költekezéssel elérhetjük-e az AGI-t, az még nyitott kérdés, de egyelőre úgy tűnik, az R1 kivétel lehetett a szabály alól – egy olyan kivétel, amelyet nem könnyű megismételni. ---