MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az xAI Grok-3 modellje bizonyítja, hogy az AI skálázása a költségekkel kapcsolatos aggályok ellenére is hatékony marad

Az Nvidia visszatért a csúcsra. Mindössze hetekkel azután, hogy a DeepSeek miatti pánik 600 milliárd dollárral vetette vissza a vállalat piaci értékét, szinte a teljes veszteségét ledolgozta. Mi okozta a gyors fordulatot? Elsőre úgy tűnt, hogy a DeepSeek R1-ese – amely amerikai riválisai költségeinek töredékéből készült – megdöntötte azt az elméletet, miszerint az AI innováció csak óriási befektetésekkel és egyre több chippel érhető el. Azonban az OpenAI o3-mini modelljétől a Perplexity új Deep Research funkciójáig érkező folyamatos bejelentések árnyalják a képet. A legfontosabb jelzés az xAI Grok-3 modellje. Jelenleg ezt tartják a világ legerősebb AI modelljének több teljesítménymérő teszt (benchmark) alapján is. Nem véletlen, hogy a világ egyik legnagyobb tréning-klaszterén tanították: a memphisi Colossus szuperszámítógépen, amely 200 000 GPU-ból áll. Elon Musk legközelebb 1 millió Nvidia chipre akarja növelni a kapacitást, negyedévente legalább 100 000 új egységgel bővítve a rendszert.
Miért fontos?

Ez egy újabb jele annak, hogy az AI skálázása még nem ért falhoz. Bár a tanítási technikák fontosak, az egyszerű tény továbbra is fennáll: több GPU még mindig jobb teljesítményt eredményez. Hogy puszta költekezéssel elérhetjük-e az AGI-t, az még nyitott kérdés, de egyelőre úgy tűnik, az R1 kivétel lehetett a szabály alól – egy olyan kivétel, amelyet nem könnyű megismételni. ---

Eredeti forrás megtekintése (angol) →