MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A kínai DeepSeek AI-labor algoritmikus hatékonysággal küzd a hardverembargók ellen

A DeepSeek, amely valószínűleg Kína legjobb AI kutatócsapata az egy főre jutó teljesítményt tekintve, azt állítja, hogy főként a számítási kapacitás hiánya hátráltatja őket. „Nincsenek rövid távú tőkebevonási terveink. A problémánk sosem a finanszírozás volt, hanem a csúcskategóriás chipekre vonatkozó embargó” – mondta a DeepSeek alapítója, Liang Wenfeng. A DeepSeek rendkívül jó nagy nyelvi modelleket készít, és több ötletes megoldást is publikált az AI tanítási folyamatok javítására. Nemrég mutatták be a DeepSeek-R1-Lite-Preview modellt, amely reinforcement learning (RL) alkalmazásával ér el jobb teljesítményt. A DeepSeek volt az első vállalat, amelynek nyilvánosan sikerült felzárkóznia az OpenAI-hoz, amely az év elején indította el az ugyanazt az RL technikát használó o1 modellcsaládot – ez is jelzi a DeepSeek kifinomultságát. Filozófiai szempontból a DeepSeek a kínai AI modellek érettségét az alapján méri, mennyire hatékonyan képesek használni a számítási kapacitást. Az interjúban közvetetten elismerik azt is, hogy sok más kínai AI startup a Meta LLaMa modelljeit „csomagolja át”, amit a DeepSeek kerül az architektúrális kontroll megőrzése érdekében.
Miért fontos?

Ez a gondolkodásmód azért érdekes, mert annak a meggyőződésnek a tünete, hogy a számítási kapacitás – és annak nagy mennyiségben való – hatékony használata az elsődleges meghatározó tényező az algoritmikus haladás megítélésekor.

Eredeti forrás megtekintése (angol) →