SPECIALIZÁLT AI
A Fudan Egyetem kifejlesztette az AnalogSeeker LLM-et az analóg áramkörtervezési folyamatok felgyorsítására
A Fudan Egyetem kutatói részleteket közöltek az AnalogSeekerről, egy nyílt súlyozású LLM-ről, amely az analóg áramkörök tervezését segíti. Az AnalogSeeker a Qwen2.5-32B-Instruct modellen alapul, amelyet analóg áramkörtervezési tankönyvekből származó adatokkal finomhangoltak. A modell 85,04%-os pontosságot ér el, ami 15,67 százalékpontos javulás az eredeti modellhez képest, és versenyképes a fősodorbeli általános célú LLM-ekkel, mint a DeepSeek-v3 és a GPT-4o – ami jelentős teljesítmény, figyelembe véve, hogy a modell sokkal kisebb.
- A modellt 20 analóg áramkörtervezési tankönyvön tanították, amelyek 12 fő áramkörtípust fednek le.
- A kutatók adat-bootstrapping eljárást alkalmaztak, hogy egy kis, 7,26 millió tokenből álló adatkészletet 15,31 ezer címkézett bejegyzéssé alakítsanak, összesen 112,65 millió tokent létrehozva.
- Az exportkorlátozások ellenére a kutatók egy 8 darab NVIDIA H200 SXM GPU-val felszerelt szervert használtak a tanításhoz.
- Az AnalogSeeker saját szakterületén, az analóg áramkörök tervezésében felülmúlja a nagyobb, általános célú modelleket.
Miért fontos?
Az AnalogSeekerhez hasonló modellek a „Wright fivérek” típusú bemutatói annak, hogyan alkalmazhatók az LLM-ek a tudomány rendkívül specifikus területein olyan eszközök létrehozására, amelyeket a szakértők saját munkájuk felgyorsítására használhatnak. Jelenleg az „életjelek” szakaszában járunk, de mint a legtöbb dolognál az AI területén, itt is arra számíthatunk, hogy a fejlődés sokkal gyorsabb lesz, mint azt az emberi megérzés diktálná.