A TECHNOLÓGIA FRONTVONALÁBÓL
Az Anthropic összehangolt AI lepárlási (distillation) támadásokkal vádol kínai laborokat
A múlt héten az Anthropic három kínai AI labort (DeepSeek, Moonshot AI és MiniMax) azzal vádolt meg, hogy 24 000 hamis fiók és 16 millió interakció segítségével összehangolt „lepárlási” (distillation) támadásokat hajtottak végre. A lepárlás egy olyan folyamat, amely során egy kisebb modellt egy nagyobb, okosabb modell válaszai alapján tanítanak be, így az a töredékáron képes hozni annak teljesítményét. Az open-source modellek átlagosan 3 hónappal maradnak el a csúcsmodellektől. Ez alatt az idő alatt a versenytársak valószínűleg a csúcsmodellek kimeneteit használják tanító adatként, hogy fillérekért lemásolják a több hónapos kutatási munkát.
- A vád szerint 24 000 hamis fiókot és 16 millió interakciót használtak fel
- A lepárlás lehetővé teszi a kisebb modellek számára, hogy olcsón érjék el a csúcsmodellek szintjét
- Kutatók korábban kevesebb mint 50 dollárból replikálták az OpenAI o1 logikai képességeit lepárlással
- Az open-source modellek jelenleg átlagosan 3 hónapos lemaradásban vannak a csúcsmodellekhez képest
Miért fontos?
Az Anthropic és az OpenAI szerint Kína lepárlási módszere nemzetbiztonsági fenyegetést jelent: szellemi tulajdon (IP) nagyarányú kisajátítását egy külföldi ellenfél által. A jogi helyzet azonban képlékeny – különösen annak fényében, hogy sok csúcsmodell eleve olyan adatokon tanult, amelyek nem a sajátjai voltak. ---