MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Kínai és nyugati kutatók egyetértenek a jelentős határterületi AI biztonsági kockázatokban

A Shanghai Artificial Intelligence Laboratory kutatói alapos (kb. 100 oldalas) értékelést végeztek mintegy 20 LLM biztonsági jellemzőiről, kínai és nyugati modelleket egyaránt vizsgálva. Megállapításaik összecsengenek a nyugati laboratóriumokéival, nevezetesen: az AI rendszerek már elég jók ahhoz, hogy bizonyos nem elhanyagolható CBRN (vegyi, biológiai, radiológiai és nukleáris) kockázatokat jelentsenek, és kezdik mutatni az élet jeleit olyan ijesztőbb képességek terén, mint az AI K+F, az autonóm önreplikáció és a megtévesztés. Azt is megállapították, hogy a következtető (reasoning) modellek általában minden téren kompetensebbek, ami egyben kevésbé biztonságossá is teszi őket. Vizsgált LLM-ek: DeepSeek, LLaMa (Meta), Qwen (Alibaba), Claude (Anthropic), Gemini (Google), GPT és az „o” sorozat (OpenAI).
Miért fontos?

Az AI kockázatok valósak, és van némi egyetértés a kínai és a nyugati kutatók között abban, hogy mit kell vizsgálni: A tanulmány legmegdöbbentőbb része, hogy mennyire ismerős – szinte 1:1 átfedés van az ebben a dolgozatban vizsgált kockázatok és aközött, amik az Anthropic, az OpenAI és a Google által a legújabb modelljeik mellé kiadott rendszer- és modellkártyákban szerepelnek. Ez megnyugtató – az USA és Kína közötti minden különbség és feszültség ellenére az a tény, hogy az emberek megegyeztek a vizsgálandó kockázatok közös halmazában, biztató jel.

Eredeti forrás megtekintése (angol) →