Biztonsági kockázatok és védekezési mechanizmusok azonosítása a generatív AI rendszerekben
Milyen fenyegetéseket hordoznak a generatív AI rendszerek, és hogyan védekezhetünk ellenük vagy enyhíthetjük azokat? Ez a témája egy új tanulmánynak, amely egy idén júniusban a Google-nél tartott workshop eredményeként született. A tanulmányhoz hozzájáruló kutatók olyan intézményektől érkeztek, mint a Google, a University of Wisconsin, a University of California, San Diego, a University of Maryland, College Park, a University of California, Berkeley, a University of Waterloo, a University of Illinois, Urbana Champaign, a Stanford University, a DARPA, a Center for AI Safety, az Aura Labs és a Truera. A mai nagyskálájú AI rendszerek kellően erősek ahhoz, hogy vagy felerősítsenek, vagy új biztonsági fenyegetéseket hozzanak létre, felszínre hozva a kettős felhasználás dilemmáját.
- Fejlettebb „spear-phishing” támadások, valamint a deepfake-ek készítésének és terjesztésének segítése
- A kibertámadások számának növelése azáltal, hogy kódmodelleken keresztül könnyebbé teszik a végrehajtásukat
- Adat-mérgezés (data poisoning) rossz adatok beillesztésével olyan környezetekbe, amelyeken mások tanítanak
- Rendszerek fejlesztése az LLM által generált tartalmak felismerésére és digitális vízjelezésére
- Kódmodellek használata a digitális infrastruktúrák automatizált behatolási tesztelésére
- Multimodális elemzés a közösségi médiában lévő bot-fiókok azonosítására
- Az LLM-ek kódolással kapcsolatos képességeinek átfogó elemzése
- A pluralisztikus értékrend-igazítás feltárása a kódolt értékek megértéséhez
Miért fontos?
Az AI-ról azért nehéz gondolkodni, mert alapvetően felerősíti a legtöbb kockázatot, ugyanakkor magában kódolja az ezen kockázatok elleni megoldásokat (vagy védelmet) is. A nagy kihívás, amellyel a világnak szembe kell néznie az elkövetkező években, egy egyre erőteljesebb „mindenre kiterjedő technológiával” való megbirkózás. ---