AI ügynökök felveszik a versenyt az emberi kiberbiztonsági szakértőkkel a penetrációs tesztelésben
2025. december 22. · MI Történik? · 2 perc olvasás
A Stanford, a Carnegie Mellon University és a Gray Swan AI kutatói egy olyan tesztet végeztek, ahol azt vizsgálták, milyen jól tudnak az emberek és az AI rendszerek feltörni egy valósághű környezetet. Az eredmények azt mutatják, hogy az AI rendszerek, különösen, ha szoftveres "scaffold"-ot kapnak, ugyanolyan szinten tudnak teljesíteni, mint a biztonsági szakemberek. A kutatás kulcsa az ARTEMIS, egy szoftver, amelyet az LLM-ek kiberképességeinek jobb felszínre hozására terveztek. Az ARTEMIS „egy AI ügynök scaffold, amelyet a frontier modellek kiberbiztonsági képességeinek jobb felszínre hozására terveztek”, filozófiája és megközelítése hasonló a Google Big Sleep-jéhez (Import AI #390). Az ARTEMIS „egy komplex multi-agent keretrendszer, amely egy magas szintű felügyelőből, korlátlan számú al-ügynökből, dinamikusan létrehozott szakértői rendszer promptokból és egy triage modulból áll. Arra tervezték, hogy hosszú távú, komplex penetrációs teszteket végezzen valós éles rendszereken.” Pozitív gazdasági hatások: Ha figyelembe vesszük az API hozzáférési költséget, „bizonyos ARTEMIS változatok óránként 18 dollárba kerülnek, szemben a professzionális penetrációs tesztelők óránkénti 60 dollárjával” – írják a szerzők. A fő teszt itt hat létező AI ügynök (valamilyen szoftveres keretben működő AI rendszerek, pl. Claude Code, Codex), a kutatók által kifejlesztett ARTEMIS nevű scaffold, és tíz emberi kiberbiztonsági szakember teljesítményének összehasonlítása. A feladat egy valós egyetemi hálózat sérülékenységeinek felkutatása. A hálózat: „A meghatározott hatókör 12 alhálózatot foglal magában, amelyek közül 7 nyilvánosan hozzáférhető és 5 csak VPN-en keresztül érhető el, megközelítőleg 8000 hosztot magában foglalva” – írják a szerzők. „Ez a környezet heterogén, elsősorban Unix-alapú rendszerekből, IoT eszközökből, kevés Windows gépből és különböző beágyazott rendszerekből áll. A hálózaton belüli hitelesítést egy Linux-alapú Kerberos rendszer kezeli, és minden résztvevő diák szintű jogosultságot biztosító fiókot kap.” Eredmények – az ARTEMIS jól teljesít: „Résztvevői csoportunk összesen 49 validált egyedi sérülékenységet fedezett fel, a résztvevőnkénti érvényes találatok száma 3 és 13 között mozgott” – írják. „Az ARTEMIS jelentősen felülmúlja a meglévő scaffold-okat. A Claude Code és a MAPTA alapból elutasítja a feladatot, míg az Incalmo a kezdeti felderítésnél leáll merev feladatgráfja miatt, ami 0 találatot eredményezett.”
Miért fontos?
Miért fontos ez – ha képes vagy néhány embert úgy irányítani, hogy hatékonyabbak legyenek, valószínűleg létre tudsz hozni egy keretrendszert, amely bármely AI rendszerből jobb képességeket hoz elő: Az ARTEMIS fő üzenete az, hogy a mai AI rendszerek alulhasználttak és erősebbek, mint amilyennek látszanak. Az üzenet folyamatosan ismétlődik több területről, a kiberbiztonságtól (itt), a tudományon át a matematikai bizonyításokig: ha egy modern LLM-et egy scaffold-ba helyezünk (ami alapvetően egy menedzsment struktúrát és folyamatokat testesít meg, amelyeket az emberektől kérhetnénk, hogy kövessenek), az AI rendszer sokkal jobban teljesít. Ezt az üzenetet fontos megérteni, mert azt sugallja, hogy a) a mai AI rendszerek erősebbek, mint amilyennek felszínesen tűnnek, és b) azok az emberek, akik jól tudnak más embereket irányítani és kodifikálni az általuk használt menedzsment folyamatokat, jó helyzetben vannak ahhoz, hogy olyan "elicitation framework"-öket építsenek, amelyek felturbózzák a mai AI rendszerek teljesítményét.
---