Az AI modellek kibertámadási képességei rohamosan fejlődnek
Az AI biztonsági kutatószervezet, a Lyptus Research megvizsgálta, mennyire jól képesek az AI rendszerek különféle kibertámadási feladatokat elvégezni, és egyértelmű trendet talált, miszerint a fejlettebb modellek egyre fejlettebb kibertámadási formákra képesek. „A 2019 óta megjelent „frontier” modellek esetében a képességek megduplázódásának ideje 9,8 hónap. Ha csak a 2024 óta megjelent modelleket vesszük figyelembe, ez az időtartam 5,7 hónapra rövidül. A tanulmányunkban szereplő legújabb „frontier” modellek, a GPT-5.3 Codex és az Opus 4.6, mindkét trendvonal felett teljesítenek, 50%-os sikerességet értek el olyan feladatokban, amelyek emberi szakértőknek 3,1 és 3,2 órát vennének igénybe – írják. – A legújabb open-weight modellünk, a GLM-5, 5,7 hónappal elmarad a closed-source „frontier” modellektől, ami arra utal, hogy a „frontier” szintű támadó kiberképességek viszonylag rövid időn belül elterjedhetnek open-weight formában is.”
- Milyen benchmarkokat vizsgáltak? CyBashBench, NL2Bash, InterCode CTF, NYUCTF, CyBench, CVEBench és CyberGym. Létrehoztak továbbá egy új adathalmazt, amely 291 feladatból áll, kiegészítve teljesítési átiratokkal és 10 támadó kiberbiztonsági szakértő által kalibrált időbecslésekkel.
- Értékelt modellek: 2019: GPT-2. 2020: GPT3. 2022: GPT3.5. 2024: Claude 3 Opus, GPT-4o. 2025: o3, Opus 4, Gemini 2.5 Pro, DeepSeek V3.1, GPT-5.1 Codex Max. GPT-5.2 Codex. 2026: Opus 4.6, GPT-5.3 Codex, GLM-5, Sonnet 4.6.
- Eredmények: Az AI rendszerek egyre ügyesebbek a hackingben. „A jelenlegi legjobb modellek 50%-os sikerességet érnek el olyan feladatokban, amelyek emberi szakértőknek 3,2 órát vennének igénybe, ami nagyjából fél munkanapnyi professzionális támadó biztonsági munkának felel meg” – írják.
Miért fontos?
Miért fontos ez? Minden fejlődik, beleértve a kellemetlen dolgokat is: Az AI, amely biológiai kutatásokat végezhet, biológiai fegyverek kutatására is használható. Az AI, amely segíthet a nagyenergiás fizika megértésében, fegyverfejlesztési célokra is felhasználható a nagyenergiás fizika terén. Az AI, amely különösen jól segít a kódokban található sebezhetőségek felkutatásában védelmi célokra, könnyen átalakítható támadó célokra. Az AI legnehezebb része az, hogy egy „mindentudó gép”, és mivel a képességek minden egymást követő modellgenerációval nagymértékben bővülnek, a politikai kérdések is megsokszorozódnak.