AI Malware Prototípus On-Device LLM-eket Használ Lokális Exploitációra
- A motiváció: „Ahelyett, hogy beaconing viselkedést mutatna, ami hunyorogva C2 kommunikációra hasonlít, vajon tudunk-e „élősködni”? Más szóval, lehetséges-e egy támadó számára, hogy az áldozat számítógépén inference-t futtasson, és az áldozat számítógépe rendelkezik-e LLM-mel?” – kérdezik a szerzők.
- „A CoPilot+ PC-kkel teljesen lehetséges az élősködés! Egy modell a számítógéppel együtt kerül szállításra, anélkül, hogy be kellene ágyazni vagy statikusan linkelni egy inference library-hez.”
- Mit csinál a prototípus: A prototípus malware „lokális jogosultság-eszkalációt hajt végre rosszul konfigurált szolgáltatásokon keresztül. A modell célja egy rendszergazdaként futó rosszul konfigurált szolgáltatás megtalálása, annak kihasználása és egy C:\proof.txt fájl létrehozása.” Ez egy értékes proof-of-concept, mert a valóban ijesztő dolgok viselkedését testesíti meg.
- Hogyan csinálták: „Ezt a malware-t C++-szal és ONNX Runtime-mal fejlesztettem az inference-hez, a Phi-3-mini modellel és sol2-vel a Lua runtime-hoz.”
- A fő munka itt kettős volt: 1) egyedi eszközök írása, amelyeket a (viszonylag buta) modell használhatott a Windows környezetben való navigáláshoz és megértéséhez, és 2) egy prompt írása a nyelvi modellhez, amely segíti a jó teljesítmény elérésében.
- Minden a prompt-ban van: A szerző egy alap prompt-tal kezdte, majd a Claude Code-ot használta a prompt iteratív finomítására a jobb teljesítmény érdekében.
- Az eredmény egy prompt, amely azt mondja a Phi-3-mini modellnek, hogy egy AI agent, amely Lua kódot ír és hajt végre, hogy lassan, kis mennyiségű kóddal haladjon iteratív ciklusban a környezetével, hogy a környezete tartalmazza a win33-at és a fájlrendszert, és rendelkezik néhány elérhető funkcióval, amelyek segítik a környezetében való navigálásban és a sérülékenységek keresésében.
- A prototípus sikeres: Bár ez némi kézi irányítást igényelt, a prototípus végül működött. „A kísérlet bebizonyította, hogy az autonóm malware, amely külső infrastruktúra nélkül működik, nemcsak lehetséges, hanem meglehetősen egyszerűen megvalósítható.”
- Figyelmeztetések érvényesek: A legtöbb számítógép nem rendelkezik beépített LLM-mel, sem pedig erős chip-pel annak futtatásához. Ez a jövőben változhat, de ma jelentős korlátot jelent. „Jelenleg ez a technika a csúcskategóriás munkaállomásokra (a gaming asztali gépemre) és az újonnan megjelenő CoPilot+ PC-k osztályára korlátozódik, amelyek dedikált AI hardverrel érkeznek.”
Sok évvel ezelőtt a nanotechnológiában dolgozó emberek feltételeztek a „szürke nyálka” (grey goo) lehetőségéről – önreplikáló nanogépekről, amelyek felemésztenék környezetüket, hogy végtelen számú másolatot készítsenek magukról. Ez nem következett be. De az AI folyamatos fejlődése és az AI szoftverek növekvő elterjedtsége környezetünkben végül lehetővé teheti egyfajta önreplikáló, intelligens, AI-vezérelt malware megjelenését – bár az LLM-ek jelentős mérete és számítási lábnyoma miatt egy ilyen „nyálka” parazita kapcsolatban kellene, hogy álljon az alapul szolgáló gépekkel. Ennek a történetnek az optimista változata az, hogy az olyan prototípusok, mint a Dreadnode által leírt, arra kényszerítik az embereket, hogy gondolkodjanak el azon, hogyan lehet gondosan karanténba zárni az on-device AI rendszereket, hogy azok ne kerüljenek felhasználásra, mint az itt leírt prototípus. ---