AI BIZTONSÁG
Hozzáférés-szabályozás és elkerítés bevezetése a nagy tétű LLM műveletekhez
A fejlesztőknek úgy kell megtervezniük az LLM alkalmazásokat, hogy feltételezik: a sikeres eltérítés elkerülhetetlen. Ez robusztus hozzáférés-szabályozást és az alkalmazás nagy tétű műveletektől való „elkerítését” (fencing) teszi szükségessé. Dedikált, specifikus jogosultsági szintekkel (írás/olvasás) rendelkező API tokenek hozzárendelésével és a legalacsonyabb jogosultság elvének betartásával a sikeres támadás „hatósugara” minimalizálható. A kereséssel kiterjesztett generálást (RAG) használó alkalmazások esetében ez azt jelenti, hogy a modell csak az aktuális felhasználó számára engedélyezett adatokhoz férhet hozzá.
- Szerelje fel az LLM-eket dedikált API tokenekkel a bővítményekhez és az adatlekérésekhez, korlátozott jogosultsági körökkel.
- Korlátozza az LLM hozzáférését a szükséges minimumra; például egy naptárat szkennelő alkalmazásnak ne legyen jogosultsága események létrehozására.
- Szűrje a vektoradatbázis találatait metaadatok (például felhasználói azonosítók) alapján, mielőtt bármilyen adatot átadna a nyelvi modellnek.
- Különítse el és vizsgálja meg tüzetesen a megbízhatatlan tartalmakat, például a felhasználó által megadott URL-ekből származó adatokat.
- Alkalmazzon red-team megközelítést a fejlesztés során a potenciális bukkanók átgondolására és a lehetséges károk minimalizálására.
Miért fontos?
Az elkerítés biztosítja, hogy még ha a támadónak sikerül is átvennie az irányítást az LLM felett, a háttérrendszerek károsítására vagy az érzékeny, felhasználók közötti adatok kiszivárogtatására való képessége szigorúan korlátozott maradjon. ---