AI IRÁNYÍTÁS
Kutatók harmadik fél általi megfelelőségi értékeléseket javasolnak a „frontier” AI irányításának javítására
A Center for the Governance of AI, a SaferAI és több neves egyetem kutatói közzétettek egy tanulmányt, amelyben a biztonsági gyakorlatoknak való megfelelés harmadik fél általi értékelése mellett érvelnek, mint az AI irányításának kulcsfontosságú eszközét. A szerzők három különböző módot javasolnak a harmadik fél általi megfelelőség vizsgálatára, az egyszerűtől a bonyolultig. Sok szabályozási technológiához hasonlóan a harmadik fél általi felügyelet egy jó ötlet, amelynek megvalósítása során azonban kihívások merülnek fel – ezek többsége az AI rendszereket építő szervezetekre háruló további súrlódásokkal vagy kockázatokkal kapcsolatos. Bár általánosságban egyetértek azzal az elképzeléssel, hogy a „frontier” AI fejlesztésnek több felügyeletre van szüksége, érdemes megjegyezni, hogy a felügyelet legtöbb formája olyan nehézségeket vezet be, amelyeket egy gyorsan mozgó technikai szervezet számára nehéz betervezni. Úgy gondolom, hasznos szemléletmód annak szem előtt tartása, hogy az „operatív biztonság” legtöbb formája „számítógépes sebességgel” történik – például egy modellből számadatokat kapsz egy tesztelt kockázatról, vagy megpróbálsz hozzáférni a modellhez, és a digitális jogosultságok alapján azonnal blokkolnak vagy azonosítanak. Ezzel szemben a megfelelőség legtöbb formája „emberi sebességgel” zajló folyamatokat foglal magában – egy csoportnak el kell olvasnia a megfelelőségi dokumentumaidat, interjút kell készítenie az alkalmazottaiddal, stb.
- Minimalista szint: A „Big Four” könyvvizsgáló cégek alkalmazása eseti megfelelőségi értékelésekre a fejlesztési gyakorlatok terén.
- Ambiciózus szint: Könyvvizsgáló cégek és AI-értékelő szakértők párosítása részletes éves felülvizsgálatokhoz és munkatársi interjúkhoz.
- Átfogó szint: Harmadik felek számára hozzáférés biztosítása a technikai forrásokhoz, beleértve a fejlesztés alatt álló modell-súlyokat is.
- Potenciális előny: Növeli a frontier AI kockázatok korlátozására tervezett biztonsági keretrendszereknek való megfelelést.
- Potenciális előny: Biztonsági garanciát nyújt a külső érdekelt felek, kormányok és a nyilvánosság számára.
- Operatív kockázat: Bizalmas információk kiszivárgása és magas erőforrásköltségek a vizsgált vállalatok számára.
- Operatív kockázat: Téves pozitív vagy negatív eredmények lehetősége az iparági szabványok hiánya miatt.
Miért fontos?
Ahogy az AI fejlesztése felgyorsul, növekszik a szakadék a „számítógépes sebességű” technikai biztonsági ellenőrzések és az „emberi sebességű” szabályozási megfelelőség között. A harmadik fél általi értékelések megteremthetik a szükséges bizalmat, de jelentős súrlódást vezetnek be, amelyet a gyorsan fejlődő AI szervezetek nehezen tudnak integrálni. ---