Szakértői felmérés emeli ki a konszenzust a biztonsági auditok és a red teaming kapcsán
Az AGI laboratóriumoknak „bevetés előtti kockázatértékeléseket, veszélyes képességek kiértékelését, harmadik fél általi modell-auditokat, a modellhasználatra vonatkozó biztonsági korlátozásokat és red teaminget” kellene végezniük a Centre for the Governance of AI által végzett felmérés eredményei szerint. Emellett a megkérdezettek 98%-a „részben vagy határozottan egyetértett” abban, hogy ezeket a gyakorlatokat be kell vezetni – ami szokatlanul magas szintű egyetértést jelent.
- A felmérés 51 szakértő válaszát gyűjtötte össze a megkeresett 92-ből, akik AGI laboratóriumoktól, az akadémiai szférából és a civil társadalomból érkeztek.
- A legkisebb egyetértés abban mutatkozott, hogy a laboroknak értesíteniük kellene-e más laborokat a bevetés előtt, vagy végezzenek-e laborok közötti ellenőrzést.
- A válaszadók abban sem értettek egyet, hogy a laboroknak el kellene-e kerülniük a „képességbeli ugrásokat” (capabilities jumps), vagy értesíteniük kellene-e az érintett feleket a rendszerek bevetése előtt.
Miért fontos?
Érdekes, hogy a legnagyobb egyetértés azokon a területeken van, amelyek közvetlenül a magánszektor szereplőinek ellenőrzése alatt állnak, míg a legkisebb egyetértés azokat a kérdéseket övezi, amelyek vagy a) sértik a trösztellenes szabályokat, vagy b) széles körű, szigorú szabályozást és/vagy nagyobb bürokratikus rendszereket igényelnének a megvalósításhoz.