MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Szakértői felmérés emeli ki a konszenzust a biztonsági auditok és a red teaming kapcsán

Az AGI laboratóriumoknak „bevetés előtti kockázatértékeléseket, veszélyes képességek kiértékelését, harmadik fél általi modell-auditokat, a modellhasználatra vonatkozó biztonsági korlátozásokat és red teaminget” kellene végezniük a Centre for the Governance of AI által végzett felmérés eredményei szerint. Emellett a megkérdezettek 98%-a „részben vagy határozottan egyetértett” abban, hogy ezeket a gyakorlatokat be kell vezetni – ami szokatlanul magas szintű egyetértést jelent.
Miért fontos?

Érdekes, hogy a legnagyobb egyetértés azokon a területeken van, amelyek közvetlenül a magánszektor szereplőinek ellenőrzése alatt állnak, míg a legkisebb egyetértés azokat a kérdéseket övezi, amelyek vagy a) sértik a trösztellenes szabályokat, vagy b) széles körű, szigorú szabályozást és/vagy nagyobb bürokratikus rendszereket igényelnének a megvalósításhoz.

Eredeti forrás megtekintése (angol) →