MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Érvek a harmadik fél általi megfelelőségi auditok mellett a frontier AI irányításában

A Center for the Governance of AI, a SaferAI, az Oxford Martin AI Governance Initiative, a Leverhulme Centre for the Future of Intelligence, a METR, a Harvard University és az Institute for Law & AI kutatói tanulmányt tettek közzé, amelyben a biztonsági gyakorlatoknak való megfelelés harmadik fél általi értékelése mellett érvelnek, mint az AI irányításának kulcsfontosságú eszközét. A szerzők három különböző módot javasolnak a harmadik fél általi megfelelőség megvalósítására, az egyszerűtől a bonyolultig. Ezek az opciók a Minimalista, az Ambiciózusabb és az Átfogó megközelítések. Bár a harmadik fél általi felügyelet ígéretes elképzelés, kihívásokat is felvet az operatív súrlódások és a biztonsági kockázatok tekintetében.
Miért fontos?

A legnagyobb probléma ezzel az egésszel a megfelelőség bármely formája és egy API-hívás közötti különbség: Bár általában egyetértek azzal az elképzeléssel, hogy a frontier AI fejlesztésnek több felügyeletre van szüksége, érdemes megjegyezni, hogy a felügyelet legtöbb formája olyan súrlódást okoz, amellyel egy gyorsan mozgó technikai szervezetnek nehéz terveznie. Úgy gondolom, hasznos mentális keret, ha észben tartjuk, hogy az „operatív biztonság” legtöbb formája számítógépes sebességgel történik... ezzel szemben a megfelelőség legtöbb formája olyan folyamatokat foglal magában, amelyek „emberi sebességgel” zajlanak. ---

Eredeti forrás megtekintése (angol) →