AI BIZTONSÁG
Kutatók keretrendszert javasolnak a „garantáltan biztonságos” AI-rendszerekhez
AI kutatók felvázoltak egy ütemtervet arra vonatkozóan, hogyan lehetne „garantáltan biztonságos” AI-rendszereket építeni. A megközelítés lényege olyan rendszerek létrehozása, amelyek egy AI ágensből, valamint egyéb fizikai, hardveres és szoftveres összetevőkből állnak, és amelyek együttesen magas szintű, kvantitatív biztonsági garanciával rendelkeznek, figyelembe véve a korlátos számítási erőforrásokat.
A „Garantáltan Biztonságos” AI-rendszer olyan rendszer, amely kvantitatív biztonsági garanciával van ellátva, amelyet egy (vagy több) világmodell, biztonsági specifikáció és egy verifikáló rendszer hoz létre.
- Biztonsági specifikáció: Célja a társadalmi kockázati kritériumok és az AI-val való visszaélés veszélymodelljeinek kódolása.
- Világmodell: Egy rendszer, amely válaszol a kérdésekre arról, hogy mi történne a világban egy adott AI kimenet eredményeként, a kockázatok előrejelzése érdekében.
- Verifikáló: Olyan technológia, amely kvantitatív garanciát nyújt arra, hogy az AI-rendszer megfelel a specifikációnak a világmodellre vonatkozóan.
- A keretrendszer olyan specifikus esetekben is alkalmazható lenne, mint a nukleinsav-szekvenálás szűrése a kórokozók előállításának megakadályozására.
Miért fontos?
Fontos látni, hogy a biztonság itt azon múlik, hogy képesek vagyunk-e szűken meghatározni az AI-rendszer felhasználási módját. Ez azt jelenti, hogy az általános célú rendszerek biztonságát sokkal nehezebb garantálni – talán kombinatorikusan robbanásszerű módon. Bár a GS (Guaranteed Safe) megközelítés elméletben működőképesnek tűnik, ellentétes a ma fejlesztett általános célú rendszerek irányával. ---