MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az objektív felelősség és a biztosítás mint az AI-biztonság eszközeinek vizsgálata

A Touro University, az Institute for Law and AI, az AIoi Nissay Dowa Insurance és az Oxford Martin AI Governance Initiative kutatói egy tanulmányban azt vizsgálják, hogy a biztosítás és a felelősségvállalás eszközei lehetnek-e az AI-ökoszisztéma biztonságának növelésének. A kutatók alapvetése az, hogy ha a döntéshozók büntető jellegű felelősségi rendszerek felé mozdulnak el bizonyos AI-károk esetén (például félrecsúszott ágensek vagy kiberámadásokra használt eszközök), az értékes innovációt indíthat el a biztosítási szektorban. A felelősség és a biztosítás mást fog jelenteni a különböző AI technológiák számára. Például az önvezető járművek (AV) esetében a gyártók objektív felelősségre vonása valójában visszavetheti a bevezetést, és több halálesetet okozhat, ha az AV-k biztonságosabbnak bizonyulnak az embernél. Ezzel szemben az AI ágensek vagy kiberbiztonsági eszközök képességeinek fejlődésével a visszaélések potenciálisan káros következményei nőnek, ami szigorúbb felelősségi rendszerek iránti igényt vet fel.
Miért fontos?

Az AI-összehangolás (alignment) és a visszaélések megelőzése nehéz, megoldatlan technikai és társadalmi problémák. A puszta „ésszerű gondosság” gyakorlása valószínűleg nem nyújt elegendő védelmet az AI ágensek és az AI-hoz köthető kiberatámadások által jelentett nagy és újszerű kockázatokkal szemben. ---

Eredeti forrás megtekintése (angol) →