Az objektív felelősség és a biztosítás mint az AI-biztonság eszközeinek vizsgálata
A Touro University, az Institute for Law and AI, az AIoi Nissay Dowa Insurance és az Oxford Martin AI Governance Initiative kutatói egy tanulmányban azt vizsgálják, hogy a biztosítás és a felelősségvállalás eszközei lehetnek-e az AI-ökoszisztéma biztonságának növelésének. A kutatók alapvetése az, hogy ha a döntéshozók büntető jellegű felelősségi rendszerek felé mozdulnak el bizonyos AI-károk esetén (például félrecsúszott ágensek vagy kiberámadásokra használt eszközök), az értékes innovációt indíthat el a biztosítási szektorban.
A felelősség és a biztosítás mást fog jelenteni a különböző AI technológiák számára. Például az önvezető járművek (AV) esetében a gyártók objektív felelősségre vonása valójában visszavetheti a bevezetést, és több halálesetet okozhat, ha az AV-k biztonságosabbnak bizonyulnak az embernél. Ezzel szemben az AI ágensek vagy kiberbiztonsági eszközök képességeinek fejlődésével a visszaélések potenciálisan káros következményei nőnek, ami szigorúbb felelősségi rendszerek iránti igényt vet fel.
- Objektív felelősséget javasol bizonyos AI-károk, például a nem megfelelően illeszkedő (misaligned) ágensek esetén.
- Kötelező biztosítást indítványoz a komplex AI-val kapcsolatos kockázatok számszerűsítésére.
- A biztosíthatatlan katasztrofális kockázatok kezelésére kiterjesztett büntető kártérítést sürget.
- Javasolja a fejlesztők és felhasználók közvetett felelősségre vonását a jogellenes magatartásért.
- Kiemeli a „különösen veszélyes tevékenységek” doktrínáját mint lehetséges jogi utat.
Miért fontos?
Az AI-összehangolás (alignment) és a visszaélések megelőzése nehéz, megoldatlan technikai és társadalmi problémák. A puszta „ésszerű gondosság” gyakorlása valószínűleg nem nyújt elegendő védelmet az AI ágensek és az AI-hoz köthető kiberatámadások által jelentett nagy és újszerű kockázatokkal szemben. ---