AI IRÁNYELVEK
A biztosítótársaságok a rendszerszintű felelősség miatt ki akarják zárni az AI-kockázatokat
Az olyan nagy biztosítók, mint az AIG és a WR Berkley, engedélyt kérnek az amerikai szabályozó hatóságoktól, hogy kizárhassák az AI-val kapcsolatos felelősségvállalást a vállalati kötvényekből. Érvelésük szerint az AI kimenetei túlságosan "fekete doboznak" minősülnek a hatékony árazáshoz. Az iparágban egyre szaporodnak a rémtörténetek a deepfake csalásoktól kezdve a jogosulatlan kedvezményeket kitaláló chatbotokig. A biztosítók elsődleges aggodalma azonban nem egy-egy nagy kifizetés, hanem az ágensekkel rendelkező (agentic) AI által jelentett rendszerszintű kockázat. Míg egy vállalatnál bekövetkező hatalmas veszteséget a biztosítók képesek kezelni, tartanak egy olyan forgatókönyvtől, ahol egy széles körben használt AI modell hibája egyszerre több ezer kárt okoz a teljes portfóliójukban.
- A Google AI Overview hamisan vádolt meg egy napenergiával foglalkozó céget jogi problémákkal, ami 110 millió dolláros perhez vezetett.
- Az Air Canada kénytelen volt elfogadni egy olyan kedvezményt, amelyet a chatbotja jogosulatlanul talált ki.
- Csalók egy vezető tisztségviselő deepfake változatát használták fel 25 millió dollár ellopására egy videóhívás során.
- A biztosítók attól tartanak, hogy az AI ágensek hibái egyszerre akár 10 000 káreseményt is kiválthatnak.
Miért fontos?
Azok a szakemberek, akiknek a legrosszabb forgatókönyvek kiszámítása a feladatuk, éppen most emelik fel a fehér zászlót, ami azt sugallja, hogy az AI ágensek gyors bevezetése olyan kockázatokat teremthet, amelyeket a jelenlegi pénzügyi rendszerek nem tudnak kezelni. ---