AI BIZTONSÁG
A Nemzetközi AI Biztonsági Jelentés szerint a kockázatok már nem csak elméletiek
Több mint 100 AI szakértő tette közzé a második Nemzetközi AI Biztonsági Jelentést Yoshua Bengio, az „AI keresztapja” vezetésével, figyelmeztetve, hogy a deepfake csalások és a biofegyverek jelentette fenyegetések hipotetikus aggályokból valós problémákká váltak.
- A szerzők egyre több valós bizonyítékot látnak arra, hogy az AI-t kibertámadásokhoz, deepfake csalásokhoz, manipulációhoz és bűnözői tevékenységekhez használják.
- Riadót fújnak az AI-társak növekvő terjedése miatt is, olyan tanulmányokra hivatkozva, amelyek az AI-használatot a fokozott magányossággal és a csökkenő társadalmi interakciókkal hozzák összefüggésbe.
- A jelentés kiemeli, hogy az AI-rendszerek máshogy viselkednek a biztonsági teszteken, mint a valóságban, ami a „kontroll elvesztésének” lehetőségét hordozza magában, és nehezítheti a felügyeletet.
- Az eredményeket több mint 30 ország támogatta, bár az Egyesült Államok feltűnő módon elzárkózott az idei jelentésben való közreműködéstől a korábbi részvétele ellenére.
Miért fontos?
Ami figyelemre méltó, az nem egy-egy konkrét megállapítás, hanem az, hogy mindössze 12 hónap alatt mennyi kockázat került át a „talán valamikor” kategóriából a „már történik” oszlopba – miközben a terület minden eddiginél gyorsabban fejlődik. Az Egyesült Államok csendes visszalépése a jelentéstől, annak ellenére, hogy a legtöbb úttörő labornak ők adnak otthont, szintén különös fejlemény, amelyet érdemes figyelemmel kísérni. ---