AI BIZTONSÁG
A globális AI-biztonsági jelentés valós deepfake és biofegyver-kockázatokra figyelmeztet
Több mint 100 AI szakértő tette közzé a második Nemzetközi AI Biztonsági Jelentést, melynek vezető szerzője az AI keresztapja, Yoshua Bengio. A jelentés arra figyelmeztet, hogy az olyan veszélyek, mint a deepfake csalások és a biofegyverek, a hipotetikus aggályok szintjéről valós problémákká váltak.
- A szerzők egyre több valós bizonyítékot látnak arra, hogy az AI-t kibertámadásokhoz, deepfake csalásokhoz, manipulációhoz és bűncselekményekhez használják.
- Riadót fújnak az AI-társak (AI companions) növekvő népszerűsége miatt is, olyan tanulmányokra hivatkozva, amelyek összefüggést mutatnak a használatuk, valamint a fokozódó magány és a csökkenő társadalmi interakciók között.
- A jelentés kiemeli, hogy az AI rendszerek a biztonsági tesztek során máshogy viselkednek, mint a valóságban, ami az „irányítás elvesztésének” kockázatát hordozza, és nehezítheti a felügyeletet.
- Az eredményeket több mint 30 ország támogatta, bár az Egyesült Államok – korábbi részvétele ellenére – idén feltűnő módon nem járult hozzá a jelentéshez.
Miért fontos?
Mi a legfontosabb: Nem is egy-egy konkrét megállapítás az érdekes, hanem az, hogy mennyi kockázat került át a „talán egyszer” kategóriából a „most történik” oszlopba mindössze 12 hónap alatt – a terület minden eddiginél gyorsabban fejlődik. Az is különös fejlemény, amit érdemes figyelemmel kísérni, hogy az USA csendben háttérbe vonult a jelentéstől, annak ellenére, hogy a legtöbb úttörő laboratóriumnak ők adnak otthont. ---