AI IRÁNYELVEK
A központosított hatalom és a szabályozási túllépés kockázatai az AI irányelvekben
Az AI irányelvekben bekövetkezett legutóbbi változások az agresszív szabályozási ötletek felé mozdultak el, mint például az AI rendszerek fejlesztéséhez szükséges engedélyek, a fejlesztés ideiglenes leállítása vagy a nyílt forráskódú (open-source) modellek elé gördített súlyos megfelelési akadályok. Növekszik az aggodalom, hogy ezek a javaslatok veszélyes mértékű hatalmat adnak a kormányzati szervek kezébe – olyan hatalmat, amelyet a történelmi példák szerint ritkán adnak vissza a nyilvánosságnak. Az irányelveket egyfajta "kilincsműhöz" hasonlítják, amely idővel egyre szorosabbá válik, így a mai kormányzati hatalom szintje lesz a jövő állandó alapköve.
Sok ilyen kockázatorientált javaslatot az a hit vezérel, hogy az AGI elpusztítja az emberiséget, ami miatt a támogatók úgy érzik, bármilyen jelenlegi intézkedés indokolt. Ez a hozzáállás azonban gyakran figyelmen kívül hagyja, mennyire népszerűtlenek vagy észszerűtlenek ezek az ötletek a nagyközönség számára, és vakfoltot hoz létre az elkerülhetetlen társadalmi és politikai ellenreakciók költségeivel kapcsolatban. Ehelyett a "kevesebb néha több" megközelítést javasolják, olyan robusztus ötleteket pártolva, amelyek különböző jövőbeli forgatókönyvek esetén is előnyösek maradnak a spekulatív kockázati modellek helyett.
- A "biztonság" (safety) kifejezést gyakran gyűjtőfogalomként használják olyan felügyeleti rendszerek igazolására, amelyek mögött nincs kvantitatív kockázati háttér vagy kidolgozott fenyegetési modell.
- A központosított bürokráciák, mint például egy nukleáris szabályozó hatósághoz hasonló AI testület, vélhetően gátolják az innovációt.
- Az engedélyeztetés és a bevezetési korlátok felé való elmozdulást kritizálják, mivel azok magas költségű akadályokat gördítenek a kisebb szereplők és a open-source fejlesztők elé.
- Az irányelvek támogatóit figyelmeztetik: egy spekulatív jövő megmentésére létrehozott "hadsereg" a jelenben természetes módon hívja életre az aktuális jogokért küzdő ellen-hadsereget.
Miért fontos?
Ez megkérdőjelezi az AI irányításban uralkodó "biztonság mindenáron" narratívát, sugallva, hogy az elméleti kockázatok megelőzésére létrehozott szabályozási struktúrák maguk is az állami kontroll és a központosítás veszélyes eszközeivé válhatnak. ---