MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A központosított hatalom és a szabályozási túllépés kockázatai az AI irányelvekben

Az AI irányelvekben bekövetkezett legutóbbi változások az agresszív szabályozási ötletek felé mozdultak el, mint például az AI rendszerek fejlesztéséhez szükséges engedélyek, a fejlesztés ideiglenes leállítása vagy a nyílt forráskódú (open-source) modellek elé gördített súlyos megfelelési akadályok. Növekszik az aggodalom, hogy ezek a javaslatok veszélyes mértékű hatalmat adnak a kormányzati szervek kezébe – olyan hatalmat, amelyet a történelmi példák szerint ritkán adnak vissza a nyilvánosságnak. Az irányelveket egyfajta "kilincsműhöz" hasonlítják, amely idővel egyre szorosabbá válik, így a mai kormányzati hatalom szintje lesz a jövő állandó alapköve. Sok ilyen kockázatorientált javaslatot az a hit vezérel, hogy az AGI elpusztítja az emberiséget, ami miatt a támogatók úgy érzik, bármilyen jelenlegi intézkedés indokolt. Ez a hozzáállás azonban gyakran figyelmen kívül hagyja, mennyire népszerűtlenek vagy észszerűtlenek ezek az ötletek a nagyközönség számára, és vakfoltot hoz létre az elkerülhetetlen társadalmi és politikai ellenreakciók költségeivel kapcsolatban. Ehelyett a "kevesebb néha több" megközelítést javasolják, olyan robusztus ötleteket pártolva, amelyek különböző jövőbeli forgatókönyvek esetén is előnyösek maradnak a spekulatív kockázati modellek helyett.
Miért fontos?

Ez megkérdőjelezi az AI irányításban uralkodó "biztonság mindenáron" narratívát, sugallva, hogy az elméleti kockázatok megelőzésére létrehozott szabályozási struktúrák maguk is az állami kontroll és a központosítás veszélyes eszközeivé válhatnak. ---

Eredeti forrás megtekintése (angol) →