Szuperintelligencia kockázatok: Globális kormány vagy emberi kihalás
2025. november 10. · MI Történik? · 3 perc olvasás
A szuperintelligencia felé vezető utak többsége globális kormánnyal vagy emberi kihalással végződik:…Az AI biztonsági szervezet Conjecture elemzése zord képet fest… A Conjecture, egy AI biztonsági szervezet, amelynek alapítói úgy vélik, hogy a ma ismert technikai paradigma alapján a nagy teljesítményű AI rendszerek fejlesztése szinte biztosan rossz kimenetelhez vezet a világ számára, kutatási tanulmányt írt arról, hogy az AI fejlesztése súlyos kockázatokat rejt az emberiség számára. Bár ez nem tűnhet meglepőnek, ahogyan a „kutya megharapta a férfit” sem egy meglepő újságcím, mégis egy gyors, átgondolt olvasmány, amely bemutatja azoknak a nézőpontját, akik aggódnak az AI fejlesztése miatt.
The key problem - powerful AI systems centralize power: A fő probléma itt az, hogy egy kellően erős AI rendszer fejlesztése más nemzetek előtt megteremti a potenciált egy szuperhatalom számára, hogy „kihívhatatlan globális dominanciát” érjen el. Tudod, ki nem szereti a kihívhatatlan globális dominanciát? Más nagyhatalmak. Ez egy logikai lánchoz vezet, ami azt jelenti, hogy „a lemaradó szuperhatalmak, a közelgő vereséggel szemben, megelőző vagy preemtív támadást indítanak, konfliktust robbantva ki a nagyhatalmak között”, ami valószínűleg a világ pusztulásához vezet. (A megelőző csapásokat valószínűsítő ördögi logika közvetlen elemzéséhez olvasd el a RAND ezen tanulmányát, amely lényegében azt dekódolja, hogy a megelőző támadások arányosan nőnek azzal, hogy az emberek mennyire hisznek a hatalmas, destabilizáló AI rendszerek potenciáljában. [Import AI #430](https://jack-clark.net/2025/10/06/import-ai-430-emergence-in-video-models-unitree-backdoor-preventative-strikes-to-take-down-agi-projects/)). Alternatív megoldásként egy hatalom sikerrel járhat, és elkerülheti a megelőző csapást – ebben az esetben egyfajta globális diktátorrá válik, eltörölve a mai, különböző kormányokkal rendelkező országok eloszlásában rejlő heterogenitást. És ha kiderül, hogy az említett szuperhatalom nem oldotta meg tökéletesen az AI igazítást, akkor „a nagy teljesítményű AI rendszerek feletti kontroll elvesztése katasztrofális következményekhez, például emberi kihaláshoz vezet”. Zord dolgok!
Short timeline contingent: A fentiek mind a rövid AI idővonalaktól függnek – azaz lehetséges rendkívül nagy teljesítményű AI rendszereket fejleszteni az elkövetkező néhány évben, és a nemzetállamok valamilyen szinten tudatában vannak annak, hogy a fejlesztésük során összetett előnyre tehetnek szert az AI kutatás-fejlesztés automatizálásán keresztül. „Modelljeink azt sugallják, hogy az AI fejlesztésének pályája elhomályosíthatja a geopolitikai kimenetelek egyéb meghatározó tényezőit, lendületet adva a rendkívül nemkívánatos jövő felé.”
Megelőzés: „A nemzetközi közösségnek olyan mechanizmusokra lenne szüksége, amelyek megakadályozzák, hogy bármely szereplő egyoldalúan előmozdítsa az AI fejlesztését, lehetővé téve a további haladást csak olyan megközelítések révén, amelyek a biztonsággal kapcsolatos erős tudományos konszenzuson alapulnak”.
Ellenőrzés: „Átfogó ellenőrző rendszerekre lenne szükség annak biztosítására, hogy egyetlen szereplő se titokban ne tolja a veszélyes AI képességek határait”.
Miért fontos?
Miért fontos ez – sci-fi-nek hangzik, de lehet, hogy nem az: Az én szemszögemből mindennek az alapvető része az, hogy az AI rendszerek képesek lesznek-e hozzájárulni saját fejlesztésükhöz, ezáltal lehetővé téve egy összetett előny kialakulását. Bár viszonylag kevés bizonyíték van arra, hogy az AI rendszerek ma erre képesek lennének, sok élvonalbeli AI fejlesztő szervezetnek az a kimondott célja, hogy olyan rendszereket építsen, amelyek képesek hozzájárulni az AI kutatás-fejlesztéshez. Tekintettel arra, hogy az élvonalbeli AI szervezetek korábbi céljai sci-fi-nek hangzottak, majd valóra váltak (pl. világklasszis Go-bajnok legyőzése (elérve), önvezető autók bevezetése a nyilvánosság számára (elérve), felügyelet nélküli fordítás egyik nyelvről a másikra (elérve), a fehérjehajtogatás problémájának megoldása (elérve)), ezt komolyan kell vennünk.