MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az eszkatológiai AI-irányelvek bevezetésének kihívásai a globális vezetők számára

Sokan, akik törődnek az AI rendszerek növekvő erejével és szakpolitikai pályára lépnek, alapvetően eszkatológiai (világvége-központú) okokból teszik ezt – meg vannak győződve arról, hogy a rosszul kezelt vagy tervezett nagy teljesítményű AI rendszerek egy ponton véget vethetnek a világnak. Ezt szó szerint értik: az AI az emberek fokozatos, majd teljes hatalomvesztéséhez, sőt, akár az egész faj pusztulásához vezethet. Az ilyen nézeteket vallók gyakran nem veszik észre, mennyire őrültnek hangzanak – és szerintem nem is képesek empátiát mutatni azon döntéshozók felé, akikkel beszélni próbálnak. Képzelje el, hogy Ön egy jelentős világgazdaság magas rangú döntéshozója: a napja szárazföldi háborúk kezelésével, a kereskedelmi rendszerek változásaival, geopolitikai ütközésekkel és biztonsági eligazításokkal telik. Aztán valaki azt mondja Önnek: „Valami istenhez hasonló érkezik két éven belül, és ha nem kezeli prioritásként azonnal, mindenki meghal.” Ez jól illusztrálja, milyen nehéz döntéshozónak lenni 2025-ben, és minden más mellett még az AI-val is foglalkozni. Már az AI problémáinak kezelése is költséges. El kell vonnia a munkatársait, akik maguk is rendkívül elfoglaltak és túlterheltek, és meg kell kérnie őket, hogy vegyenek fel egy új témát, tovább darabolva a heti agendát, és olyan szakértőkkel konzultáljanak, akik gyakran homlokegyenest ellenkező véleményt képviselnek. Most meg kell ismernie a lehetséges politikai lépéseket, amelyek közé tartozik a lehetőségek korlátozése exporttilalmakkal, a kormányzati képességek növelése a terület megértésére, a viselkedés megváltoztatása önkéntes kötelezettségvállalásokkal vagy törvénymódosításokkal. Képzeljük el, hogy meghozza mindezeket a politikai döntéseket. Mi történik ezután? Nos, leginkább annyit ért el, hogy elkerült vagy késleltetett egy katasztrófát, amelyről a legtöbb embernek tudomása sem volt. A „jutalma” az, hogy olyan döntéshozóként ismerik meg, aki „tett valamit”, de hogy amit tett, az jó-e vagy sem, azt nagyon nehéz megállapítani. Ha visszamegy az AI-szakértőhöz, valószínűleg azt fogja mondani: „csak több időt nyert nekünk”.
Miért fontos?

Mindezt azért írom le, hogy szemléltessem az AI-politika kidolgozásának hatalmas nehézségeit, amikor valaki őszintén hiszi, hogy a technológia képes lehet véget vetni a világnak. A legtöbb politikai lépés, amit az emberek tesznek, vadul kielégítetlennek fog tűnni a probléma léptékéhez képest. Eközben az ezeket a lépéseket megtevő döntéshozók valószínűleg egymillió más prioritás mellett zsonglőrködnek velük, és az AI-szakértőktől várnak némi magabiztosságot és megerősítést – egyiket sem adják könnyen. ---

Eredeti forrás megtekintése (angol) →