2025. november 17. · MI Történik? · 2 perc olvasás
Anthony Aguirre, a Future of Life Institute kutatójának új tanulmánya, a „Kontroll Inverzió” arra figyelmeztet, hogy ahogy egyre fejlettebb AI rendszereket építünk, azok inkább elnyelik a hatalmat a világunktól, semmint hogy nekünk adnának hatalmat. Ez azt jelenti, hogy még ha valahogy át is vészeljük anélkül, hogy teljesen megölnének minket, akaratlanul is megfosztottuk az emberiséget erejétől és fegyvertelenül hagytuk. „Ahogy az AI intelligensebbé, általánosabbá és különösen autonómabbá válik, egyre kevésbé ad majd hatalmat – ahogy egy eszköz teszi –, és egyre inkább elnyeli azt. Ez azt jelenti, hogy az AGI és a szuperintelligencia felépítésére irányuló verseny végső soron önmagát gyengíti” – írja. Az erős AI építésére irányuló verseny során a siker „konfliktusba hoz minket egy olyan entitással, amely gyorsabb, stratégikusabb és képzettebb, mint mi magunk – ez egy vesztett ügy, függetlenül a kezdeti korlátoktól”. Az érvelés alapja „az ember és a szuperintelligencia közötti sebesség, komplexitás és gondolkodás mélységének összehasonlíthatatlansága”, ami „a kontrollt lehetetlenné vagy értelmetlenné teszi”. A szerző egy hasznos analógiával szemlélteti ezt – képzeljünk el egy emberi vezérigazgatót egy emberi cégnél, aki azonban a cég sebességének 1/50-ével működik. Ez azt jelenti, hogy amikor lefekszel aludni, az olyan, mintha több munkanap telne el a cég számára. Mi történik ilyenkor? A cég jóindulatúan bürokratikusan „kerülőutakat” alakít ki a vezérigazgató körül, végső soron megpróbálva minél több ügynökséget és autonómiát magára átruházni, hogy valós időben működhessen, ahelyett, hogy egy nagyon lassú és időszakosan elérhető vezető korlátozná. Ez meglehetősen meggyőző, és problémák egész sorára utal, amelyekkel az embereknek meg kell küzdeniük az AI biztonságossá és megbízhatóvá tétele érdekében.
Miért fontos?
Miért fontos ez – az érvek egyre nehezebben cáfolhatók: Ahogy Aguirre megjegyzi, sok olyan dolog, amiért ő és mások évek óta aggódtak és figyelmeztettek, most már egyszerű tulajdonságként jelentkezik a világban bevezetett AI rendszereknél, a hibás igazítástól (misalignment) a jutalom-hackelésig (reward hacking). Miért kellene tehát azt feltételeznünk, hogy jövőbeli jóslatai hamisak? Sokuk azon alapul, hogy egyszerűen veszik a jelenlegi technikai paradigmát, és a piaci ösztönzők által kijelölt alapértelmezett úton futtatják azt előre. Ez hátborzongató érzést kelt bennem. A legtöbb világvége filmben van egy rész a film elején, ahol egy-két ember rámutat, hogy valami rossz fog történni – egy aszteroida készül eltalálni a bolygót, egy robotot küldtek vissza az időben, hogy megölje őket, egy vírus rendkívül fertőző és veszélyes, és meg kell állítani –, és az emberek általában nem hisznek nekik, amíg a) túl késő nem lesz, vagy b) majdnem túl késő nem lesz. A tudósok AI biztonságról szóló tanulmányainak olvasása manapság nagyon is hasonlít erre. Bár talán a különbség ebben a filmben az, hogy nem egy-két perifériás karakter figyelmeztet a közelgő eseményekre, hanem most már több száz rendkívül sikeres tudósból álló közösség, köztük Turing-díjas és Nobel-díjasok is. „Jelenlegi pályánk során néhány hatalmas vállalat kockáztatja az egész jövőnket, hatalmas tétekkel, ismeretlen esélyekkel, és bármiféle érdemi szélesebb körű támogatás, beleegyezés vagy mérlegelés nélkül” – írja.
---