Bostrom: Kövessük a szuperintelligenciát az emberi egészségért a kockázatok ellenére
2026. február 16. · MI Történik? · 3 perc olvasás
A leállás vagy lassítás az exponenciális növekedés legvégén talán értelmes, de kockázatos… Nick Bostrom, egy tudós, aki sok embert bevezetett a szuperintelligencia és az AI kockázat fogalmába, egy tanulmányban fejtette ki azt az elképzelést, hogy ha a szuperintelligencia javíthatja az emberi egészséget, akkor érdemes törekedni rá, még akkor is, ha van nem nulla esélye arra, hogy a faj kihalását okozza. „Yudkowsky és Soares fenntartják, hogy ha valaki AGI-t épít, mindenki meghal. Ugyanolyan alapon fenntartható, hogy ha senki sem építi, mindenki meghal” – írja Bostrom az Optimal Timing for Superintelligence című művében. „Ha a szuperintelligencia korszakába való átmenet jól alakul, hatalmas előnyökkel járhat mind a jelenleg élő egyének életének megmentése, mind a Földről származó intelligens élet hosszú távú túlélésének és virágzásának biztosítása szempontjából. A választás tehát nem egy kockázatmentes alapállapot és egy kockázatos AI vállalkozás között van. Hanem különböző kockázatos pályák között, amelyek mindegyike eltérő veszélyeknek tesz ki bennünket.” Miért kell a szuperintelligenciára törekednünk, még a végzet esélye mellett is: Ha belegondolunk a ma élő emberekbe és az általuk tapasztalt eltérő várható élettartamokba – különösen a fejlődő világban –, akkor arra a nézetre jutunk, hogy minden pillanat, amit a szuperintelligencia bevetésének halogatásával vesztegetünk, növeli az emberi szenvedést. „Amikor mindkét oldalt figyelembe vesszük, világossá válik, hogy az egyéni várható élettartamunk magasabb, ha a szuperintelligencia ésszerűen hamar kifejlesztésre kerül. Ráadásul az élet, amit nyerhetünk, feltehetőleg mérhetetlenül magasabb minőségű lenne, mint az az élet, amit kockáztatunk” – írja Bostrom. Kulcsfontosságú változók: A kulcsfontosságú változók itt természetesen annak kockázata, hogy egy szuperintelligencia elpusztít minket, és az is, hogy milyen sebességgel csökkentheti ezt az esélyt a biztonsági kutatás. Ezen nézet szerint a szuperintelligencia fejlesztése a legtöbb körülmény között kedvező dolog. A haladás sebessége és az AI biztonsági kutatás érettsége hatással lehet az ütemtervre: „Amikor a kezdeti kockázat alacsony, az optimális stratégia az AGI mielőbbi elindítása – hacsak a biztonsági fejlődés kivételesen gyors nem, ebben az esetben rövid, néhány hónapos késleltetés indokolt lehet. Ahogy a kezdeti kockázat nő, az optimális várakozási idők is hosszabbodnak. De hacsak a kiinduló kockázat nem nagyon magas, és a biztonsági fejlődés nem lassú, az előnyben részesített késleltetés szerény marad – jellemzően egy számjegyű évek.” A szüneteltetésről – és annak veszélyeiről és előnyeiről: Sokan az AI biztonsági közösségben szeretnének valamilyen szünetet az AI fejlesztésében, hogy több időt nyerjenek az AI biztonsági kutatásra. Bostrom meglehetősen szkeptikus azzal kapcsolatban, hogy a szünet hatékony lenne, és felvázolja néhány nem kívánt hatását:
Túl korai: Ha túl korán teszi, az emberek hatástalannak tartják a szüneteltetést.
Rossz szabályozás: Rossz szabályozás miatt elfojtja vagy késlelteti a jövőbeni jó dolgokat.
Szünet, kivéve nemzetbiztonság: Nagyon kevés széles körű társadalmi előnnyel jár, de a hadsereg hatalmas AI-hoz való hozzáférése nagyon ijesztővé válik.
Elhúzódó veszély: A világ ki van téve a jelenlegi AI kockázatainak anélkül, hogy a fejlettebb AI által biztosított védelem meglenne.
Miért fontos?
Miért fontos ez – a szüneteltetésnek csak a legvégén lehet értelme, és ez eredendően kockázatos: Bostrom végül arra a nézetre jut, hogy amennyiben szüneteltetni vagy lassítani akarjuk a fejlesztést, azt akkor érdemes megtenni, amikor a legnagyobb a bizalmunk abban, hogy a szünet hatékony lenne, és hozzájárulna a faj kihalásának esélyének csökkentéséhez, és nem túl korán jön. Ez teszi lehetővé a legnagyobb mértékű mérlegelést arról, hogyan vezessünk be egy szuperintelligenciát anélkül, hogy indokolatlan szünetet kockáztatnánk. Ennek a nézetnek a kritikusai azt mondhatják, hogy ez hasonló ahhoz, mintha valakinek azt ajánlanánk, hogy próbáljon elkapni egy leeső kést. Ha túl korán kapja el a kést, óriási fájdalmat él át. Ha túl későn kapja el, elszalasztotta az alkalmat, és a gravitáció összejátszik vele, hogy nagy kárt okozzon mindennek, ami alatta van. Pontosan kell időzíteni a dolgokat. Bostrom így összegzi álláspontját: „gyorsan a kikötőbe, lassan a dokkba: gyorsan haladjunk az AGI képesség felé, majd, ahogy több információt szerzünk a fennmaradó biztonsági kihívásokról és a helyzet sajátosságairól, készüljünk fel arra, hogy esetleg lassítsunk és alkalmazkodjunk, miközben navigálunk a skálázás és bevezetés kritikus szakaszain. Ebben a végső szakaszban hozhatja a legnagyobb hasznot egy rövid szünet.”
---