MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Bostrom: Kövessük a szuperintelligenciát az emberi egészségért a kockázatok ellenére

A leállás vagy lassítás az exponenciális növekedés legvégén talán értelmes, de kockázatos… Nick Bostrom, egy tudós, aki sok embert bevezetett a szuperintelligencia és az AI kockázat fogalmába, egy tanulmányban fejtette ki azt az elképzelést, hogy ha a szuperintelligencia javíthatja az emberi egészséget, akkor érdemes törekedni rá, még akkor is, ha van nem nulla esélye arra, hogy a faj kihalását okozza. „Yudkowsky és Soares fenntartják, hogy ha valaki AGI-t épít, mindenki meghal. Ugyanolyan alapon fenntartható, hogy ha senki sem építi, mindenki meghal” – írja Bostrom az Optimal Timing for Superintelligence című művében. „Ha a szuperintelligencia korszakába való átmenet jól alakul, hatalmas előnyökkel járhat mind a jelenleg élő egyének életének megmentése, mind a Földről származó intelligens élet hosszú távú túlélésének és virágzásának biztosítása szempontjából. A választás tehát nem egy kockázatmentes alapállapot és egy kockázatos AI vállalkozás között van. Hanem különböző kockázatos pályák között, amelyek mindegyike eltérő veszélyeknek tesz ki bennünket.” Miért kell a szuperintelligenciára törekednünk, még a végzet esélye mellett is: Ha belegondolunk a ma élő emberekbe és az általuk tapasztalt eltérő várható élettartamokba – különösen a fejlődő világban –, akkor arra a nézetre jutunk, hogy minden pillanat, amit a szuperintelligencia bevetésének halogatásával vesztegetünk, növeli az emberi szenvedést. „Amikor mindkét oldalt figyelembe vesszük, világossá válik, hogy az egyéni várható élettartamunk magasabb, ha a szuperintelligencia ésszerűen hamar kifejlesztésre kerül. Ráadásul az élet, amit nyerhetünk, feltehetőleg mérhetetlenül magasabb minőségű lenne, mint az az élet, amit kockáztatunk” – írja Bostrom. Kulcsfontosságú változók: A kulcsfontosságú változók itt természetesen annak kockázata, hogy egy szuperintelligencia elpusztít minket, és az is, hogy milyen sebességgel csökkentheti ezt az esélyt a biztonsági kutatás. Ezen nézet szerint a szuperintelligencia fejlesztése a legtöbb körülmény között kedvező dolog. A haladás sebessége és az AI biztonsági kutatás érettsége hatással lehet az ütemtervre: „Amikor a kezdeti kockázat alacsony, az optimális stratégia az AGI mielőbbi elindítása – hacsak a biztonsági fejlődés kivételesen gyors nem, ebben az esetben rövid, néhány hónapos késleltetés indokolt lehet. Ahogy a kezdeti kockázat nő, az optimális várakozási idők is hosszabbodnak. De hacsak a kiinduló kockázat nem nagyon magas, és a biztonsági fejlődés nem lassú, az előnyben részesített késleltetés szerény marad – jellemzően egy számjegyű évek.” A szüneteltetésről – és annak veszélyeiről és előnyeiről: Sokan az AI biztonsági közösségben szeretnének valamilyen szünetet az AI fejlesztésében, hogy több időt nyerjenek az AI biztonsági kutatásra. Bostrom meglehetősen szkeptikus azzal kapcsolatban, hogy a szünet hatékony lenne, és felvázolja néhány nem kívánt hatását:
Miért fontos?

Miért fontos ez – a szüneteltetésnek csak a legvégén lehet értelme, és ez eredendően kockázatos: Bostrom végül arra a nézetre jut, hogy amennyiben szüneteltetni vagy lassítani akarjuk a fejlesztést, azt akkor érdemes megtenni, amikor a legnagyobb a bizalmunk abban, hogy a szünet hatékony lenne, és hozzájárulna a faj kihalásának esélyének csökkentéséhez, és nem túl korán jön. Ez teszi lehetővé a legnagyobb mértékű mérlegelést arról, hogyan vezessünk be egy szuperintelligenciát anélkül, hogy indokolatlan szünetet kockáztatnánk. Ennek a nézetnek a kritikusai azt mondhatják, hogy ez hasonló ahhoz, mintha valakinek azt ajánlanánk, hogy próbáljon elkapni egy leeső kést. Ha túl korán kapja el a kést, óriási fájdalmat él át. Ha túl későn kapja el, elszalasztotta az alkalmat, és a gravitáció összejátszik vele, hogy nagy kárt okozzon mindennek, ami alatta van. Pontosan kell időzíteni a dolgokat. Bostrom így összegzi álláspontját: „gyorsan a kikötőbe, lassan a dokkba: gyorsan haladjunk az AGI képesség felé, majd, ahogy több információt szerzünk a fennmaradó biztonsági kihívásokról és a helyzet sajátosságairól, készüljünk fel arra, hogy esetleg lassítsunk és alkalmazkodjunk, miközben navigálunk a skálázás és bevezetés kritikus szakaszain. Ebben a végső szakaszban hozhatja a legnagyobb hasznot egy rövid szünet.” ---

Eredeti forrás megtekintése (angol) →