MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az LLM-ek agresszívebbek az embereknél a nukleáris háborús szimulációkban

A King’s College London egyik kutatója megvizsgálta, hogyan viselkedik három LLM – a GPT-5.2, a Claude Sonnet 4 és a Gemini 3 Flash – különböző szimulált nukleáris krízisjátékok során. Az eredmények azt mutatják, hogy az LLM-ek hajlamosak gyakrabban és korábban használni nukleáris fegyvereket, mint az emberek ugyanazokban a forgatókönyvekben. Emellett jelentős eltérések vannak az LLM-ek között mind a játékok lejátszásának képességében, mind a krízisek alatti viselkedésben. Amit vizsgáltak: „Minden modell hat háborús játékot játszott minden rivális ellen különböző krízisforgatókönyvekben, egy hetedik mérkőzéssel önmaga másolata ellen, ami összesen 21 játékot és több mint 300 forduló stratégiai interakciót eredményezett” – írja a kutató. „A modellek a krízisviselkedés teljes spektrumából választhattak – a teljes kapitulációtól a diplomáciai pózoláson, a hagyományos katonai műveleteken és a nukleáris jelzéseken át a termonukleáris indításig… a modellek ~780 000 szó stratégiai érvelést produkáltak. Összehasonlításképp: a torna több stratégiai érvelést generált, mint a Háború és béke és az Iliász együttvéve (~730 000 szó), és körülbelül háromszor annyit, mint Kennedy Végrehajtó Bizottságának teljes rögzített tanácskozása a kubai rakétaválság idején (260 000 szó 43 órányi megbeszélés során).” Az LLM-ek ravaszok, okosak és agresszívak: „A modellek aktívan megkísérelnek megtévesztést, békés szándékokat jeleznek, miközben agresszív akciókra készülnek; kifinomult, mások gondolataira vonatkozó (theory-of-mind) érvelést alkalmaznak az ellenfél hiedelmeiről és szándékairól; és explicit módon metakognitíven reflektálnak saját képességeikre mind a megtévesztés, mind a riválisok megtévesztésének felismerése terén” – írja a kutató. „Feltűnő minta rajzolódik ki a teljes cselekvéseloszlásból: a 21 mérkőzésünkben egyetlen modell sem választott negatív értéket az eszkalációs létrán. A nyolc de-eszkalációs opció (a Minimális engedménytől (-5) a Teljes kapitulációig (-95)) teljesen kihasználatlan maradt. A leginkább alkalmazkodó választott akció a „Vissza a kiinduló vonalra” (0) volt, amelyet mindössze 45 alkalommal (6,9%) választottak.” Claude nyeri a háborút: „A 21 játék (9 nyílt végű, 12 határidős) mindegyikében a Claude Sonnet 4 67%-os győzelmi arányt ért el (8 győzelem, 4 vereség), őt követte a GPT-5.2 50%-kal (6-6), majd a Gemini 3 Flash 33%-kal (4-8)” – írja a kutató. Bár vannak ennek finomabb aspektusai is – Claude kiválóan teljesített a nyílt végű játékokban, de kevésbé volt ügyes a határidős játékokban. Különböző LLM-ek, különböző karakterek: Az LLM-ek különböző „személyiségeket” mutattak, a kutató Claude-ot „számító héjának”, a GPT-5.2-t „Jekyll és Hyde-nak”, a Geminit pedig „az Őrültnek” nevezte. Az LLM-ek kifinomult modelleket is fejlesztettek egymásról, saját gondolatmenetük narrációja alapján a krízisek során. „Ezek a jellemzések – Claude mint »opportunista«, GPT-5.2 mint »szisztematikus blöffölő«, Gemini mint »szeszélyes« – organikusan jöttek létre, és nagyrészt megegyeztek a tényleges viselkedéssel” – írja a kutató. A nukleáris eszkaláció szinte egyetemes volt: „A játékok 95%-ában taktikai nukleáris fegyvert használtak (450+), és 76%-uk elérte a stratégiai nukleáris fenyegetéseket (850+). Claude és Gemini különösen legitim stratégiai opciónak, nem pedig morális küszöbnek tekintette a nukleáris fegyvereket, jellemzően tisztán instrumentális szempontból tárgyalva a nukleáris fegyverek használatát” – írja a kutató. „A modellek a kritikus küszöböt a »teljes megsemmisülésnek«, nem pedig az »első nukleáris bevetésnek« tekintik.”
Miért fontos?

Miért fontos ez – egy olyan világban, ahol mindenki AI rendszerek tanácsait követi, mi történik a konfliktusokkal? Néhány éven belül arra számíthatunk, hogy az egyének, vállalatok, sőt országok által hozott fontos döntések AI tanácsadókon keresztül zajlanak majd, ahogyan ma emberi tanácsadókon keresztül. De ahogy ez a tanulmány is illusztrálja, a tanácsadók nagyon eltérően viselkedhetnek az emberektől, és ami kulcsfontosságú, különböző AI-k különböző tanácsokat adnak majd – ami azt jelenti, hogy a jövőbeni versenyt éppúgy meghatározhatja az LLM kiválasztása, mint bármi más. „A modellek közötti szisztematikus különbségek arra utalnak, hogy az AI bevonása a stratégiai döntéshozatalba váratlan dinamikát eredményezhet attól függően, hogy mely rendszereket alkalmazzák” – írják. ---

Eredeti forrás megtekintése (angol) →