AI KUTATÁS
Egy tanulmány eltérő stratégiai személyiségeket mutat ki a jelentősebb AI modellekben
A King’s College London és az University of Oxford kutatói azt vizsgálták, hogyan teljesítenek az AI rendszerek egymás ellen az iterált fogolydilemma különböző változataiban, amely egy klasszikus játékelméleti forgatókönyv a stratégiai érvelés mérésére. A tanulmányban a Google, az OpenAI és az Anthropic modelljeit elemezték, és megállapították, hogy az LLM-ek rendkívül versengőek, következetesen túlélnek, sőt, olykor elszaporodnak ezekben a komplex ökoszisztémákban.
- A kutatók hét körmérkőzéses tornát tartottak, amelyek összesen közel 32 000 egyéni döntést és indoklást eredményeztek.
- A Google Gemini modelljei „stratégiailag könyörtelennek” bizonyultak, kihasználva a kooperatív ellenfeleket és megtorolva az árulást.
- Az OpenAI modelljei rendkívül együttműködőek maradtak, ami a kutatók szerint „katasztrofálisnak” bizonyult ellenséges környezetben.
- Az Anthropic Claude modellje bizonyult a „legmegbocsátóbb viszonozónak”, amely hajlandóságot mutatott az együttműködés helyreállítására a kihasználás után is.
- A tanulmány során középkategóriás modelleket használtak, köztük a GPT-4o-mini, a Gemini-1.5-Flash és a Claude-3-Haiku rendszereket.
Miért fontos?
Az ehhez hasonló tanulmányok jól szemléltetik, hogy a nagy léptékű AI megjelenése egy új ökoszisztéma fejlődését jelenti a digitális világban, amely számos különböző „fajtát” tartalmaz a különböző szolgáltatók rendszerei formájában. Bár ezek az ágensek alapvető kognitív képességeikben hasonlíthatnak, egyéni stílusuk vagy személyiségük jelentősen eltér. ---