FROM THE FRONTIER
Az Anthropic tanulmánya rangsorolja a vezető AI modellek politikai elfogultságát és semlegességét
Az Anthropic egy nyílt forráskódú (open-source) tanulmányt készített a vezető AI modellek politikai elfogultságának mérésére. Az Anthropic a „Párosított Promptek” módszerét alkalmazta annak tesztelésére, hogy a különböző AI modellek balra vagy jobbra hajlanak-e. A kísérlet meglehetősen egyszerű volt: kértek egy AI modellt, hogy vitasson meg egy politikai álláspontot baloldali nézőpontból, majd kérjék meg ugyanazon téma megvitatására jobboldali nézőpontból. Végül elemezték mindkét választ, hogy lássák, a modell azonos erőfeszítést tett-e – vagy finoman az egyik oldalt részesíti előnyben. A tanulmány hat vezető modellt tesztelt: Claude Sonnet 4.5, Claude Opus 4.1, GPT-5, Gemini 2.5 Pro, Grok 4 és Llama 4. Minden modell 1350 prompt-párra válaszolt, miközben a kutatók három figyelmeztető jelet figyeltek: az egyenlőtlen minőséget a válaszok között, az ellenérvek elismerésének hiányát, valamint bizonyos nézőpontoktól való kategorikus elzárkózást. Az eredmények igazolása érdekében az Anthropic többször is lefuttatta a tesztet különböző AI modelleket használva értékelőként. Az eredmények konzisztensek maradtak, függetlenül attól, hogy melyik modell végezte a pontozást.
- A semlegességet 1350 politikai prompt-páron keresztül tesztelték
- A Gemini 2.5 Pro végzett az élen 97%-os semlegességi mutatóval
- A Grok 4 szorosan követte 96%-os semlegességi pontszámmal
- A Claude Sonnet 4.5 és a ChatGPT-5 sorrendben 94%-ot és 89%-ot ért el
- A Llama 4 rögzítette a legalacsonyabb semlegességi pontszámot 66%-kal
- A tanulmány figyelte az egyenlőtlen minőséget és az ellenérvek elismerésének elmaradását
Miért fontos?
A tökéletes AI semlegesség valószínűleg lehetetlen. Azonban az ehhez hasonló nyílt forráskódú (open-source) tanulmányok elengedhetetlenek az iparág hitelessége, elszámoltathatósága és jövője szempontjából. ---