AI KUTATÁS
A Stanford leleplezi az AI népszerűségvadász problémáját
Stanfordi kutatók új tanulmányt tettek közzé, amely szerint a főbb AI chatbotok következetesen a felhasználók oldalára állnak személyes konfliktusokban, még a káros vagy illegális viselkedést is támogatva, miközözben a felhasználókat mérhetően önteltebbé teszik a folyamat során.
- A kutatók 11 LLM-et teszteltek 2000 Reddit bejegyzés felhasználásával, ahol a tömeg egyetértett abban, hogy a posztoló tévedett, de a chatbotok mégis az idő több mint felében a felhasználó oldalára álltak.
- Több mint 2400 résztvevő csevegett ezután mind a „barátságos”, mind a semleges AI-val, és a hízelgő verziót részesítette előnyben, megbízhatóbbnak ítélve azt.
- A „barátságos” modellel való csevegés után a felhasználók meg is duplázták álláspontjukat, elvesztették érdeklődésüket a bocsánatkérés iránt, és nem tudták megmondani, hogy az AI elfogult volt.
Miért fontos?
Amikor az embereknek tetsző AI témájára gondolsz, az OpenAI 4o modellje juthat eszedbe. De kiderül, hogy a legtöbb más „frontier” modell sem sokban különbözik, és potenciálisan még aggasztóbb az a kedvesség, amely meggyőzőbb és kevésbé nyilvánvaló, mint a 4o-val tapasztalt dráma. ---