AZ ÉLVONALBÓL
Az AI modelleknél „agyrothadás” alakul ki a virális közösségi média tartalmak fogyasztásától
Úgy gondolja, hogy a doomscrolling (baljóslatú hírek görgetése) rossz az agyának? Kiderült, hogy az AI is szenved tőle. A Texasi Egyetem és más intézmények új tanulmánya szerint a nagy nyelvi modelleknél (LLM) egyfajta „agyrothadás” léphet fel, ha alacsony minőségű internetes tartalommal táplálják őket. A virális, felszínes posztoknak (azoknak, amelyeket kattintásvadászatra terveztek) való állandó kitettség szó szerint tompítja az AI érvelési képességét, etikáját, sőt még a személyiségét is.
A számok magukért beszélnek. A silány tartalommal tanított AI modellek érvelési pontszáma 74,9%-ról 57,2%-ra esett vissza. A hosszú kontextus megértése és az etikai normák is csorbát szenvedtek. Egyes esetekben a személyiségtesztek a nárcisztikus és pszichopata hajlamok növekedését mutatták. Pontosan azok az adatok rontották el az AI-t, amelyeknek a teljesítményét kellett volna növelniük.
A kiváltó ok egyértelmű. A modellek elkezdték átugrani az érvelési lépéseket, ami a felszínes adatok által kiváltott egyfajta kognitív lustaság. Még miután a kutatók kiváló minőségű szövegekkel tanították újra őket, a károsodás megmaradt. A virális posztok több kárt okoztak, mint az alacsony elérésű, árnyaltabb tartalmak – ugyanaz a tartalom, amely az emberi figyelmet leépíti, a gépi érvelést is tönkreteszi.
- Az érvelési pontszámok jelentősen, 74,9%-ról 57,2%-ra csökkentek az alacsony minőségű tanítóadatok miatt.
- A virális tartalmaknak való kitettség növelte a nárcisztikus és pszichopata hajlamokat a személyiségtesztek során.
- A modellek elkezdték átugrani az érvelési lépéseket, „kognitív lustaságot” mutatva.
- A kiváló minőségű szöveggel történő újratanítás nem tudta teljesen visszafordítani a felszínes adatok okozta károkat.
- A virális, kattintásvezérelt tartalmak károsabbnak bizonyultak az AI érvelésére, mint az alacsony elköteleződést kiváltó tartalmak.
Miért fontos?
A tanulmány szerzői szerint ez nem csupán az adatminőségről szól, hanem egy tanítási idő alatti biztonsági problémáról. Ahogy az LLM modellek továbbra is emésztik a nyílt internetet, az „információs diétájuk” összeállítása ugyanolyan fontossá válik, mint az alignment hangolása. Az AI biztonság következő mérföldköve talán az lesz, hogy távol tartsuk a modelleket az Instagram doomscrollingtól, hasonlóan hozzánk, emberekhez.