MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az AI modelleknél „agyrothadás” alakul ki a virális közösségi média tartalmak fogyasztásától

Úgy gondolja, hogy a doomscrolling (baljóslatú hírek görgetése) rossz az agyának? Kiderült, hogy az AI is szenved tőle. A Texasi Egyetem és más intézmények új tanulmánya szerint a nagy nyelvi modelleknél (LLM) egyfajta „agyrothadás” léphet fel, ha alacsony minőségű internetes tartalommal táplálják őket. A virális, felszínes posztoknak (azoknak, amelyeket kattintásvadászatra terveztek) való állandó kitettség szó szerint tompítja az AI érvelési képességét, etikáját, sőt még a személyiségét is. A számok magukért beszélnek. A silány tartalommal tanított AI modellek érvelési pontszáma 74,9%-ról 57,2%-ra esett vissza. A hosszú kontextus megértése és az etikai normák is csorbát szenvedtek. Egyes esetekben a személyiségtesztek a nárcisztikus és pszichopata hajlamok növekedését mutatták. Pontosan azok az adatok rontották el az AI-t, amelyeknek a teljesítményét kellett volna növelniük. A kiváltó ok egyértelmű. A modellek elkezdték átugrani az érvelési lépéseket, ami a felszínes adatok által kiváltott egyfajta kognitív lustaság. Még miután a kutatók kiváló minőségű szövegekkel tanították újra őket, a károsodás megmaradt. A virális posztok több kárt okoztak, mint az alacsony elérésű, árnyaltabb tartalmak – ugyanaz a tartalom, amely az emberi figyelmet leépíti, a gépi érvelést is tönkreteszi.
Miért fontos?

A tanulmány szerzői szerint ez nem csupán az adatminőségről szól, hanem egy tanítási idő alatti biztonsági problémáról. Ahogy az LLM modellek továbbra is emésztik a nyílt internetet, az „információs diétájuk” összeállítása ugyanolyan fontossá válik, mint az alignment hangolása. Az AI biztonság következő mérföldköve talán az lesz, hogy távol tartsuk a modelleket az Instagram doomscrollingtól, hasonlóan hozzánk, emberekhez.

Eredeti forrás megtekintése (angol) →