MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A kutatások szerint az LLM-ek skálázása összehangolja a belső reprezentációkat az emberi absztrakt érveléssel

Az Amszterdami Egyetem kutatói összefüggéseket fedeztek fel aközött, ahogyan a nyelvi modellek és az emberek érvelnek az absztrakt sorozatokról. Ez a kutatás a legújabb azon vizsgálatok sorában, amelyek meglepő korrelációkat mutatnak nemcsak az AI rendszerek képességei, hanem aközött is, ahogyan a problémák az agyban és az LLM-ek belsejében megjelennek. A szerzők kiterjesztik a közelmúltbeli munkákat – amelyek az emberi és az LLM-ek neurális reprezentációit hangolták össze észlelési és nyelvi feladatokban – az absztrakt érvelés területére, és összehasonlítják az emberek teljesítményét és neurális reprezentációit nyolc nyílt forráskódú (open-source) LLM-ével egy absztrakt minta-kiegészítési feladat megoldása során.
Miért fontos?

Hajlok arra a világnézetre, miszerint „azokat a dolgokat, amelyek úgy viselkednek, mint más dolgok, hasonlóan kell kezelni”. Vagy másképp fogalmazva: „ha valami úgy néz ki, mint egy kacsa, úgy beszél, mint egy kacsa, és úgy hápog, mint egy kacsa, akkor kezeld kacsaként”. Az ehhez hasonló kutatások azt mutatják, hogy az LLM-ek és az emberek egyre hasonlóbbnak tűnnek, ahogy az AI rendszereket egyre kifinomultabbá tesszük. ---

Eredeti forrás megtekintése (angol) →