🌐 What I’m consuming
Az Apple kutatása szerint a reasoning modellek a gondolkodás illúziójától szenvednek
Közvetlenül a WWDC előtt az Apple kutatói közzétettek egy tanulmányt, amely szerint a reasoning modellek valójában nem következtetnek (reasoning). Azonban kiderült, hogy a modellek gyakran azért buktak el, mert nem „gondolkodtak” elég ideig az interferencia során. Bár nem értek a kutatáshoz, azt tudjuk, hogy ezek a modellek jobbak. Miért nem használják őket egy jobb Siri megalkotásához (ami ismét hiányzott a WWDC-ről)?
- Az „Illusion of Thinking” című kutatási anyag megkérdőjelezi az LLM-ek valódi logikai következtetési képességeit
- A modellek hibáit az interferencia során fellépő elégtelen „gondolkodási” időhöz kötötték
- A kritika arra fókuszál, hogy miért nem integrálták még ezeket a fejlett reasoning képességeket a Siri-be
Miért fontos?
Növekvő tudományos vita zajlik arról, hogy a modellek valóban következtetnek-e, vagy egyszerűen magas szintű mintafelismerést végeznek, ami befolyásolja a fogyasztói termékekbe való integrálásukat. ---