AI KUTATÁS
Az Apple „A gondolkodás illúziója” című tanulmánya vitát váltott ki az AI következtetési képességeiről
Az Apple nemrégiben közzétett, „A gondolkodás illúziója” (The Illusion of Thinking) című kutatási tanulmánya vitát indított az AI-közösségben a következtetési modellek valódi képességeiről. A kutatók azzal érvelnek, hogy a modern LLM-ek „egyenetlen intelligenciát” mutatnak, ahol egy területen kiválóak lehetnek, de az alapvető logikai feladatokban kudarcot vallanak, ami arra utal, hogy gyakran túlgondolják az egyszerű problémákat a valódi következtetés helyett.
A tanulmány azt állítja, hogy amit a felhasználók következtetésnek érzékelnek, az gyakran a mintafelismerés egy kifinomult formája, amely bizonyos nyomás alatt összeomlik. Az AI-közösség azonban nagyrészt visszautasította ezeket a megállapításokat, sokan rámutattak, hogy az újabb modellek, mint például az OpenAI o3-Pro modellje, már képesek voltak megoldani pontosan azokat a tesztfeladatokat, amelyeket az Apple kutatói az AI-intelligencia határainak meghatározására használtak.
- A tanulmány állítása szerint a következtetési modellekből hiányzik a valódi logika, és gyakran túlgondolják az egyszerű utasításokat.
- A kutatók specifikus tesztfeladatokat (benchmarks) használtak annak bemutatására, hogy az AI elbukik olyan feladatokon, amelyeket könnyen meg kellene oldania.
- AI-szakértők cáfolták a tanulmányt, sugallva, hogy a kutatás alulértékeli a modellskálázás előnyeit.
- Az OpenAI legújabb tesztjei azt mutatják, hogy az o3-Pro sikeresen kezeli az Apple kutatói által említett korlátokat.
Miért fontos?
Ez a vita központi jelentőségű az AI biztonsága és megbízhatósága szempontjából, mivel azt kérdőjelezi meg, hogy a modellek valóban „okosabbakká” válnak-e, vagy csak jobbak lesznek az emberi logika utánzásában. ---