MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Az OpenAI kutatása rávilágít, miért küzdenek az AI-modellek a hallucinációkkal

Minden AI-felhasználó tapasztalta már: az LLM-ek rendkívül magabiztos válaszairól végül kiderül, hogy teljesen kitaláltak. Az OpenAI most úgy véli, végre rájöttek, miért nem tudnak leállni a chatbotok a hallucinálással. A cég legújabb kutatási anyaga szerint az AI-hallucinációk megoldása meglepően egyszerű lehet — meg kell tanítani a modelleknek, hogy ér „nem tudom”-ot mondani. Az OpenAI tanulmánya szerint az AI-rendszerek azért hallucinálnak, mert a standard tanítási módszerek a magabiztos találgatást jutalmazzák a bizonytalanság beismerése helyett, ami utat mutathat az AI minőségi problémáinak megoldása felé.
Miért fontos?

Ez a kutatás a hallucinációs problémát a tanítás során jobban kezelhető kérdéssé teheti. Ha az AI-laborok az őszinteséget kezdik jutalmazni a szerencsés tippek helyett, olyan modelleket kaphatunk, amelyek ismerik a korlátaikat — feláldozva némi teljesítmény-mutatót a kritikus feladatoknál elengedhetetlen megbízhatóságért. ---

Eredeti forrás megtekintése (angol) →