AI ÉS BIZTONSÁG
Az OpenAI új „Bizonyító-Ellenőrző” technikát fejlesztett ki az LLM-ek döntéshozatali folyamatának feltárására
Az OpenAI bejelentett egy új módszert az AI-modellek kikérdezésére, hogy jobban megértsék, hogyan hozzák meg döntéseiket. A technika lényege, hogy két LLM-et léptetnek párbeszédbe egymással. Ez a kezdeményezés része egy szélesebb körű erőfeszítésnek, amely a belső biztonsági aggályok kezelésére és a fejlett AI-rendszerek átláthatóságának javítására irányul.
- Az egyik LLM felkéri a másikat egy probléma megoldására, majd megpróbálja ellenőrizni, hogy a válasz pontos-e.
- A kérdező modell nem olyan okos, mint a válaszadó; ez arra kényszeríti a kifinomultabb modellt, hogy az információkat emészthetőbb részekre bontsa.
- Az eredmények segíthetnek az embereknek megérteni, hogyan jutnak az LLM-ek a válaszokhoz – ez a kihívás évek óta foglalkoztatja a számítástechnikusokat.
- Ez az egyik módja annak, hogy a cég megnyugtassa alkalmazottait: komolyan veszik a biztonságot a hét elején tapasztalt belső kritikák után.
- --