AI BIZTONSÁG
Az OpenAI kutatást tett közzé a szuperintelligens AI és az emberi érdekek összehangolásáról
Az a lehetőség, hogy az AI fenyegetést jelenthet az emberiségre, már nem csak a sci-fi kategóriája. Számos jelentős alak, Elon Musktól az OpenAI vezérigazgatójáig, Sam Altmanig, felszólalt az AI biztonsága érdekében az elmúlt évben. Most a ChatGPT és a GPT-4 mögött álló cég két új tanulmányt publikált az AI biztonságáról.
Az első egy új megközelítést mutat be az AI-k és az emberi érdekek összehangolására. A fő kihívás, amit azonosítottak, hogy a jövőben az embereknek náluk sokkal okosabb AI-rendszereket kell majd felügyelniük. A tanulmány megállapítja, hogy a naiv emberi felügyelet rosszul skálázódhat a szuperintelligens modellek esetében további munka nélkül. Ugyanakkor a szerzők érvelése szerint a gyengébb AI-modellek használhatók a képzettebb modellek irányítására.
- Az AI-rendszer feladatra való alkalmasságának értékelése.
- Az AI korlátozása emberi jóváhagyás megkövetelésével.
- Alapértelmezett viselkedési módok beállítása a rendszer számára.
- Az AI tevékenységeinek és gondolkodási folyamatának érthetőbbé tétele.
- Automatikus monitorozás bevezetése.
- Megbízható forrásmegjelölés létrehozása.
- Az AI-rendszer kikapcsolhatóságának biztosítása.
Miért fontos?
Ezek a tanulmányok a „superalignment” (szuper-összehangolás) alapvető kihívásával foglalkoznak – biztosítva, hogy az embernél jóval intelligensebb modellek biztonságosak és emberi kontroll alatt maradjanak. ---