AI BIZTONSÁG
Az Anthropic tudósa a rekurzív önfejlesztéssel kapcsolatos döntésre figyelmeztet 2030-ig
Jared Kaplan, az Anthropic vezető tudósa arra figyelmeztetett, hogy az emberiség „eddigi legnagyobb döntése” előtt áll 2027 és 2030 között az AI jövőjét illetően. A kritikus kérdés az, hogy engedélyezzük-e az AI-rendszerek számára, hogy autonóm módon tanítsák saját utódmodelljeiket – ezt a folyamatot nevezik rekurzív önfejlesztésnek. Kaplan azt is megjósolta, hogy az AI az elkövetkező 2-3 évben a szellemi munka többségét átveszi, ami szükségessé teszi ezen rendszerek irányításának azonnali átgondolását.
- A rekurzív önfejlesztés az AI-képességek kontrollálhatatlan ugrásaihoz vezethet emberi felügyelet nélkül.
- A 2027-2030 közötti időszak a kulcsfontosságú periódus ezen korlátok felállítására.
- Kaplan várakozásai szerint az AI 2028-ra képes lesz a legtöbb professzionális irodai feladat elvégzésére.
- Ez a figyelmeztetés akkor érkezik, amikor az AI-cégek egyre gyakrabban használnak szintetikus adatokat és „self-play” technikát a modellek tanításához.
Miért fontos?
Az átmenet az önmaguknál jobb verziókat építő AI-rendszerekre egy olyan potenciális pontot jelent, ahonnan nincs visszatérés a technológia feletti emberi kontroll tekintetében. Ez a döntés fogja meghatározni a következő évtized gazdasági és biztonsági környezetét. ---