KÜLÖNKIADÁS
GPT-2 visszatekintés: Az AI skálázási és biztonsági előrejelzéseinek öt éve
Öt évvel ezelőtt az OpenAI kutatói kifejlesztették a GPT-2-t, egy nyelvi modellt, amely bemutatta a "skálázási törvények" (Scaling Laws) korai hatásait. A paraméterszám 120 millióról 1,5 milliárdra emelésével a csapat jelentős képességbeli ugrásokat észlelt, számos feladatban új benchmarkokat állítva fel speciális optimalizálás nélkül. Akkoriban a csapat egy ellentmondásos, szakaszos kiadási stratégia mellett döntött, tartva attól, hogy a technológiát félrevezető hírek generálására, megszemélyesítésre, valamint automatizált spamre vagy adathalászatra használhatják. Ezt a megközelítést jelentős ellenállás fogadta az akadémiai közösség részéről, akik ezt a nyitottságtól való eltérésnek vagy marketingfogásnak tekintették.
Most, az LLM-bumm utáni világban a valóság azt mutatja, hogy bár sok előre jelzett visszaélés valóban megtörtént, azok leginkább jóval később megjelent, sokkal fejlettebb rendszereken keresztül valósultak meg. Az LLM-ek legzavaróbb felhasználási módjainak a gazdasági ösztönzők által vezérelt, gyenge minőségű tartalomgyártás bizonyult, nem pedig az eredetileg sejtett magas szintű rosszindulatú koordináció. Emellett a modellek tanítási költsége a 2019-es becsült 100 000 dollárról mára nagyjából 500 dollárra zuhant, ami bizonyítja, hogy a fél évtized alatt százszor olcsóbbá váló technológiákat szinte lehetetlen hagyományos korlátozásokkal kontrollálni.
- A GPT-2 felügyelet nélküli multitask tanulással 8-ból 7 tesztelt feladatban ért el új State of the Art (SOTA) eredményeket.
- A szakaszos kiadás arra késztette a versenytársakat, hogy nyílt forráskódú alternatívákat hozzanak létre (mint a Salesforce CTRL vagy a GROVER), bizonyítva az OpenAI óvatosságának szükségtelenségét.
- Az előrejelzések kudarcot vallottak a kockázatok időzítését és léptékét illetően, megmutatva, hogy a technikai lehetőség nem jelent azonnali vagy súlyos gyakorlati megjelenést.
- Az AI zavaró használatának növekedése inkább a pofonegyszerű interfészekhez (mint a ChatGPT vagy a Stable Diffusion) köthető, semmint maguknak a nyers modelleknek az elérhetőségéhez.
Miért fontos?
Ez a visszatekintés tanulságul szolgál a jelenlegi AI irányelvek számára. Rávilágít arra, hogy a képzelt jövőbeli kockázatokon alapuló "elővigyázatossági elvek" kontraproduktív normákhoz és a bizalom hiányához vezethetnek, ha nem támasztják alá őket szigorú kísérletezéssel és kvantitatív bizonyítékokkal. ---