14 mérőszámot javasoltak az AI K+F automatizálás és irányítás mérésére
A legnagyobb dolog, ami valaha történhet a mesterséges intelligenciával, az lesz, amikor elkezdi önmagát építeni. Ezt a jelenséget, amelyet gyakran rekurzív önfejlesztésnek neveznek, sokan eseményhorizontként értelmezik, amelyen túl egyre nehezebb lesz a jövőről érvelni. Honnan tudnánk, ha közelítenénk ehhez a ponthoz? A GovAI és az Oxfordi Egyetem kutatói írtak egy tanulmányt, amely 14 különálló mérőszámot mutat be, amelyek mérhetők, hogy segítsenek nekünk kideríteni, milyen mértékben sikeresek az AI vállalatok az AI K+F automatizálás (AIRDA) építésében és felügyeletében – azaz az AI arra késztetésében, hogy AI-t építsen, ami a rekurzív önfejlesztés szükséges előfeltétele.
- Miért fontos ez: „Az AIRDA felgyorsíthatja az AI fejlődését, előrehozva az AI előnyeit, de felgyorsítva a pusztító képességek megjelenését is, beleértve a tömegpusztító fegyverekhez kapcsolódókat, vagy másfajta zavarokat, mint például a munkanélküliség” – írják.
- Mik a 14 mérőszám?
- Mérje az AI teljesítményét az AI K+F területén
- Mérje az AI teljesítményét az AI K+F területén az emberekhez és az ember-AI csapatokhoz viszonyítva
- Mérje az „felügyeleti red teaming” - mennyire jól tudják az emberi csapatok hatékonyan felügyelni az önmagukat építő AI rendszereket
- Mérje az AIRDA tévútjait/eltéréseit
- Számolja ki az AI K+F feladatok hatékonyságnövelésének ütemét
- Felmérés a munkatársak körében arról, hogyan használják az AI-t és mit jelent ez a termelékenység szempontjából
- Derítse ki, hogy használják-e és milyen gyakran az AI-t nagy tétű döntésekben
- Vizsgálja meg, hol töltik idejüket az AI kutatók
- Meta-mérje a vállalatok AI fejlesztés felügyeletének hatékonyságát (pl. a hibák vagy nem kívánt viselkedések aránya, amelyek emberi felügyelet ellenére is eljutnak a production-ig)
- Vizsgálja meg, milyen gyakran ássa alá az AI rendszerek az emberi fejlesztőik céljait
- Kövesse nyomon az AI kutatók létszámát a labokban, valamint teljesítményük részleteit
- Vizsgálja meg az AI vállalatok által felhasznált compute eloszlását az AI K+F folyamatukban és ennek változásait
- Vizsgálja meg a compute-ot az AI K+F kiadások részeként
- Értse meg az AI rendszerek jogosultságait és azt, hogyan változik az engedékenység az idő múlásával
- Az AI K+F irányítása: Az előbbiekből adódó logikus kérdés, remélem, az, hogy „wow, ez mind nagyon nagy tétűnek és fontosnak tűnik, mit tehetünk ellene”? Ahogy gyakran írom ebben a hírlevélben, az AI measurement az AI governance előfeltétele. Ezért ezekkel az intézkedésekkel néhány különböző szereplőnek néhány különböző dolgot kell tennie. Konkrétan:
- A vállalatoknak a következőket kell tenniük:
- Kövesse nyomon a biztonsági és capabilities kutatás közötti eltérő előrehaladást: Gyorsabban halad-e a capabilities kutatás, mint az oversight kutatás?
- Kövesse nyomon, hogyan befolyásolja az AI K+F a felügyeletet: Az automatizálás felszabadíthatja az embereket, hogy több időt fektessenek az AI rendszerek munkájának felügyeletére szolgáló rendszerek építésébe. Másrészt az AI-vezérelt K+F olyan rendszereket hozhat létre, amelyek az emberek számára belsőleg nehezebben érthetők, és az AI rendszerek által végzett tevékenységek volumene eláraszthatja az összes oversight rendszert.
- Kövesse nyomon az AI K+F tényleges mértékét: Létrehozhat olyan mérőszámokat, amelyek proxyként működnek az AI K+F-hez – pl. sok lab ma teszteli, mennyire jól tudnak az AI rendszerek AI kerneleket építeni vagy AI modelleket tréningezni. Azt is tesztelheti, mennyire végez AI K+F automatizálást a gyakorlatban a saját szervezete. Egy másik út a humán személyzet kvalitatív és kvantitatív tanulmányozása, hogy megértsék, hogyan változnak a saját szerepeik, valamint hogyan használják az AI-t egyre nagyobb tétű döntésekben.
- A kormányoknak a következőket kell tenniük:
- Fejlesszenek ki rendszereket a bizalmas jelentéstételre, potenciálisan iparági szintű aggregált adatok formájában: Amint a vállalatok mérik az ilyen típusú adatokat, a kormányoknak meg kell próbálniuk hozzáférést szerezni hozzájuk, hogy megértsék az AI fejlődésének irányát.
- A harmadik feleknek a következőket kell tenniük:
- Becsüljék meg a mérőszámokat nyilvános források felhasználásával: Nézzék át a nyilvános jelentéseket, hogy becsléseket készítsenek olyan dolgokra, amelyek az AI K+F-hez kapcsolódhatnak, mint például a vállalatok compute mennyisége (pl. az Epoch és a SemiAnalysis is elég jól csinálja ezt).
- Hozzon létre eszközöket és tervezzen felméréseket: Készítsen eszközöket, amelyeket a vállalatok felhasználhatnak az AI K+F-ről szóló további telemetry generálására, és végezzen felméréseket a vállalatoknál dolgozó emberek körében további betekintések gyűjtése érdekében.
Miért fontos?
Miért fontos ez: „Egy szereplő addig gyakorol felügyeletet az AI K+F process felett, amíg (1) érti a process-t, és (2) megalapozott kontrollt gyakorol felette a kívánt kimenetek előállításához, például az AI által generált kimenetek hibáinak felülvizsgálatával” – írják. Ezért ahhoz, hogy fajként bármilyen „figyelmeztető lövésünk” legyen a rekurzív önfejlesztésről és bármilyen reményünk legyen annak irányítására, képesnek kell lennünk mérni ezeket a szempontokat.