AI IRÁNYÍTÁS
A szakértői felmérés szerint a technikai értékelés a legfontosabb prioritás az AI irányításában
Az Institute for AI Policy and Strategy kutatói több mint 50 szakértőt kérdeztek meg, hogy azonosítsák azokat az értékes, jól kezelhető kutatási területeket a finanszírozók számára, akik növelni szeretnék az AI biztonságos és felelősségteljes fejlesztésének esélyeit. Fő megállapításuk szerint „a legmagasabbra értékelt megközelítések a feltörekvő kockázatokra való felkészülést hangsúlyozták, erős fókusszal a gyakorlati értékelésre és monitorozásra az elméleti munka helyett: a tíz legígéretesebb megközelítésből hat a veszélyes képességek értékelésének javítására összpontosít, míg az első helyen a képesség-előrejelzés áll.”
- Felmérés módszertana: A kutatók 53 szakembert kértek meg, hogy rangsoroljanak több mint 100 kutatási területet fontosságuk és kezelhetőségük (tractability) szerint.
- A felmérést 2024 decembere és 2025 márciusa között végezték.
- A három legígéretesebb terület: „Emergencia és feladatspecifikus skálázási minták”, „CBRN (vegyi, biológiai, radiológiai és nukleáris) értékelések”, valamint „A megtévesztés, a cselszövés, a helyzetfelismerés és a meggyőzés értékelése”.
- Fontos, de kevésbé kezelhető területek: „Hozzáférés-szabályozás és interfész-megerősítés”, „ellátási lánc integritása és biztonságos fejlesztés”, valamint az „LLM érvelés mechanisztikus megértése és korlátai”.
Miért fontos?
Az AI-politika az értékeléseken alapul: Az AI irányításával járó számos kihívás végső soron arra vezethető vissza, hogy képesek vagyunk-e tesztelni egy AI rendszert egy adott tulajdonságra – minél többet fejlődünk a mérés és az értékelés tudományában, annál könnyebb lesz hatékony szabályozási rendszert kiépíteni az egyre okosabb gépek világában. ---