AI BIZTONSÁG
Az OpenAI korábbi szakpolitikai vezetője elindította az AVERI-t a legfejlettebb AI modellek auditálására
Az OpenAI korábbi szakpolitikai vezetője, Miles Brundage elindította az AVERI-t, egy új nonprofit szervezetet, amely a legfejlettebb (frontier) AI modellek független, harmadik fél általi auditálását szorgalmazza, ahelyett, hogy a laborokra bíznák saját biztonsági állításaik igazolását.
- Brundage 2024 októberében távozott az OpenAI-tól, amikor a cég felszámolta az „AGI Readiness” csapatát. Állítása szerint egyetlen frontier labor sem állt készen biztonsági szempontból a fejlett rendszerek kezelésére.
- Az AVERI az auditálási szabványok és irányelvek kidolgozására összpontosít majd ahelyett, hogy maga végezné az értékeléseket, így inkább egyfajta „agytrösztként” (think tank) működik majd, mintsem tényleges auditoraként.
- Az intézet vezető AI laborok alkalmazottaitól kapott adományokat — olyan emberektől, akik Brundage szerint „tudják, hol vannak elásva a holttestek”.
- A szervezet közzétett egy „AI Garanciaszintek” (AI Assurance Levels) keretrendszert is, amely a mai önteszteléstől (1. szint) a nemzetközi szerződés szintű ellenőrzésig (4. szint) terjed.
Miért fontos?
„Tudják, hol vannak elásva a holttestek” — ez egy baljós idézet, de az AI iparág eddig nagyrészt a saját bevalláson alapuló biztonsági tesztekre támaszkodott, és a bizalom arra épült, amit a laborok választásuk szerint közzétettek. Az AVERI belsősök által támogatott törekvése a külső ellenőrzésre elindíthatja a valódi, harmadik fél általi elszámoltathatóság felé vezető folyamatot. ---