MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

Korábbi OpenAI belsős független AI biztonsági auditokat szorgalmaz

Miles Brundage, aki hét évig volt az OpenAI szakpolitikai vezetője az AGI területén, új nonprofit szervezetet indít AVERI (AI Verification and Evaluation Research Institute) néven. A 7,5 millió dolláros támogatással rendelkező szervezet azzal érvel, hogy a vezető AI-laborok jelenleg külső ellenőrzés nélkül saját maguk állítják ki a „bizonyítványukat”. Az AVERI célja egy független biztonsági auditrendszer létrehozása annak biztosítására, hogy az AI-rendszerek biztonságosak legyenek a társadalom számára, hasonlóan ahhoz, ahogy független laborok tesztelik a fogyasztói elektronikai eszközök tűzbiztonságát. A projekt célja, hogy elmozdítsa az iparágat a „bízz bennünk” modelltől az univerzális szabványok felé. Az AVERI kutatási dokumentumot tett közzé, amely „AI-biztosítási szinteket” javasol az alapvető harmadik fél általi teszteléstől a nemzetközi megállapodásokhoz szükséges „szerződéses szintű” biztosításig. Bár az intézet maga nem végez majd auditokat, fel kívánja hatalmazni a meglévő cégeket és startupokat a munka elvégzésére.
Miért fontos?

Az AI-biztonsági auditálás legfőbb kihívása a technikai szakértelem és a kormányzati ismeretek ritka kombinációja. A legtöbb ilyen készségekkel rendelkező szakember jövedelmező ajánlatokat kap éppen azoktól a cégektől, amelyek ellenőrzéséért felelősek lennének. ---

Eredeti forrás megtekintése (angol) →