Mennyire lehet rossz az AI rendszerek címkézésére vonatkozó politika? Elég rossz
A címkézés egy egyszerű, ellentmondásmentes AI politikai ötlet, amelyet hozzám hasonló emberek hangosan és gyakran támogatnak. Az AI címkézés lényege az, hogy az AI rendszerek gyártóit (pl. OpenAI, Anthropic stb.) arra kellene kényszeríteni, hogy modelljeikhez mellékeljenek egy címkét, amely tartalmazza a modell főbb összetevőit, az ajánlott felhasználási módokat és néhány "buyer beware" (vásárlói figyelmeztetés) információt a biztonsági tulajdonságairól. Ésszerűnek hangzik, ugye? Nekem mindenképpen! De mint a legtöbb politikai dolog esetében, ezen az egyszerű ötlet alatt is a bonyodalmak jéghegye rejtőzik. Hogy ízelítőt kapjunk arról, milyen sokféleképpen sülhet el rosszul az AI címkézés, javaslom elolvasni a Financial Times "The EU single market’s elephant in the room" című cikkét, amely arról szól, hogy az Európából származó jó szándékú és ugyanolyan egyszerű címkézési rendszerek hogyan okoztak olyan vállalatoknak, mint az Ikea, több ezer órányi befektetést a megfelelésbe, valamint olyan dolgokba, mint az áruk címkézésének átalakítása.
Miért fontos?
A legtöbb AI politikában dolgozó ember nincs tudatában annak, milyen drága az AI politika, ha egyszer bevezetik, a megfelelés szempontjából. Ez fatális hiba – a szabályozott iparágakban dolgozó vagy arról tudással rendelkező emberek gyakran döbbenettel és borzalommal tekintenek az AI politikát javaslókra (pl. rám), látva azt a fájdalmat, amit mind rájuk, mind magunkra mérni készülünk. Persze, ésszerű ellenvetés lehet, hogy „némi fájdalom szükséges, ha olyan AI rendszereket készítünk, amelyek okosabbak minden embernél, és potenciálisan súlyosbíthatják a nemzetbiztonsági kockázatokat”, de érdemes tisztában lenni azzal a háttérkörnyezettel, amelyben ez az érv elhangzik. ---