AI SZABÁLYOZÁS
A MIRI stratégiája a frontier AI fejlesztések világszintű leállítását célozza
A MIRI, az AI-biztonsági szervezet és Eliezier Yudhowsky – az AI-biztonsági közösség meghatározó alakja – otthona, közzétette szakpolitikai stratégiáját. A dokumentum figyelemre méltó a MIRI céljainak, valamint a cél jellegének közvetlen és konkrét leírása miatt.
A MIRI érvelése szerint a biztonsághoz vezető egyetlen út a nagyhatalmak meggyőzése a frontier fejlesztések teljes leállításáról. Úgy vélik, a szabályozás csak akkor lesz elég erős, ha a döntéshozók valóban megértik, hogy az embernél intelligensebb rendszerek egzisztenciális fenyegetést jelentenek mindenki számára.
- A cél a nagyhatalmak meggyőzése a frontier AI fejlesztések leállításáról, mielőtt túl késő lenne.
- Meggyőződésük, hogy a döntéshozóknak be kell látniuk: a rosszul összehangolt (misaligned) rendszerek építése a teljes kipusztuláshoz vezet.
- A tisztaságot és a nyers kommunikációt részesítik előnyben a nyilvános AI-politikai diskurzusban gyakran tapasztalható „zűrzavarral” szemben.
Miért fontos?
A politikai álláspontok egyértelműsége: Mint azt sokan észrevették, a hírlevél írója gyakran bizonytalan a saját politikai álláspontját illetően. Ezt azért teszi, mert a világban sok dologgal kapcsolatban nehéz magabiztosnak lenni. A MIRI azonban nem az a csoport, amely kevés alátámasztással tesz elbizakodott kijelentéseket – épp ellenkezőleg, a szervezet mögött álló emberek évtizedeket töltöttek az AI technológia és az AI-biztonság átgondolásával, és egy rendkívül koherens álláspontra jutottak. Az AI-ról szóló vita fontos, és sokkal konstruktívabbá válik, ha mindenki maximálisan egyértelműen fogalmaz arról, mit gondol. ---