AI IRÁNYELVEK
AI-vezetők globális nyilatkozatot írtak alá a kihalás veszélyeire figyelmeztetve
Több mint 200 AI-kutató és vállalkozó – köztük az Anthropic, a DeepMind és az OpenAI vezérigazgatói – aláírt egy nyilatkozatot, amely szerint az AI okozta kihalás kockázatának csökkentését globális prioritásként kell kezelni.
A teljes nyilatkozat így szól: „Az AI okozta kihalás kockázatának mérséklését globális prioritásként kell kezelni, más társadalmi szintű kockázatokkal, például a világjárványokkal és az atomháborúval egyenértékűen.”
Vannak, akik szerint ez a nyilatkozat csupán egy marketingeszköz azoknak, akik profitálni akarnak a technológiából. Ezt azonban nehéz összeegyeztetni azzal, hogy az ilyen kijelentések fokozzák a kormányzati figyelmet, és ezzel lassíthatják a fejlesztéseket. Nehéz lenne elképzelni, hogy az olaj- vagy dohányipari cégek vezetői a saját iparáguk felemelkedésekor olyan nyilatkozatokat írtak volna alá, mint például: „Az olajkitermelés okozta klímaváltozás kockázatának mérséklése globális prioritás kell legyen” vagy „A dohányzás okozta rák kockázatának mérséklése globális prioritás kell legyen”.
- Az OpenAI, az Anthropic és a Google DeepMind vezérigazgatói is az aláírók között vannak.
- Az AI-kockázatokat explicit módon az olyan egzisztenciális fenyegetésekhez hasonlítja, mint a pandémiák és az atomháború.
- Jelentős konszenzust mutat az AI-iparág legmeghatározóbb szereplői között.
- Célja, hogy az AI-biztonság kérdését a legmagasabb szintű globális politikai napirendre emelje.
Miért fontos?
A nyilatkozat komoly aggodalmat jelez éppen azoktól a személyektől, akik magát a technológiát építik, ami valószínűleg fokozott kormányzati ellenőrzéshez és szigorúbb szabályozáshoz fog vezetni.