OPENAI
Az OpenAI biztonsági óvintézkedéseket vezet be a potenciális biológiai fegyverek kockázatai ellen
Az OpenAI friss blogbejegyzést tett közzé azokról a biztonsági intézkedésekről, amelyeket a biológiai fegyverek létrehozásának veszélyes küszöbértékeire való felkészülés jegyében tesznek, mivel a vállalat várakozásai szerint a következő generációs modellek elérhetik ezt a szintet.
- Az OpenAI arra számít, hogy az o3 következtetési modell utódai a biológiai fenyegetésekkel kapcsolatos felkészültségi keretrendszerük szerint „magas kockázatú” státuszt kapnak.
- A kockázatcsökkentő intézkedések közé tartozik a modellek betanítása a káros kérések elutasítására, a gyanús tevékenységek észlelésére szolgáló folyamatos rendszerek telepítése, valamint a fejlett „red-teaming” (etikus hackelés).
- A vállalat egy júliusi biovédelmi csúcstalálkozót is tervez kormányzati kutatókkal és civil szervezetekkel a kockázatok, az ellenintézkedések és a kutatás megvitatására.
- A lépés az Anthropic hasonló biztonsági intézkedéseit követi, amely nemrég szigorúbb protokollokat aktivált a Claude 4 modellcsalád megjelenéséhez.
Miért fontos?
Ugyanazok a képességek, amelyek tudományos áttöréseket hozhatnak, rossz kezekben rendkívül veszélyes dolgokat is lehetővé tesznek – és a modelleknek ez a következő szintje komoly új magasságokba emeli a tétet. Bár a további óvintézkedések és proaktív lépések pozitívak, hamarosan ismeretlen területre lépünk. ---