AI BIZTONSÁG
Az OpenAI elindítja a Felkészültségi Keretrendszert, és különleges vétójogot ad az igazgatótanácsnak
Az OpenAI rendkívül komolyan veszi az AI-biztonságot, és ezt mindenáron tudatni is akarja a világgal. Miután a múlt héten két tanulmányt is közzétettek az AI-biztonságról, a ChatGPT mögött álló vállalat most bemutatta „Felkészültségi Keretrendszerét” (Preparedness Framework), amely vázolja az OpenAI megközelítését a biztonságos AI modellek fejlesztéséhez.
- Az OpenAI értékeléseket fog végezni, és folyamatosan frissíti modelljei „eredményjelzőit” (scorecards).
- A vállalat olyan kockázati küszöböket határoz meg, amelyek alapvető biztonsági intézkedéseket vonnak maguk után.
- Egy új csapat felügyeli majd a technikai munkát és a biztonsági döntéshozatal operatív struktúráját.
- Új protokollokat dolgoznak ki a fokozott biztonság és a külső elszámoltathatóság érdekében.
- Az OpenAI igazgatótanácsa vétójogot kap bármely döntés megsemmisítésére, így lehetőségük lesz felülbírálni Sam Altman CEO döntéseit is.
Miért fontos?
Talán a legfontosabb, hogy az OpenAI igazgatótanácsa vétójogot kap a döntések visszavonására, amivel felülbírálhatják Sam Altman vezérigazgatót. ---