OPENAI
Az OpenAI ajánlásai a szuperintelligens AI-ra való felkészüléshez
Az OpenAI megosztotta nézeteit az AI fejlődéséről, azt jósolva, hogy a rendszerek hamarosan elég okosak lesznek felfedezések tételére, és globális koordinációt sürgetett a biztonság, a felügyelet és a rugalmasság terén, ahogy a technológia közeledik a szuperintelligens tartományhoz.
- Az OpenAI szerint a jelenlegi AI rendszerek már most túlteljesítik a legkiválóbb embereket az összetett intellektuális feladatokban, és egy „AI kutató szintjének 80%-án” állnak.
- A cég várakozása szerint az AI 2026-ra kisebb tudományos felfedezéseket, 2028-ra pedig jelentősebb áttöréseket fog elérni, miközben az intelligencia költsége évente 40-szeresére csökken.
- A szuperintelligens AI esetében az OpenAI szerint elengedhetetlen lesz a kormányokkal és biztonsági ügynökségekkel való együttműködés olyan kockázatok mérséklésére, mint a bioterrorizmus vagy az elszabadult önfejlesztés.
- A vállalat biztonsági szabványokat is sürgetett a vezető laboratóriumok körében, a kiberbiztonsághoz hasonló rugalmassági ökoszisztémát, valamint az AI valós hatásainak folyamatos nyomon követését a közpolitikai döntések megalapozásához.
Miért fontos?
Bár az idővonal továbbra is bizonytalan, az OpenAI üzenete azt mutatja, hogy a világnak el kell kezdenie felkészülni a szuperintelligens AI-ra összehangolt biztonsági intézkedésekkel. A cég arra fogad, hogy a kollektív védőkorlátok jelentik az egyetlen utat az intelligencia következő korszakának kezelésére, amely olyan módon terjedhet el, amilyet az emberiség még soha nem látott. ---