OPENAI
Az OpenAI bemutatja a Superalignment projektet a szuperintelligencia kockázatainak kezelésére
Az OpenAI a rendelkezésére álló számítási kapacitás 20%-át fordítja a szuperintelligencia összehangolási (alignment) problémájának megoldására a következő négy évben, és egy új Superalignment csapatot állít össze.
- A csapatot Ilya Sutskever és Jan Leike vezeti (akik a világ legkiválóbb AI kutatói közé tartoznak)
- A szuperintelligencia segíthet a globális problémák megoldásában, de kockázatokat is rejt, beleértve az emberi hatalomvesztést és a kihalást
- A csapat célja egy emberi szintű automatizált „alignment” kutató kifejlesztése, amely segíthet a szuperintelligencia skálázható összehangolásában
- A csapat megosztja majd kutatási eredményeit, és a szuperintelligens AI összehangolása mellett folytatják a jelenlegi modellek biztonságának javítását és az egyéb AI kockázatok mérséklését
Miért fontos?
A számítási kapacitás 20%-át az „AGI” összehangolására fordítani jelentős lépés. Az OpenAI egyértelművé tette, hogy felismerik az AI kockázatait, és megteszik a szükséges proaktív kezdeményezéseket. ---