MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Google DeepMind biztonsági keretrendszert adott ki az AI leállítással szembeni ellenállásának megfigyelésére

A Google DeepMind kiadta a Frontier Safety Framework 3.0-t, kiterjesztve az AI kockázatok megfigyelésére irányuló erőfeszítéseit olyan újonnan megjelenő AI viselkedésekre, mint a leállítással szembeni ellenállás és a meggyőzőképesség, amelyek megnehezíthetik az emberi felügyeletet.
Miért fontos?

A DeepMind lépése rávilágít egy szélesebb körű eltolódásra, ahol az AI vezetők — köztük az Anthropic és az OpenAI — nemcsak a jelenlegi kockázatokat jelzik, hanem a protokollokat is szigorítják a jövőbeli eseményekre való felkészülés érdekében. Ahogy a modellek kiszámíthatatlan viselkedést mutatnak, ezek az erőfeszítések kulcsfontosságúak lesznek a valóban biztonságos szuperintelligens rendszerek építéséhez. ---

Eredeti forrás megtekintése (angol) →