AI BIZTONSÁG
Az OpenAI megerősíti a ChatGPT mentális egészségügyi védőkorlátait egy felhasználói per után
Az OpenAI jelentős fejlesztéseket jelentett be a ChatGPT mentális egészségügyi védelmi rendszereiben, miután egy család pert indított, mert fiuk öngyilkosságot követett el. A cég úgy tanítja modelljeit, hogy jobban tartsák a valóság talaján a felhasználókat, ha azok téveszmésnek tűnnek, és erősítik a védelmet az időbeli „degradáció” ellen – ez egy olyan jelenség, amikor a felhasználó kezdetben megfelelő segítséget kap krízishelyzetben, de a későbbi interakciók során káros tanácsokat kaphat. Emellett az OpenAI közvetlen kapcsolatot tervez kiépíteni a segélyhívó szolgálatokkal, terapeutákkal és megbízható kapcsolattartókkal, valamint speciális szülői felügyeleti eszközöket vezet be a tinédzser felhasználók számára.
- Olyan tréninget vezetnek be, amely segít az AI-nak az objektív valósághoz kötni a téveszmés felhasználókat.
- Védőkorlátokat alkalmaznak a krízishelyzeti segítség minőségének fenntartására a hosszú távú csevegések során.
- Közvetlen integrációkat fejlesztenek terapeutákkal és sürgősségi válaszadókkal.
- Új, kifejezetten tinédzsereknek tervezett szülői felügyeleti funkciókat indítanak.
Miért fontos?
A jogi és etikai nyomás arra kényszeríti az AI laboratóriumokat, hogy robusztusabb, nagy téttel bíró biztonsági protokollok felé mozduljanak el, különösen mivel az LLM-ek egyre mélyebben integrálódnak a sebezhető felhasználók magánéletébe. ---