AI HEALTH
A Slingshot AI elindította az Ash-t, a kifejezetten mentális egészségre tervezett AI modellt
Miközben az olyan általános célú chatbotok, mint a ChatGPT és a Character.AI, komoly kritikákkal és perekkel néznek szembe, amiért veszélyes tanácsokat adtak válsághelyzetben lévő felhasználóknak, a Slingshot AI bemutatja az Ash-t, egy kifejezetten terápiás támogatásra tervezett AI-t. Az a16z és a Radical Ventures 93 millió dolláros befektetéséből kifejlesztett Ash egy olyan alapmodellre épül, amelyet strukturált terápiás beszélgetéseken képeztek ki (Kognitív Viselkedésterápia - CBT, Dialektikus Viselkedésterápia - DBT és pszichodinamikus terápia). Az „AI pszichózissal” és etikai sértésekkel összefüggésbe hozott általános eszközökkel ellentétben az Ash-t úgy tervezték, hogy a biztonsági protokollok a magarchitektúra részét képezzék, ne pedig utólagos kiegészítések legyenek.
- A Slingshot AI 93 millió dollárt gyűjtött össze egy pszichológiai alapmodell felépítéséhez.
- A modellt strukturált terápiás keretrendszereken, többek között CBT-n és DBT-n képezték ki.
- Az OpenAI ellen eddig több mint 7 per indult a biztonsággal és érzékeny beszélgetésekkel kapcsolatban.
- A Brown és a Stanford egyetemek kutatásai szerint az általános chatbotok gyakran megsértik a mentális egészségügyi etikát.
- Az OpenAI és a Google a közelmúltban kutatási támogatásokat és szakértői tanácsokat indított a mentális egészségügyi biztonság kérdésének kezelésére.
Miért fontos?
A Pew kutatása szerint az amerikai tizenévesek nagyjából 12%-a – körülbelül 5,2 millió kamasz – már most is használ AI-t érzelmi támogatásra. Mivel az általános modellek nem erre a célra készültek, gyakran hiányoznak belőlük a szükséges biztonsági korlátok a káros tévhitek vagy etikai vétségek megelőzéséhez, így a célzottan terápiás célra épített AI kritikus fejlesztésnek számít.