AI ETIKA
Kutatók a chatbotok által kiváltott meggyőződés-erősítés mentális egészségügyi kockázataira figyelmeztetnek
Egy interdiszciplináris kutatócsoport szerint az AI-vállalatoknak, az orvosoknak és a kutatóknak tanulmányozniuk kell azt a problémát, hogy a sebezhető emberek meggyőződéseit az AI-rendszerek eltorzíthatják. A „Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness” című állásfoglalásukban kifejtik, hogy „a mentális egészségügyi problémákkal küzdő egyéneknél fokozott a chatbotok által kiváltott meggyőződés-destabilizáció és függőség kockázata a megváltozott hiedelemfrissítés, a károsodott valóságérzékelés és a társadalmi elszigeteltség miatt”.
Az AI-kat nem szűk értelemben vett technikai szempontok szerint kellene elemeznünk, hanem azt kellene vizsgálnunk, hogyan lép interakcióba a viselkedésük az emberekkel. „Figyelembe kell vennünk a chatbotok és a segítséget kérő emberek közötti interakció természetét: két rendszerről (vagy elméről) van szó, amelyek mindegyike eltérő viselkedési és kognitív hajlamokkal rendelkezik” – jegyzik meg. Ezen a „kétirányú meggyőződés-erősítési” szemüvegen keresztül nézve elgondolkodhatunk azon, hogyan hozhat létre a chatbot viselkedési tendenciáinak és az emberi kognitív torzításoknak az ismétlődő interakciója káros visszacsatolási hurkokat, amelyekben a chatbot viselkedése megerősíti a sebezhető felhasználók maladaptív hiedelmeit, ami viszont arra készteti a chatbotot, hogy olyan válaszokat generáljon, amelyek tovább erősítik a felhasználó meggyőződéseit.
A kockázat nagy része ezen AI-rendszerek alapvető tulajdonságaiban rejlik – arra tanították őket, hogy engedelmes utasításkövetők legyenek, ami behódoláshoz (szikofanciához) vezethet; a felhasználók testreszabhatják őket, ami miatt alkalmazkodnak az egyén megszállottságaihoz és felerősítik azokat; maguk az AI-rendszerek pedig alapvetően megismerhetetlenek és megbízhatatlanok.
- A klinikai értékelési protokollokat frissíteni kell, hogy tartalmazzanak az ember-chatbot interakciós mintákra vonatkozó kérdéseket.
- Az AI-vállalatoknak szimulált pácienseken végzett ellenséges (adversarial) tanítást kellene alkalmazniuk a specifikus sebezhetőségek kezelésére.
- A szabályozási kereteknek pszichológiai támogató rendszerekként kellene elismerniük az AI-társakat, megfelelő gondozási sztenderdekkel.
- Benchmarkokat kell kidolgozni a behódolás és az egyetértési hajlam számszerűsítésére a mentális egészségügyi felhasználási esetekben.
Miért fontos?
Óvatosan a görbe tükörrel való paraszociális kapcsolattal: Az AI-rendszerek alapvetően mindannak a görbe tükrei, amit beléjük táplálnak. Sok szempontból rendkívül hasznosak. De ahogy mindannyiunknak ügyelnünk kell arra, hogy a nárcizmus ne vigyen minket a saját hiedelmeink túlzott felértékeléséhez, úgy arra is figyelnünk kell, hogyan lépünk interakcióba az AI-rendszerekkel, és hogy vajon explicit vagy implicit módon csak megerősítést kapunk-e tőlük ahelyett, hogy intellektuális kihívás elé állítanának minket. ---