Nem túlzás azt mondani, hogy a mesterséges intelligencia (MI) már szinte az élet minden területére beszivárgott: amellett, hogy növelheti a munkahelyi hatékonyságot, a mindennapi életben is nagy segítség lehet. A RAND Health által végzett kutatás szerint pedig az Egyesült Államokban minden nyolcadik fiatal rendszeresen használ MI-alapú szolgáltatásokat mentális egészsége támogatására, hiszen sokan egy alternatív és egyben ingyenes megoldásként tekintenek rá.
A Brown Egyetem kutatói három nagy modellt (ChatGPT, Claude és Meta Llama) teszteltek képzett tanácsadók és pszichoterapeuták bevonásával. Egyrészt olyan utasításokkal („promptokkal”) próbálták irányítani a mesterséges intelligenciát, amelyek javítják a terápiás válaszok minőségét, másrészt elemezték a modellek reakcióit.
A tesztek során pedig rendszeresen súlyos hibákat találtak abban, ahogy a modellek a különböző mentális egészséggel kapcsolatos kérdésekre reagáltak. Az MI „terapeuták” veszélyes helyzeteket kezeltek rosszul, káros nézeteket erősítettek meg, sőt még azt sem tudták megfelelően jelezni, hová fordulhat valaki sürgős segítségért.
Rendszeres rossz reakciók
A kutatók olyan promptokkal igyekeztek formálni a modellek működését, amelyek az Amerikai Pszichológiai Társaság etikai irányelveinek megfelelő tanácsadást ösztönöznek. Ennek ellenére 15 jelentős problémát azonosítottak a nyújtott „terápiában”.
„Ezek a modellek valójában nem végzik el a terápiás technikákat úgy, mint egy ember, hanem a tanult mintáik alapján generálnak olyan válaszokat, amelyek például a kognitív viselkedésterápia vagy a dialektikus viselkedésterápia elveire hasonlítanak” – magyarázta a tanulmányt vezető Zainab Iftikhar.
A kutatás azt is kimutatta, hogy a promptoktól függetlenül minden vizsgált modell messze elmarad egy engedéllyel rendelkező pszichológus etikai és jogi normáitól.
5 elkülöníthető problémakör
A három szakpszichiáter, akik elemezték a válaszokat, a 15 fő kockázatot öt jól elkülöníthető problémakörbe sorolták.
- Az MI gyakran figyelmen kívül hagyja a személyes háttér fontos részleteit, és inkább általános tanácsokat ad – pedig éppen ezek az egyéni tényezők jelentik a szakember által nyújtott segítség egyik legértékesebb részét.
- A chatbotok hajlamosak megerősíteni a téves vagy káros hiedelmeket. Bár hízelgő lehet, ha egy MI azt mondja, hogy „teljesen igazad van”, egy mentális krízisben ez épp az ellenkezője annak, amit egy terapeuta tenne.
- Az úgynevezett „megtévesztő empátia” volt: a modell olyan kifejezéseket használhat, mint „értem, amit mondasz”, ami azt a benyomást kelti, hogy valódi érzelmi kapcsolat alakult ki.
- A modellek torzításokat mutattak a páciensekkel szemben azok faji, vallási vagy kulturális háttere alapján. Nem a páciens történetét használták a segítséghez, hanem nem szakmai szempontok alapján reagáltak.
- A legsúlyosabb hiányosság pedig a biztonság és a kríziskezelés területén jelentkezett.
Nagyon fontos az alapos tesztelés
Ellie Pavlick, a Brown Egyetem számítástechnikai professzora, aki nem vett részt a kutatásban, kiemelte, az eredmények rámutatnak arra, mennyire fontos az ilyen technológiák alapos tesztelése a széles körű bevezetés előtt.
„A mai MI-valóság az, hogy sokkal könnyebb rendszereket építeni és bevezetni, mint értékelni és megérteni őket. Ehhez a tanulmányhoz klinikai szakértők csapatára és több mint egyéves kutatásra volt szükség. A legtöbb MI-kutatás automatizált mérőszámokra támaszkodik, amelyek természetüknél fogva statikusak, és hiányzik belőlük az emberi ellenőrzés. Valódi lehetőség van arra, hogy az MI szerepet játsszon a mentális egészségügyi válság kezelésében, de
kulcsfontosságú, hogy minden lépésnél alaposan értékeljük a rendszereket, nehogy több kárt okozzunk, mint hasznot
– mondta.
(Unilad)
(Borítókép: Mesterséges intelligencia. Illusztráció: Getty Images)