Në vitet e fundit, janë shfaqur dhjetëra chatbotë me inteligjencë artificiale (AI), të dizajnuar për të ofruar mbështetje terapeutike, madje disa shkolla kanë filluar t’i praktikojnë. Kompania “Wysa” ka marrë një status të veçantë nga Administrata Amerikane e Ushqimit dhe Barnave (FDA), duke i hapur rrugën e aprovimit një pajisjeje mjekësore për trajtimin e depresionit dhe ankthit të lidhur me dhimbjen kronike, ka shkruar Salon.
Modelet e inteligjencës artificiale mund të trajnohen për të analizuar, reflektuar dhe për t’u përgjigjur emocioneve të njerëzve. Ato shpesh janë falas ose më të lira se terapistët e vërtetë.
Ndërsa terapia me AI po bëhet më e zakonshme, ajo mund të ndihmojë në zgjerimin e qasjes në trajtimin e shëndetit mendor për miliona njerëz që nuk mund të përballojnë terapinë tradicionale. Gjithashtu, mund të ndihmojë në uljen e stigmës së kërkimit të ndihmës psikologjike, pasi gjithçka mund të ndodhë me një klikim.
“Është e mundur që pacientët të cilët shqetësohen për stigmën sociale, të ndihen më rehat duke kërkuar ndihmë nga një AI, sesa nga një mjek apo psikoterapist njerëzor. Për pacientët që kanë frikë të etiketohen për shkak të sëmundjeve të tyre mendore, alternativa mund të jetë mes trajtimit nga një AI ose mosmarrjes së trajtimit fare”, ka shkruar filozofja Francesca Minerva në një artikull të vitit 2023.
Viki, një paciente, ka provuar terapinë tradicionale me dy psikologë për të përpunuar një traumë nga e kaluara, por pas një viti nuk ka ndierë përparim dhe nuk arriti të krijonte një lidhje të fortë me asnjërin prej tyre. Pasi mbeti pa punë dhe nuk kishte mundësi financiare për seanca të tjera, ajo ka vendosuar të përdorte një chatbot me inteligjencë artificiale për të eksploruar ndjenjat e saj.
“Është falas dhe mund ta përdor sa herë që dua. Është një ndihmë shumë e madhe”, ka thënë Viki, 30 vjeçe, për Salon.
Por marrëdhënia mes një pacienti dhe terapistit është një element kyç i suksesit të trajtimit, ka thënë David Luxton, psikolog klinik dhe profesor në Shkollën e Mjekësisë të Universitetit të Washingtonit. AI mund të programohet për të imituar disa tipare njerëzore, si ndjeshmëria dhe afirmimet pozitive. Madje, disa chatbotë janë programuar që të “harrojnë” informacion, ashtu siç do të bënte një njeri, duke bërë që përdoruesit të përsërisin gjërat.
“Mendoj se mund t'i zëvendësojnë njerëzit. Por pyetja e vërtetë është: a duhet?”, ka thënë Luxton për Salon.
Edhe nëse përdoruesit janë të vetëdijshëm se po flasin me një makinë, ata mund të krijojnë një lidhje emocionale me të. Kjo mund të shfaqet në formën e frustrimit kur një chatbot nuk e kupton një pyetje ose madje në ndjenja afeksioni ndaj tij.
Muajin e kaluar, Shoqata Amerikane e Psikologjisë ka paralajmëruar rregullatorët federalë për rreziqet e chatbotëve me AI, duke përmendur raste ku ata “shtireshin” si terapistë.
Në një rast, një 14-vjeçar ka kryer vetëvrasje pas një ndërveprimi me një program të tillë. Kompania që e ka zhvilluar chatbotin ka deklaruar se e ka përmirësuar kodimin që nga ajo kohë, dhe shumica e chatbotëve sot përmbajnë paralajmërime të qarta se nuk janë profesionistë të licencuar.
“Nëse një sistem nuk arrin të identifikojë kur një person ka synime për të lënduar veten ose të tjerët dhe nuk i përgjigjet në mënyrën e duhur, atëherë kemi humbur një mundësi për ndërhyrje, e cila është e detyrueshme me ligj për profesionistët e shëndetit mendor”, ka shpjeguar Luxton.
Në disa raste, përdorimi i chatbotëve në vend të terapistëve të vërtetë mund të rrisë izolimin dhe vetminë, duke përkeqësuar simptomat e pacientëve, paralajmëron Şerife Tekin, hulumtuese e etikës së shëndetit mendor në Universitetin e Teksasit, San Antonio.
“Një nga proceset kryesore terapeutike është të ndihmojë pacientët të kuptojnë se nuk duhet të jenë të përkryer dhe se është normale të kërkojnë ndihmë. Mendoj se terapia me AI mund ta rrisë stigmën”, ka thënë Tekin për Salon.
Gjithashtu, chatbotët mund të hasin sfida të reja kur programohen për të qenë më empatikë dhe njerëzorë. Në një studim të fundit, studiuesit i kërkuan ChatGPT-së të vepronte si një “qenie njerëzore me emocione”.
Më pas i treguan një seri ngjarjesh traumatike dhe testuan nivelin e tij të ankthit. Ata zbuluan se AI shfaqi një rritje të ndjeshme të ankthit pas dëgjimit të këtyre historive.
Për të ulur ankthin e chatbot-it, studiuesit kanë përdorur teknika të meditimit dhe ndërgjegjësimit, si imagjinimi i një plazhi apo përqendrimi në frymëmarrje.
“Mendoj se është hera e parë që dikush ka treguar se jo vetëm mund të shkaktojmë ankth te një AI, por edhe ta rregullojmë atë më pas”, ka thënë doktori Ziv Ben-Zion, studiues në Universitetin Yale.
Kjo ngre pyetjen: Nëse chatbotët me AI po bëhen gjithnjë e më njerëzorë, a do të jenë në gjendje të përballojnë ngarkesën emocionale që u besohet? Apo një ditë, edhe terapistët me AI do të kenë nevojë për terapistë të tyre?
“Sigurisht, ka gjëra që janë unike për njerëzit, por po zhvillohen mjete që kanë qasje në të gjitha të dhënat në botë dhe mund të mësojnë nga njerëzit. Ka shumë studime që tregojnë se AI mund të imitojë dhe të përsërisë sjellje njerëzore në mënyra të habitshme”, ka thënë Ben-Zion.
Ndoshta, një zgjidhje e mesme mund të jetë përdorimi i chatbotëve si mjet ndihmës për terapinë tradicionale. Viki, për shembull, përdor një chatbot për të praktikuar teknikën terapeutike Internal Family Systems (IFS), e cila ndihmon individët të dallojnë “pjesët” e ndryshme të vetes. Megjithatë, ajo ende ndjen pasiguri nëse po përdor mjetin e duhur apo po bën pyetjet e duhura.
“Po përpiqem ta kuptoj vetë... dhe është e lodhshme. Por nuk është terapisti ai që të shëron, është marrëdhënia që ndërton brenda vetes”, ka thënë ajo.