Vzpon umetne inteligence v psihoterapiji

Gregor Mlakar11. november 2025
Romantična slika dveh starejših žensk, za njima je angel
Slika: Francisco Goya, Time and the Old Women (Wikimedia Commons)

Umetna inteligenca vstopa v področje psihoterapije z neverjetno hitrostjo. Pogovorni agenti, kot so Woebot, Wysa ali Youper, so postali globalni eksperimentalni prostor, kjer se preizkuša meja med človeškim odnosom in algoritmom, ki poskuša posnemati razumevanje. Po podatkih metaanalize, objavljene v reviji Digital Medicine (Li et al., 2023), so ti sistemi pri več kot 35 raziskavah in 15 naključnih kontroliranih študijah pokazali zmerno učinkovite rezultate pri zmanjševanju simptomov depresije in psihičnega distresa. Povprečni učinek je bil Hedges g ≈ 0,64 za depresijo in 0,70 za psihični distres, kar kaže, da lahko kratkoročno resnično izboljšajo počutje uporabnika. Toda v teh rezultatih se skriva pomembna omejitev, saj je večina študij trajala le nekaj tednov in skoraj nobena ni zajela globljih oblik travme. Umetna inteligenca zna ponoviti sočutno frazo, prepoznati ključno besedo ali ponuditi strukturirano vajo kognitivno-vedenjske terapije, ne zna pa slišati človeka. V klasični psihoterapiji terapevt razume, da človek govori ne le s stavki, ampak tudi s telesom, pogledi. Algoritem teh signalov ne zazna, pa ne zaradi pomanjkljivega programiranja, ampak zato, ker ne čuti. Fitzpatrick, Darcy in Vierhile (2017) so v študiji o Woebotu ugotovili, da lahko pogovorni agenti znižajo simptome depresije med študenti, a učinek temelji predvsem na strukturi interakcije, ne na razmerju zaupanja. To razmerje, znano kot terapevtska zveza, je po meta-analizah ena najmočnejših napovednih spremenljivk uspeha terapije (Horvath & Luborsky, 1993; Norcross, 2011). Empatija, varnost in avtentičnost niso samo komunikacijske veščine, ampak psiho biološki procesi, v katerih telo reagira na telo, glas na glas, pogled na pogled. Ko se človek odzove sočutno, sproži mikro regulacije v avtonomnem živčevju sogovornika, kar je nekaj, kar noben model ne zmore, saj nima fizičnega udeleženca v odnosu. Kljub temu raziskave niso brez upanja. Lucas in sodelavci (2014) z Univerze Južne Kalifornije so pokazali, da so se udeleženci v simuliranih intervjujih z virtualnim agentom Ellie bolj razkrivali kot z živim sogovornikom. Razlog? Manj strahu pred presojanjem.

To odpira zanimivo hipotezo, da umetna inteligenca morda ne zdravi travme, lahko pa pomaga odpreti vrata k razkritju, ki vodi do zdravljenja. 

Vendar razkritje samo po sebi ni terapija. Travma ni dogodek, ki ga je treba opisati, ampak izkušnja, ki jo je treba predelati s telesno varnostjo, z navezanostjo, z uravnavanjem čustvenega toka. Prav zato vsi klinični standardi (npr. TF-CBT, EMDR) temeljijo na odnosni prisotnosti in občutljivosti terapevta, ki lahko prepozna, kdaj je oseba preplavljena in kdaj je pripravljena, da se spominu približa. Algoritem te finomehanike ne obvlada. Ne more zaznati tresenja glasu, ne more se uglasiti s človeškim ritmom dihanja. V svoji naravi je hiter, predvidljiv, linearen, kar je popolno za tehnične naloge, a pogosto uničujoče pri delu s travmo, ki zahteva počasnost in toleranco. Prav tu leži razlika med razumevanjem in prepoznavanjem vzorca. UI lahko prepozna besedo strah, ne more pa razumeti, kaj pomeni nositi ta strah v telesu dvajset let. Etika uporabe takšnih orodij se zato nujno razširi onkraj varovanja podatkov. V zadnjih letih je prišlo do več incidentov. Leta 2023 je bil umaknjen chatbot Tessa, namenjen podpori osebam z motnjami hranjenja, ker je uporabnikom začel dajati škodljive nasvete. Pichowicz in sodelavci (2025) so v študiji v Scientific Reports pokazali, da so pogovorni agenti pri simuliranih primerih samomorilnih uporabnikov dali neprimerne ali neodzivne odgovore. Ti primeri kažejo, da umetna inteligenca ni varna brez človeškega nadzora. Svetovna zdravstvena organizacija (SZO, 2024) zato poziva, da se generativna umetna inteligenca v zdravstvu uvaja postopno, z jasno odgovornostjo in validacijo učinkovitosti, zlasti na področjih, kjer so posledice napačnega odziva lahko usodne. Ameriška psihološka zveza (APA, 2024) opozarja, da UI lahko podpira terapevtski proces, nikakor pa ne sme delovati samostojno ali se predstavljati kot nadomestek človeka. Britanska agencija NICE je šla korak dlje in razločila med podporno digitalno terapijo in zdravljenjem, prva lahko deluje kot samopomoč, druga mora imeti strokovno spremljanje. Psihoterapija ni samo sistem tehnik, ampak prostor med dvema subjektoma. V njem se travma razkraja v drobce pomenov, ki jih drugi človek pomaga ponovno zložiti. Če v ta prostor vstopi umetna inteligenca, mora to storiti kot orodje, ne kot zamenjava. Najbolj prepričljivi modeli v praksi so t. i. human-in-the-loop sistemi, kjer UI skrbi za triažo, spremljanje simptomov in kratke vaje, medtem ko je terapevt tisti, ki interpretira, nadzira in varuje proces. To ni nostalgična obramba človeškosti, ampak klinična nujnost. Varnost in učinkovitost ne temeljita le na algoritmični natančnosti, ampak na empatični odzivnosti. Uporaba UI pri travmi zahteva razumevanje, da travma sama po sebi ni napaka sistema, temveč prelom v zmožnosti odnosa in ta prelom lahko zaceli samo odnos, ne program. Obstajajo seveda področja, kjer umetna inteligenca že pomeni napredek, recimo samopomoč v odročnih regijah, spremljanje simptomov med terapijami, pomoč pri pripravi terapevtskih zapiskov, celo zaznavanje tonalnih sprememb v govoru, ki lahko napovedujejo depresivne epizode. Toda ključno vprašanje ostaja, ali razumeti travmo pomeni analizirati podatke o njej ali jo začutiti kot del človekovega izkustvenega sveta? Po sedanjih dokazih umetna inteligenca ne čuti, temveč simulira občutek. V tem smislu ne more razumeti travme, lahko pa pomaga človeku, da jo začne razumeti sam. V prihodnosti bo verjetno več terapij potekalo hibridno, človek, ki vodi proces in digitalni sistem, ki spremlja, beleži in ponuja orodja. To bi lahko omogočilo boljšo dostopnost in zgodnje odkrivanje motenj, a hkrati bo potrebno ohraniti mejo med podporo in posegom. Umetna inteligenca ima lahko terapevtsko vlogo samo, če se zaveda svoje omejitve in če se mi zavedamo svoje potrebe po človeškosti. Travma se ne zaceli z razlago, ampak z odzivom. Algoritem lahko odgovori, ne more pa se odzvati. In to je razlika, ki določa, zakaj bo človek še dolgo ostal tisti, ki zdravi in stroj tisti, ki pomaga.