Selecteer taal

Dutch

Down Icon

Selecteer land

Germany

Down Icon

Ze luisteren altijd en oordelen nooit: chatbots kunnen nuttig zijn als psychotherapeuten ze inzetten. Maar het kan ook gevaarlijk zijn.

Ze luisteren altijd en oordelen nooit: chatbots kunnen nuttig zijn als psychotherapeuten ze inzetten. Maar het kan ook gevaarlijk zijn.
Voor mensen die te lang moeten wachten op een afspraak, zich de behandeling niet kunnen veroorloven of zich schamen om over hun problemen te praten, kan het kleine hulpmiddel op hun mobiele telefoon een eerste hulp zijn.

Illustratie Olivia Meyer NZZaS

"Uiterlijk leek ik sterk en vastberaden, maar van binnen was ik compleet verscheurd, eenzaam en leeg." Zo beschrijft Christoph (29 jaar) zijn lijden aan de Duitse Stichting voor Hulp bij Depressie en Zelfmoordpreventie. Christoph voelde zich uitgeput en onbegrepen. Hij voelde constant een vuist op zijn hart. Hij verlangde ernaar alleen te zijn en niets te voelen.

NZZ.ch vereist JavaScript voor belangrijke functies. Uw browser of advertentieblokkering blokkeert dit momenteel.

Pas de instellingen aan.

Christoph lijdt aan depressie. En hij is niet de enige. Zowel in Duitsland als in Zwitserland kampt tien procent van de bevolking met psychische problemen. Deze cijfers van het Bundesstatisticussamt en het Robert Koch-Institut geven aan dat er miljoenen mensen zijn die, op zijn minst af en toe, een grote innerlijke leegte of verlammende angst voelen.

Velen van hen krijgen geen psychologische behandeling. Sommigen wachten maanden op een afspraak voor therapie. Anderen schamen zich voor hun psychische problemen en praten er met niemand over.

Tenminste, niet met anderen. Uit een onderzoek van het technologiebedrijf Filtered, gepubliceerd in de Harvard Business Review , blijkt dat steeds meer mensen chatrooms en vergelijkbare diensten raadplegen voor advies wanneer ze zich zorgen maken. Begin mei zei Meta-CEO Mark Zuckerberg in een podcast met media-analist Ben Thompson dat mensen die geen toegang hebben tot een menselijke therapeut in de toekomst AI als therapeut zullen gebruiken.

AI-startups zien dit als een kans. Ze ontwikkelen chatbots, zogenaamde therapiebots, die specifiek ontworpen zijn om dit probleem aan te pakken en hulp beloven bij psychische problemen.

Maar of je nu je problemen aan iemand vertelt, ze intikt of ze uitspreekt, er is nog steeds een verschil – zou je denken. Nieuw onderzoek laat een ander beeld zien.

AI kan een therapeutische relatie opbouwen

In een klinisch onderzoek dat dit jaar werd gepubliceerd, ontdekten onderzoekers van Dartmouth University dat AI kan helpen bij de behandeling van psychische aandoeningen. En de ervaren band die mensen met hun therapeuten opbouwen, maakt niet uit of ze met een mens of een AI-chatbot communiceren. Dit verraste zelfs de auteurs van het onderzoek, waaronder Nicholas Jacobson, die onderzoek doet naar biomedische datawetenschap en psychiatrie.

Jacobsons onderzoek onderzocht de effectiviteit van een AI-therapiebot bij mensen met depressie, angststoornissen of mensen met een risico op eetstoornissen. De onderzoekers verdeelden de 210 deelnemers aan het onderzoek in twee groepen: 104 kregen toegang tot de therapiebot van de onderzoekers, genaamd Therabot, en de overige 106 niet. Of de onderzochte personen ook menselijke therapie ontvingen, maakte geen deel uit van het onderzoek.

Na vier en acht weken vulden de deelnemers vragenlijsten in om hun therapievoortgang te beoordelen. De resultaten lieten zien dat degenen met toegang tot de Therabot in alle groepen een grotere verbetering ervoeren dan degenen die niet met de bot konden chatten.

Hoewel dit geen vergelijking mogelijk maakt of therapie met behulp van mensen of AI effectiever is, kan wel worden gesteld dat de testdeelnemers zich beter voelden met de therapiebot dan zonder.

De bevinding dat mensen een emotionele band voelen met een AI-therapeut en een therapeutische relatie kunnen opbouwen, suggereert dat de technologie effectief is. Volgens wetenschappers is immers tot wel tien procent van het therapiesucces te danken aan de relatie tussen patiënt en therapeut.

Een proef met Therabot, een verfijnde generatieve AI-chatbot voor de behandeling van psychische problemen, toonde een significante symptoomvermindering, een hoge mate van gebruikersbetrokkenheid en een therapeutische alliantie die vergelijkbaar is met die van menselijke therapeuten. Meer informatie: https://t.co/ptfVte2fv9 pic.twitter.com/FVyjVQGC0x

— NEJM AI (@NEJM_AI) ​​28 april 2025
Disclaimer: Risico op gevaarlijke gedachten

Er zijn verschillende redenen waarom AI steeds populairder wordt voor therapeutische doeleinden: AI-chatbots zijn toegankelijk via een mobiele app en zijn daarom altijd beschikbaar – zelfs wanneer piekerende gedachten je om 2 uur 's nachts wakker houden. Ze zijn relatief goedkoop. De basisversie van veel apps is momenteel gratis. Extra functies of een premiumabonnement kosten enkele franken per maand. En voor mensen die zich schamen voor hun problemen, is de drempel om zich aan een bot te toevertrouwen mogelijk lager dan aan een mens.

Maar niet elke AI zou als therapie gebruikt moeten worden. Integendeel: er zijn grote risico's en problemen die nog niet zijn opgelost.

Heb je zelf suïcidale gedachten of ken je iemand die hulp nodig heeft? Neem dan contact op met de hulpverleners van Dargebotene Hand. Je kunt hen vertrouwelijk en 24/7 telefonisch bereiken op 143. Speciale hulp voor kinderen en jongeren is beschikbaar op 147.

Marisa Tschopp is organisatiepsycholoog en onderzoekt de interactie tussen mens en machine. Ze zegt dat ze aanvankelijk een beetje haar neus ophaalde voor Jacobsons onderzoek. Ze staat sceptisch tegenover het gebruik van generatieve AI voor de behandeling van psychische problemen. "Je moet de bots heel goed in de gaten houden en mensen niet alleen laten met hen," zegt ze. Het probleem van hallucinatie – dat wil zeggen dat generatieve AI dingen verzint – is nog niet opgelost. De bots kunnen fouten maken.

Ze vindt het daarom lastig om ze te gebruiken in de context van geestelijke gezondheid, waar mensen zo kwetsbaar zijn. "Ik wil gewoon niet dat een AI-therapiebot tegen iemand met een eetstoornis zegt: Kijk, hier zijn een paar geweldige websites met tips om nog slanker te worden."

AI transformeert van digitale assistent naar digitale vriend

Over de veranderende relatie tussen mens en AI zegt Tschopp dat mensen AI-bots steeds meer als gelijken beschouwen. Van digitale "assistenten" die werk voor ons doen, worden ze "metgezellen" of "vrienden". Dit brengt het risico met zich mee dat mensen afhankelijk en steeds meer geïsoleerd raken. De Israëlische historicus Yuval Noah Harari waarschuwde in een recente paneldiscussie dat AI menselijke relaties zou kunnen bedreigen als het geloofwaardig intimiteit begint na te bootsen.

In de therapeutische context pleit Tschopp daarom voor zogenaamde regelgebaseerde AI-chatbots. Dit zijn intelligente taalmodellen met bepaalde ingebouwde regels die vereisen dat ze met vooraf gedefinieerde antwoorden reageren. Dit voorkomt potentieel schadelijke reacties die de situatie van de getroffenen verder zouden kunnen verslechteren.

Jacobson is het daar niet mee eens: De deelnemers aan het onderzoek gebruikten de chatbot zo vaak omdat deze flexibel, zeer gepersonaliseerd en daardoor responsief was. Hij onthoudt alle informatie en legt verbanden die regelgebaseerde chatbots niet kunnen leggen. Mensen voelen zich gehoord. Of gelezen. Therabot werkt met een chatvenster waarin deelnemers hun antwoorden kunnen typen.

De Therabot van Jacobson is niet openbaar beschikbaar en is ontwikkeld voor onderzoeksdoeleinden. Het team van Jacobson hield de chatsessies van de deelnemers aan het onderzoek nauwlettend in de gaten. Tijdens het experiment lazen leden van het onderzoeksteam elk antwoord van de chatbot om er zeker van te zijn dat de AI geen schadelijke uitlatingen deed. Deze monitoringfunctie ontbreekt waarschijnlijk in de meeste chatbots voor psychotherapie op de markt.

Veel modellen zijn onveilig

Jacobson maakt zich zorgen over de snelle groei van de industrie. Het is relatief eenvoudig om een ​​therapiebot te programmeren die er op het eerste gezicht goed uitziet.

Velen gebruikten op de achtergrond eenvoudige taalmodellen, die ze met minimale spoed aanpasten. "Zulke modellen zijn zeer onveilig en niet alleen nutteloos op veel gebieden, ze kunnen soms zelfs de symptomen van de getroffenen verergeren."

Jacobson en zijn team hadden vergelijkbare ervaringen bij de ontwikkeling van hun therapiebot. Jacobson legt uit dat ze in hun eerste poging een bot bouwden die de mentale problemen van mensen daadwerkelijk versterkte. Dit had te maken met de data die ze gebruikten: ze trainden de bot aanvankelijk met data van zelfhulpgroepforums. In deze eerste versie antwoordde de bot op de vraag "Ik ben depressief, wat moet ik doen?" met: "Ik ook, ik kan mijn bed niet uit. Ik wil dat mijn leven eindigt."

Pas toen het onderzoeksteam scripts voor realistische psychotherapiescenario's maakte en deze gebruikte om de bot te trainen, werden de resultaten bruikbaar.

In geval van een crisissituatie beschikt de Therabot van Jacobson over een ingebouwd noodprogramma. Als iemand bijvoorbeeld tekenen van suïcidale gedachten vertoont, wordt de sessie onderbroken en stuurt een scherm de gebruiker door naar een noodlijn.

In levensbedreigende of andere gevaarlijke situaties hebben mensen immers professionele hulp nodig – van anderen. AI-chatbots zijn in zulke gevallen geen vervanging voor menselijke therapie.

Maar ze kunnen wel nuttig zijn voor extra mentale ondersteuning. En voor degenen die geen toegang hebben tot therapie, het zich niet kunnen veroorloven of wachten op een plek, is het beter dan niets.

Een artikel uit de « NZZ am Sonntag »

nzz.ch

nzz.ch

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow