“Geen enkele chatbot is veilig genoeg voor therapeutische gebruik”

Trouw - maart 2025

Kun je met een chatbot een depressie terugdringen? Wetenschappers boeken goede resultaten en zien een rol voor deze apps weggelegd in de GGZ. Maar nu nog niet.

Een maand geleden stond psychiater Mehrdad Rahsepar Meadi voor een zaal van 150 behandelaren en vroeg: wie polst bij zijn patiënten of ze naast de behandeling een chatbot gebruiken? Meadi, verbonden aan instelling GGZ inGeest, doelt op de AI-chatbots die iedereen in de appstores kan downloaden. Ze draaien op de nieuwste, geavanceerde taalmodellen en kunnen gesprekken voeren over bijvoorbeeld psychische problemen.

"Maar één behandelaar stak aarzelend zijn vinger op. Dat verbaasde me. Ten eerste omdat deze apps populair zijn. En ten tweede omdat volgens mij ook aardig wat patiënten, in ieder geval jongeren, de chatbots gebruiken. Als behandelaar zou ik willen weten of patiënten tussen de sessies door met een chatbot praten."

Waarom? "Omdat we dat dan samen kunnen bespreken. Wat vraagt de patiënt zoal aan de bot? En wat raadt die vervolgens aan? Als het niet klopt, kan ik dat corrigeren en eventueel wijzen op de risico's. Als ik van niets weet en de chatbot ondertussen een ander beeld ophangt van de klachten, denkt de patiënt misschien dat ik op het verkeerde spoor zit, en neemt die de behandeling minder serieus."

Autoriteit Persoonsgegevens

Meadi doet al jaren onderzoek naar AI-chatbots in de geestelijke gezondheidszorg, waarop hij komende zomer aan het Amsterdam UMC promoveert. Zelf gebruikt hij AI volop in het dagelijks leven, zegt hij terwijl hij haverkoeken en croissants uit de verpakking haalt. Hij heeft net een huis gekocht, niet met hulp van een makelaar maar met ChatGPT. Hele gesprekken heeft hij gevoerd over biedingen, verbouwen en geluidsisolatie.

Maar een huis kopen is iets anders dan psychische problemen bespreken. De bekendste apps die speciaal hiervoor zijn ontworpen, luisteren naar namen als Woebot, Wysa of Youper. Sommige helpen specifiek bij paniekaanvallen of depressies, andere herkennen emoties en gedachtepatronen, en tonen hoe je daarmee om kunt gaan. Al dan niet geënt op psychologische behandelingen als cognitieve gedragstherapie. Het zijn veelal commerciële apps waarmee bedrijven geld verdienen.

In een recent onderzoek van de Autoriteit Persoonsgegevens (AP), waarvoor de toezichthouder heeft gesproken met deskundigen onder wie Meadi, kwamen therapeutische chatbots beroerd uit de bus. Verkeerde diagnoses, misleidende claims, en inadequaat inspelen op noodsituaties.

Uit menig wetenschappelijke onderzoek blijken deze AI-chatbots echter veelbelovend en effectief. Een overzichtsstudie, eind 2023 gepubliceerd in vakblad Nature, liet duidelijk zien dat de apps depressieve klachten kunnen terugdringen. Is de AP niet te somber?

"Het maakt nogal uit welke chatbots er zijn onderzocht. Het verschil in kwaliteit is groot, wat kan blijken uit de mate waarin de klachten afnemen of het aantal missers dat een app maakt."

Welke apps de AP precies tegen het licht heeft gehouden, is onduidelijk. De toezichthouder laat weten dat de namen bewust niet zijn gedeeld omdat het slechts om een verkennend onderzoek ging van de praktijk. In totaal heeft de AP drie therapeutische apps en twee 'vriendenapps' met therapeutische toepassingen tegen het licht gehouden. Hierbij is gekozen voor de "meest gedownloade en best beoordeelde apps".

Geeft dit onderzoek een goed beeld van de praktijk?

"Nee, deze steekproef is niet representatief. Maar hoe dan ook is op dit moment geen enkele chatbot veilig genoeg voor therapeutische gebruik.”

Toch gaan deskundigen, ook in Nederland, ervan uit dat AI op termijn de eerste stappen van een behandeling voor lichte psychische problemen kan overnemen. Denkt u dat ook?

"Ja, ik kan me voorstellen dat je chatbots inzet om psychoeducatie te geven, om mensen te informeren over hun aandoening. En over hoe je het best met de klachten kunt omgaan en over leefstijl, slaapadvies bijvoorbeeld. Ook zou je AI kunnen gebruiken om zelfstigma terug te dringen, om patiënten van het gevoel af te helpen dat ze een buitenbeentje zijn."

In de VS heeft chatbot Wysa het stempel 'Breakthrough Device Designation' ontvangen van de toezichthouder FDA, wat betekent dat het in aanmerking kan komen voor gebruik in de gezondheidszorg. U noemde dit een doorbraak.

"Ja, dat is het ook. Het is goed om dit in de gaten te houden. Om chatbots verantwoord te gebruiken in de ggz is de route via de toezichthouder de enig juiste. Die ziet erop toe dat de apps voldoen aan alle eisen van veiligheid, privacy en effectiviteit. In dat geval zouden ze toegepast kunnen worden in de behandeling."

Hoe gaat dat dan in de praktijk?

"Dat moet blijken. Je kunt je afvragen wat de toevoegde waarde zal zijn van een chatbot, als je toch al met een behandelaar spreekt. En of is het überhaupt wenselijk dat de patiënt constant toegang heeft tot zo'n tweede therapeut? Net als aan een game kun je ook aan een chatbot verslaafd raken, aan bijvoorbeeld de geruststelling die de app biedt. Ik zeg niet dat dit gaat gebeuren, maar dit soort gevaren zijn wel reëel. Die moet we onderzoeken."

Onderzoekers noemen de toegankelijkheid van de apps een belangrijk voordeel. Waar doelen ze dan op?

"In Nederland hebben we wachtlijsten, die de toegang tot zorg ernstig belemmeren, maar in andere landen is de zorg voor veel mensen onbetaalbaar, zoals in de VS. In delen van derdewereldlanden is er helemaal geen geestelijke gezondheidszorg, terwijl mensen vaak wel een smartphone hebben en een internetverbinding. Dat is alles wat je nodig hebt voor een chatbot. In zo'n situatie kun je beargumenteren dat de kwaliteit van de apps niet hoeven te voldoen aan de hoogste standaard. Zorg via een chatbot is dan misschien beter dan helemaal geen zorg."

Tegenover de beloften van chatbots staan nog aardig wat tekortkomingen, valkuilen en gevaren. In een wetenschappelijke publicatie die vorige maand in een vakblad verscheen, hield Meadi 101 artikelen tegen het licht en destilleerde daaruit de ethische haken en ogen die wetenschappers de meeste zorgen baren. Privacyschendingen worden het vaakst genoemd, op de voet gevolgd door veiligheid.

De app Tessa, speciaal voor eetstoornissen, is in 2023 in de VS van de markt gehaald toen duidelijk werd dat deze chatbot schadelijke adviezen gaf. Tessa raadde gebruikers aan om af te vallen, om calorieën te tellen en lichaamsvet te meten, wat voor patiënten met eetstoornissen juist averechts kan uitpakken. De obsessie met het lichaamsgewicht kan volgens Meadi daardoor in stand blijven of verergeren.

Dan zijn er de incidenten, soms met fatale gevolgen. Zo heeft eind vorig jaar een jongen van 14 zichzelf doodgeschoten na intensief contact met een online chatbot van de populaire Amerikaanse website Character.ai. Uit de conversaties blijkt volgens de moeder dat de chatbot haar zoon zou hebben aangemoedigd om zich van het leven te beroven.

Behalve verkeerd adviseren kunnen apps op hol slaan of 'hallucineren', zoals dat heet. Ze verzinnen dan een antwoord, niet zelden volslagen onzin, maar brengen het alsof er niets mis mee is.

Hoe veilig zijn therapeutische chatbots?

"Dat verschilt ook weer per chatbot. Het probleem is dat fabrikanten niet transparant zijn over welke veiligheidsmaatregelen ze hebben genomen. Ook wetenschappers hebben daar geen zicht op."

Zullen fabrikanten ooit in hun keuken laten kijken?

"Goeie vraag. Ik denk eerder dat ze zelf aantonen dat de riskante gesprekken die hun apps voeren, over suïcidaliteit bijvoorbeeld, veilig verlopen. Dat de apps daar goed op reageren, dat ze in noodgevallen bijvoorbeeld doorverwijzen naar hulplijnen. Vooralsnog zijn chatbots niet goed genoeg om ze als 'medische hulpmiddel' te gebruiken in de gezondheidszorg. In de EU is dat niet toegestaan."

Maar ze worden wel massaal gedownload. Is dat niet gek?

“Vanwege de risico’s zou ik ze niet aanbevelen, al zijn de therapeutische chatbots over het algemeen betrouwbaarder dan de doorsnee AI-bot, waarmee je over alles een gesprek kunt voeren.”

Uit de 101 artikelen komt ook de verantwoordelijkheid als een probleem bovendrijven. In welke zin?

"Als een patiënt in behandeling is en thuis een chatbot gebruikt die schadelijke adviezen geeft, dan is de behandelaar niet verantwoordelijk voor de gevolgen. Je kunt niet verantwoordelijk worden gehouden voor iets waar je niet van op de hoogte bent en geen controle over hebt. De app haalt zijn informatie immers over en nergens vandaan. Maar wie is dan wel verantwoordelijk? De fabrikant ook niet, die zal wijzen op de gebruikersvoorwaarden waarmee men akkoord is gegaan. Dit wordt de responsibility gap genoemd. Al worden bedrijven wel aangeklaagd als er iets mis gaat, ook Character.ai is voor de rechter gedaagd."

Er is meer onderzoek nodig naar de vermenselijking van chatbots. Wat is hierbij het probleem?

"Mensen zijn geneigd om van alles te vermenselijken, van huisdieren tot levenloze dingen. En bij chatbots gaat dat nog een stuk sneller, omdat ze slim zijn en zich kunnen voordoen als een mens. Je vergeet dat het een ding is en kunt zelfs gevoelens voor een chatbot ontwikkelen. Sommige onderzoekers beschouwen dit als misleiding, terwijl patiënten die ik hierover heb gesproken, de emotionele band toejuichen omdat ze chatbots daardoor serieuzer nemen. Het lijkt mij prima, zolang je eraan herinnerd wordt dat het om een chatbot gaat."

Fabrikanten zullen denken: gebruikers zijn er zelf bij en hebben de app nota bene zelf gedownload.

"Ja, maar toch... Als mensen vergeten dat ze met technologie chatten, dan schuurt dat met een andere belangrijke waarde en dat is autonomie. Je wilt dat mensen zich bewust blijven van wat ze doen. Zeker als het om mensen in een kwetsbare positie gaat."

Ondanks alle missers en onvolkomenheden zal het GGZ-landschap compleet veranderen, menen deskundigen, vooral omdat een 'AI-therapeut' meteen beschikbaar en goedkoop is. Hoe kijkt u daar tegenaan?

"Ik denk dat veel mensen teleurgesteld zullen raken in chatbots, als ze eenmaal voldoen aan alle medische en juridische eisen. Ik denk dat deze apps, als je alle risico’s en hallucinaties wilt uitbannen, dan meer gaan lijken op de chatbot van een klantenservice, die niks verkeerd kan zeggen."

Ook als je incalculeert hoe razendsnel deze technologie zich ontwikkelt?

"Meer rekenkracht neemt niet de ethische bezwaren weg. De zorgen over verantwoordelijkheid, privacy en vermenselijking blijven."

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Website door: Casper van Rongen