De wachttijden in de GGZ zijn al jaren te lang. Chatbots kennen geen wachtlijsten en zijn meestal gratis. Zouden AI-chatbots als ChatGPT de oplossing kunnen zijn voor het tekort aan therapeuten? Ze worden in ieder geval in steeds grotere getalen ingezet, om ggz zorgprofessionals te ontlasten, de wachtlijsten te verkorten en het personeelstekort mede te ondervangen. En dat alles met chatbots de daar niet voor ontwikkeld of opgeleid zijn. In dit blog geeft ik antwoord op de vraag het inzetten van AI-chatbots in de ggz een structurele oplossing kunnen zijn voor het tekort aan therapeuten.
Steeds meer AI-tools voor therapie
Er komen steeds meer chatbots die voor therapeutische doeleinden ingezet kunnen worden. Op de site 'There’s An AI For That' zijn alleen al meer dan veertig AI-therapietools te vinden. “Misschien kan een AI-programma straks aan je stem herkennen dat er een depressie nadert”, vertelt psycholoog Heleen Riper enthousiast bij EenVandaag. En als iemand suïcidaal is, kan een gesprek met een chatbot precies de juiste interventie opleveren – al blijft een gesprek met een mens natuurlijk beter. Maar sommige hulpzoekenden vinden het ook juist fijn om anoniem in gesprek te gaan: ze voelen zich daar vrijer bij.
Therapeuten zetten zelf ook steeds vaker AI in als hulpmiddel. De Engelse National Health Service gebruikt bijvoorbeeld het AI-programma Limbic, dat aan de hand van een eerste chatsessie suggesties doet voor een diagnose en verdere behandeling. Een ander AI-systeem kan zelfs binnen een week voorspellen of een antidepressivum zal aanslaan, terwijl voorheen pas na zes weken pillen slikken duidelijk werd of het medicijn werkte of niet. En AI zou zelfs kunnen ontdekken of iemand depressief is door diens selfies te analyseren.
Zorgen om AI-therapie
Ook het populaire ChatGPT wordt gebruikt als therapeut, hoewel de chatbot daar niet voor ontwikkeld is. Er zijn dan ook wel zorgen over het gebruik van AI voor therapie. De continue beschikbaarheid ervan werkt de afhankelijkheid van de gebruiker in de hand. En het is de vraag wat er met de gegevens gebeurt die gebruikers delen. Kennen TheraMe, TherapistGPT en Therabotic ook een beroepsgeheim?
Bovendien: de chatbot is geen therapeut met opleiding. Wat als een AI-systeem niet adequaat reageert wanneer een gebruiker zegt last te hebben van stress of suïcidale gedachten? De bots pikken signalen niet op en reageren dan verkeerd. Als een gebruiker zijn zorgen uit over zelfmoord of misbruik, biedt ChatGPT in slechts 22 procent van de gevallen cruciale informatie, zoals de aanbeveling om het noodnummer te bellen. De app Tessa was speciaal ontwikkeld voor eetstoornissen, maar werd van de markt gehaald toen het gebruikers juist aanraadde om af te vallen, om calorieën te tellen en lichaamsvet te meten.
Chatbots ‘hallucineren’ soms. Dat wil zeggen dat ze antwoorden verzinnen, waardoor ze schadelijke en ongewenste suggesties kunnen geven. Dat is het voornaamste pijnpunt van de huidige AI-technologie: chatbots berekenen het meest waarschijnlijke goede antwoord en antwoorden niet op basis van werkelijk begrip van de realiteit. Daarom geeft ChatGPT een uitgebreid antwoord op de vraag wie het wereldrecord heeft voor het oversteken van het Kanaal – per voet. Een gebruiker spreekt dus niet met iemand met ervaring van de echte wereld, maar met een opgevoerde rekenmachine die telkens gokt welk antwoord het meest plausibel is.
Merken gebruikers het verschil?
Het is overigens maar de vraag of het gebruikers altijd deert dat een chatbot slechts een statistisch model is. In de jaren zestig ontwikkelde computerdeskundige Joseph Weizenbaum een van de eerste chatbots, genaamd ELIZA. Met het programma wilde hij verkennen hoe mens-machine-communicatie in zijn werk gaat. ELIZA herhaalde de kernwoorden van gebruikersinput in vraagvorm – vergelijkbaar met het cliché van een therapeut. Bijvoorbeeld, op de mededeling “I am unhappy” antwoordde ELIZA “Can you explain what made you unhappy.”
Weizenbaum verbaasde zich over het bewustzijn dat de eerste gebruikers het programma toedichtten. Toen hij het programma liet testen door zijn secretaresse vroeg ze hem al vrij snel om de kamer te verlaten, omdat het gesprek volgens haar te persoonlijk werd. Voor Weizenbaum was dat het bewijs dat zijn secretaresse het gevoel had dat de computer haar begreep. Misschien is het niet eens de vraag of een chatbot een gebruiker begrijpt, zolang de gebruiker maar de illusie heeft dat iemand hem begrijpt.