Hulpverleners van 113 Zelfmoordpreventie kunnen assistentie verwachten van een AI-tool bij de chatgesprekken die ze voeren met mensen die aan zelfdoding denken. Promovendus Salim Salmi ontwikkelde de AI-tool en gaat momenteel na hoe deze digitale assistent kan worden ingevoerd bij de zelfmoordpreventielijn. Salmi voerde zijn onderzoek uit bij het Centrum Wiskunde & Informatica en promoveert op 4 december aan de Vrije Universiteit Amsterdam.
Bij de 113-hulplijn kunnen mensen die aan zelfdoding denken anoniem terecht om hun gevoelens en zorgen te uiten, met als doel om zelfdoding te voorkomen. In 2023 werden er via telefoon en chat bijna 185.000 gesprekken gevoerd; 21,5% meer dan het jaar ervoor. 113 zoekt dan ook voortdurend naar nieuwe manieren om de hulp te verbeteren.
AI-tool voor advies
Salmi heeft voor zijn promotieonderzoek een tool ontwikkeld die via kunstmatige intelligentie de online chats analyseert en vervolgens adviseert hoe de hulpverlener het gesprek kan voortzetten. Een van de grootste uitdagingen belangrijkste vragen in Salmi’s onderzoek (pdf) is dat de tool dan wel moet ‘weten’ welke gesprekken effectief zijn en welke niet. “We hebben veel tekstdata, maar die kunnen we niet koppelen aan uitkomsten. Omdat mensen anoniem contact opnemen, weet je niet hoe het ze vergaat na het gesprek”, vertelt Salmi.
Om daar inzicht in te krijgen werd aan mensen gevraagd om voor en na het gesprek een vragenlijst in te vullen. Die lijst geeft inzicht in de aanwezigheid van kenmerken die kunnen wijzen op suïcidaal gedrag. Hieruit komt een bepaalde score. Er werd gekeken of daarin na het gesprek verandering zat. Door jarenlang dergelijke gegevens te verzamelen, vormde zich een beeld welke gesprekken wel en welke niet tot een ‘goed’ resultaat leiden. Met deze informatie trainde Salmi een AI-model dat moet achterhalen welke delen van het gesprek een verbetering of juist een verslechtering teweegbrengen. Hij ontwierp het model zodanig, dat hij achteraf kon zien welke zinnen het model maatgevend vond voor de uitkomst van een gesprek.
De volgende stap was de ontwikkeling van een digitale assistent die de hulpverlener suggesties kan geven tijdens een 113 chatgesprek. Het model zoekt in zijn database met succesvolle gesprekken naar teksten die van toepassing zijn op de chat die gaande is, en doet een voorstel. Hulpverleners krijgen dus voorbeelden te zien van gesprekken die echt hebben plaatsgevonden. Ze kunnen zelf besluiten of ze die voorbeelden gebruiken.
Resultaten
De digitale assistent is uitvoerig getest. Eerst in een groep van 24 hulpverleners, daarna in een gerandomiseerde studie, waarbij 27 hulpverleners de beschikking kregen over de tool, en 21 niet. Hulpverleners bepaalden zelf wanneer ze de digitale assistent raadpleegden en wat ze met de suggesties deden. Het bleek dat gesprekken met de AI-tool gemiddeld iets korter duurden. “Qua zelfeffectiviteit – het geloof in je eigen vermogen om een specifieke taak succesvol uit te voeren, red. – rapporteerden de hulpverleners weinig verschil. Ze kozen vooral voor de AI-assistent bij lastige gesprekken, waarin ze niet goed wisten door te dringen tot de persoon.”, licht Salmi toe.
De volgende stap is om het model uit te breiden van chat- naar telefoongesprekken. Nu zijn promotieonderzoek is afgerond, begint Salmi aan een nieuw project: zijn tool integreren in het platform dat mensen gebruiken om hulp te vragen bij 113. AI wordt steeds vaker succesvol ingezet bij het analyseren en voorspellen. Zo bleek uit recent onderzoek dat de experts die de resultaten van neurowetenschappelijke onderzoeken analyseren en voorspellen, daarbij worden verslagen door AI. Dat concludeert een internationaal onderzoek, uitgevoerd onder leiding van het University College London (UCL).