Framework voor verantwoorde toepassing AI in de ggz noodzakelijk

vr 7 februari 2025 - 14:05
GGZ
Nieuws

De geestelijke gezondheidszorg (GGZ) staat voor de uitdaging van het gebruiken en implementeren van artificial intelligence (AI), terwijl professionele standaarden en richtlijnen ontbreken. Hoe zorgen we ervoor dat AI verantwoord wordt ingezet? Binnen de GGZ is er sinds enige tijd sprake van een transformatie als het gaat om digitalisering, wat wordt gestimuleerd door het Integraal Zorgakkoord.

In dit kader is ook de interesse voor AI toegenomen, en zelfs vertaald in concrete verwachtingen, zoals bijvoorbeeld het terugbrengen van de administratietijd naar 20% (regeerprogramma). Bij GGZ-instellingen bevindt AI zich veelal in de pilotfase, bijvoorbeeld voor het genereren van gespreksverslagen (bijvoorbeeld GGz Centraal, ValueCare en MedRecord) of het voorspellen van suïcide risico's op basis van EPD-data (bijvoorbeeld T enzinger).

Op lange termijn worden er echter veel meer toepassingen verwacht, zoals het voorspellen van responders op medicatie, het triageren van patiënten met chatbots bij de aanmelding en het feedback geven aan behandelaren tijdens het behandelgesprek. Deze toename in het gebruik van AI vraagt het verantwoord inzetten van deze toepassing. Er ontbreekt echter een breder gedragen consensus over voorwaarden en kaders waarbinnen veilig gebruik van AI plaatsvindt.

GGZ-instellingen zijn zelf verantwoordelijk

Vanwege de vele aspecten van AI, is het toepassen in de praktijk erg complex. Naast dat het systeem de beoogde doelstelling moet behalen - bijvoorbeeld het verminderen van de administratietijd -, moet het passen binnen het zorgproces. Dit betekent dat er verschillende aspecten moeten worden gewogen. De juridische aspecten zijn bekeken, zoals privacy, het systeem moet functioneren met de beschikbare datastromen en het moet passen binnen de huidige ICT-infrastructuur.

Ook de ethische kanten moeten zijn bekeken. Hierbij kan je denken aan de garantie dat de behandelaar altijd de eindbeslissing neemt, de governance (wie is er verantwoordelijk wanneer het systeem fouten maakt) - en wat informed consentspecifiek inhoudt als het de patiënt betreft.

Door deze complexiteit, kan AI alleen worden beoordeeld door een team van specialisten met ervaring in het toepassen van AI in de GGZ. Alleen is het op dit moment de vraag of instellingen, en met name de kleinere instellingen, deze expertise in huis hebben.

Instellingen zijn zelf verantwoordelijk “voor een veilige toepassing van medische technologie [...], voortvloeiende uit de professionele standaard [...] en veldnormen (artikel 4.1 Uitvoeringsbesluit Wkkgz - Overheid.nl). Alleen ontbreken deze professionele standaarden en veldnormen. Vanuit de beroepsgroepen (NVvP , NIP , VZGP , LVVP) is er nog geen consensus bereikt over de specifieke toepassing van AI in het zorgproces over de minimale voorwaarden en kaders van de AI toepassing en het gezamenlijk en eenduidig beoordelen van AI-systemen.

Framework faciliteert verantwoord gebruik

Het zelf ontwikkelen van een framework of consensus benut het potentieel van AI op een verstandige manier. Hiermee voldoen instellingen aan de verantwoordelijkheid voor veilige toepassing van medische technologie. Het creëert een vertrouwde standaard, voor behandelaars en hun patiënten, evenals andere stakeholders zoals CMIOs en bestuurders. Daarnaast kunnen de resultaten van een beoordeling op een gestandaardiseerde manier tussen instellingen worden gedeeld. Uiteindelijk verhoogt dit de kwaliteit, door het neerzetten van standaarden. En verlaagt dit de kosten, doordat de beoordeling wordt uitgevoerd door één instelling, en elke instelling niet apart de beoordeling hoeft uit te voeren.

Al dan niet met externen. Een framework bestaat bijvoorbeeld uit de onderdelen doelmatigheid, (klinische) effectiviteit en de impact op het zorgproces. Het omvat de impact van het systeem op de patiënt. Het bekijkt ethische aspecten, zoals bias in de trainingsdata van de modellen, de autonomie van het model en het betrekken van mensen in geautomatiseerde onderdelen. Het evalueert de technische prestaties van het model in een goed omschreven patiëntenpopulatie. En het omschrijft de opleiding van gebruikers, bijvoorbeeld over de beperkingen van het AI-model en de interpretatie van AI-gegenereerde uitkomsten en transparantie naar patiënten.

Een voorbeeld van een gedegen ontwikkeld framework is het Evidence Standards Framework van het National Institute for Health and Care Excellence (NICE). Dit is ontwikkeld vanuit de behoefte voor het beoordelen van digitale zorgtechnologie, zoals het identificeren van innovatie, het uitvoeren van productreviews en het toewijzen van vergoedingen. Middels een consultatie van klinisch onderzoekers, computerwetenschappers en softwareontwikkelaars, epidemiologen, statistici, beleidsmakers, juridische en medische ethici. Verder bestaat dit uit de onderdelen (AI) model; data, zoals trainingsdata voor het trainen van het AI-model; input/output, zoals een beschrijving van de invoerdata en betrouwbaarheidsintervallen van de output data; context, zoals bijvoorbeeld benodigde aanpassingen in datastromen; patiënt, stakeholders en planeet.

Vorming van een AI-consensus team

Een pro-actieve houding vanuit de GGZ is nodig als het gaat om het opstellen van richtlijnen over AI-toepassingen binnen de GGZ. We roepen op tot het formuleren van een heldere opdracht en het vormen van een AI consensus-team. Dit team kan bestaan uit behandelaren, early adopters, onderzoekers, CMIOs, klinisch ethici, data scientists, en gezondheidsjuristen. Na het vaststellen van de aspecten van het framework, kan een brede consultatie en uiteindelijk toetsing plaatsvinden door GGZ-instellingen zelf. En kan het framework in de praktijk worden getest en uiteindelijk worden gepubliceerd.

Door een team samen te stellen en een consultatie te starten, kunnen we een eerste framework opleveren. Hiermee voldoen we aan de eisen van de IGJ, en hoeven niet alle instellingen zelf alle expertise in huis te hebben. Daarnaast verhogen we de kwaliteit van AI toepassingen -door het bepalen van een standaard-, en besparen we kosten, omdat resultaten gedeeld kunnen worden tussen instellingen. Voor de behandelaar en patiënt creëert dit vertrouwen richting het gebruik van AI. En kunnen we uiteindelijk de vruchten van AI plukken, in een verantwoorde context. Gezien de dynamiek in de technologische ontwikkelingen is na het bereiken van een consensus over AI-toepassingen binnen de GGZ, een periodieke circulaire revisie van de consensus aan te raden zodat het begeleiden van het implementatieproces dynamisch en soepel verloopt.

Referenties:
Overheid.nl- Uitvoeringsbesluit Wkkgz - Artikel 4.1 - Geraadpleegd 12-12-2024
NICE- Evidence standards framework (ESF) for digital health technologies - Geraadpleegd 12-12-2024


Auteurs

Michiel van Vliet
MSc, schrijft een internationaal boek over de toepassing van AI in de geestelijke gezondheidszorg - AI & Mental Health Care
Gastauteur
Marjolijn de Kruijf
Psychiater en voorzitter van het Platform Digitale Innovatie binnen de NVvP - NVvP
Gastauteur