Explainable AI-beslissingsmodel geeft IC-artsen meer vertrouwen

vr 7 maart 2025 - 14:10
AI
Nieuws

Als er iets is dat de beleidsmakers die verantwoordelijk zijn voor de gezondheidszorg in Nederland geleerd hebben van de coronapandemie, dan is het wel dat de pandemische paraatheid beter moet. Het nieuws dat we sinds coronacrisis in Nederland nu zo’n 300 IC-bedden minder hebben, is dan niet bepaald hoopgevend. Er zal, bij een volgende crisis, dus nog meer een beroep gedaan moeten worden op een slimme verdeling en inzet van de IC-capaciteit. Zoals bij zoveel uitdagingen waar de zorg voor staat, wordt voor een oplossing ook hier naar AI gekeken.

Volgens professor Indranil Bardhan kan met behulp van AI-modellen voorspeld worden hoe lang patiënten op de IC zullen verblijven. Zo kunnen ziekenhuizen de bezetting van IC-bedden en personeelscapaciteit beter beheren en plannen. Het zoeken van een oplossing voor capaciteitsproblemen in de zorg, en op de IC, is niet nieuw. In 2022 bedachten twee intensivisten van het Amsterdam UMC al een op AI gebaseerde softwareoplossing, Pacmed Critical, die artsen ondersteunt bij de beslissing wanneer een patiënt van de IC verplaatst kan worden naar een reguliere verpleegafdeling.

Vertrouwenskwestie

Het onderzoek van professor Bardhan richtte zich op een probleem dat met de inzet van AI opduikt. Hoewel AI goed is in het voorspellen van de verblijfsduur van een patiënt op de IC, is deze technologie niet zo goed in het beschrijven van de redenen. Daardoor komt het nogal eens voor dat artsen (te) weinig vertrouwen hebben in de door AI voorgestelde beslissing en dus anders beslissen. “Mensen waren vooral gefocust op de nauwkeurigheid van de voorspelling, en dat is belangrijk. De voorspelling is goed, maar kun je je voorspelling ook uitleggen?”, aldus Bardhan.

Meer ‘basisgegevens’

In zijn nieuwe onderzoek maakt Bardhan de output van AI begrijpelijker en bruikbaarder voor IC-artsen, een aanpak die explainable artificial intelligence (XAI) wordt genoemd. Het model verwerkt 47 verschillende kenmerken van patiënten op het moment dat ze worden opgenomen, waaronder leeftijd, geslacht, vitale functies, medicijnen en diagnose.

Vervolgens construeert het AI-model grafieken die de waarschijnlijkheid van een patiënt weergeven om binnen zeven dagen ontslagen te worden. De grafieken laten ook zien welke kenmerken de uitkomst het meest beïnvloeden en hoe ze op elkaar inwerken. De onderzoekers vergeleken hun model met andere XAI-modellen en ontdekten dat de voorspellingen net zo nauwkeurig waren, terwijl de uitleg uitgebreider was.

Om te testen hoe bruikbaar hun model in de praktijk zou zijn, vroeg het team zes IC-artsen om voorbeelden van de uitleg van het AI-beslissingsmodel te evalueren. Vier van de zes artsen gaven aan dat deze oplossing een meerwaarde zou hebben voor het beheer en de planning van middelen en personeel. Het onderzoek, “An Explainable AI Approach Using Graph Learning to Predict ICU Length of Stay,” is gepubliceerd in Information Systems Research.