Nu de gezondheidszorg vrijwel overal onder druk staat – in Westerse landen mede als gevolg van de groeiende kloof tussen personele capaciteit en groeiende vraag naar zorg – wordt steeds vaker gekeken naar AI-toepassingen om verlichting te brengen. De praktijk blijkt echter weerbarstig. Zo zou onderzoek aantonen dat slechts twee procent van alle AI-innovaties ook echt gebruikt wordt. Redenen zijn onder meer een slechte aansluiting op de zorgpraktijk, ethische dilemma’s of discriminerende bias in AI-algoritmen. De TU Delft gaat de WHO adviseren om te helpen dergelijke problemen aan te pakken.
AI heeft volgens Dr Alain Labrique (Director, Department of Digital Health and Innovation bij de WHO) de transformerende kracht om de gezondheidszorg een nieuwe vorm te geven en mensen in staat te stellen hun eigen gezondheid te bewaken. “Het technische en academische partnerschap met het Digital Ethics Centre van de TU Delft is cruciaal om ervoor te zorgen dat de voordelen van AI iedereen wereldwijd bereiken via ethisch bestuur, rechtvaardige toegang en gezamenlijke actie”, meent Labrique, in mei 2024 spreker tijdens de eerste ICT&health World Conference.
Officiële accreditatie
Bij het gebruik van AI in de zorg is het uiterst belangrijk om zowel ethische principes als zorg-normen en waarden te handhaven. Hiervoor zijn internationale richtlijnen opgesteld, maar deze moeten nog vertaald worden naar de praktijk. Daar gaat het TU Delft Digital Ethics Centre nu in ondersteunen. Op 6 maart kreeg het Delftse onderzoekscentrum een accreditatie waarmee het officieel een samenwerkingspartner van het WHO is op het gebied van Ethics and Governance of AI in Healthcare.
AI kan de zorg alleen verbeteren als het rust op een goed ethisch fundament, stelt Michel van Genderen, internist-intensivist en universitair docent bij het Erasmus MC. Het TU Delft Digital Ethics Centre werkt samen met het Erasmus MC en softwarebedrijf SAS in het AI-ethieklab (REAiHL) om dit fundament in de praktijk te realiseren. Het AI-ethieklab is ontstaan op initiatief van Van Genderen. Het doel is een generalistisch framework ontwikkelen voor hoe AI ziekenhuis-breed veilig en ethisch toegepast kan worden.
Dankzij de samenwerking tussen het WHO, TU Delft en Erasmus MC, en ook het softwarebedrijf SAS, is het volgens Van Genderen mogelijk om AI verantwoord en transparant toepassen in de klinische praktijk. “Een voorbeeld is een lopend project binnen het Erasmus MC, waarbij AI helpt bepalen wanneer een patiënt veilig ontslagen kan worden na oncologische chirurgie. Als we voldoen aan alle randvoorwaarden dan kan dit niet alleen zorgen voor een veiliger ontslag van patiënten, maar ook dat ze gemiddeld vier dagen eerder naar huis kunnen en er sprake is van een halvering van heropnames.”
Kaders verantwoord gebruik AI
Stefan Buijsman, Associate Professor Responsible AI, stelt dat het TU Delft Digital Ethics Centre het resultaat is van bijna 20 jaar onderzoek naar digitale ethiek en verantwoorde innovatie. Het centrum heeft samen met de WHO al kaders opgesteld voor verantwoord gebruik van AI en Generatieve AI in de zorg.
“Nu benaderen ze ons om dit concreet te gaan maken. Hoe gaat het wél werken in de praktijk? Bij het WHO werd gedacht: als er ergens antwoorden te vinden zijn, dan is het in Delft. De TU Delft, en in het bijzonder hoogleraar Jeroen van den Hoven, werkt al meerdere jaren samen met het WHO op dit onderwerp. Nu krijgen we daar officiële erkenning voor door middel van deze accreditatie.”
AI-pilots die bedacht worden in Delft, kunnen in de praktijk worden getest binnen het AI-ethieklab (REAiHL), schetst Buijsman: Hij vindt het belangrijk om te kunnen zien of wat bedacht wordt, ook werkt in de dagelijkse praktijk van het ziekenhuis. “Wij kunnen de ethische kaders uitwerken en technologische oplossingen bedenken die erbij passen, in Erasmus MC kunnen ze die valideren en behoeftes uit de praktijk identificeren.”