Het effect van AI-toepassingen op zorg en medische wetenschappelijk onderzoek moet net zo goed voldoen aan een medisch-ethisch raamwerk als nu al het geval is bij klinische studies naar het effect van medicijnen en andere behandelingen. Maar even belangrijk is het realiseren van concrete resultaten, wil AI echt landen in de gezondheidszorg. Hiervoor pleiten Michel van Genderen (Erasmus MC), Jeroen van den Hoven (TU Delft) en technologieleverancier SAS in dit tweede artikel over de doelen en ambities van het eerste Ethieklab in Nederland voor AI in de zorg, het Responsible and Ethical AI in Healthcare Lab (REAiHL).
AI-toepassingen zijn hard nodig om zorguitdagingen zoals toename van zorgvraag en gebrek aan zorgpersoneel aan te gaan. Maar hoe zorg je ervoor dat er sprake is van goede adoptie van deze AI-toepassingen, wanneer niet goed duidelijk is hoe deze ontwikkeld zijn en welke data zijn gebruikt, tot inzichten en andere uitkomsten leidt?
In het eerste artikel over het Ethieklab (ICT&health 5, 2023) gingen Van Genderen en Van den Hoven onder meer in op de noodzaak om vertrouwen bij behandelaars en patiënten te generen, wil AI in de zorg goed geadopteerd worden. Het gaat hierbij om twee soorten vertrouwen, stelde Van den Hoven: vertrouwen als de overtuiging dat een systeem conform specificaties werkt (confidence) – doet een toepassing wat het belooft – en moreel vertrouwen (trust) – heb je goede redenen om te geloven dat de personen die met het systeem werken er ethisch (denk aan veiligheid, privacy bescherming en non-discriminatie) mee kunnen en willen werken.
Bouwen aan vertrouwen
Het doel is om binnen het Ethieklab de boven- genoemde twee vormen van vertrouwen op te bouwen. Zowel bij de zorgprofessionals die AI-modellen gebruiken voor besluitvorming bij patiënten, als bij de patiënten zelf. Internist-intesivist Van Genderen: “Alleen door een transparant proces te organiseren waarbij je onder andere begint met AI logging en eindigt met studieresultaten waarbij je laat zien dat het model werkt, kan je bouwen aan vertrouwen.”
Hierbij vormt een goede uitlegbaarheid en garantie dat het AI-model doet wat het behoort te doen een essentieel ingrediënt, stelt Van Genderen: “Dit is de basis voor het kunnen uitleggen aan patiënten welke rol AI speelt bij de keuzes die zorgprofessionals maken bij het behandelplan van de patiënt.”
Een voorbeeld is de ontwikkeling van een algoritme dat over 20 jaar wellicht kan voorspellen hoe groot de kans op overlijden van een IC-patiënt is binnen 72 uur. Het is van vitaal belang dat behandelaars volledig uit kunnen gaan van de nauwkeurigheid van deze voorspelling. “In het Ethieklab gaan we onderzoeken en toetsen hoe we dit fundament zo goed mogelijk kunnen organiseren”, schetst Van Genderen.
Protocol-landschap voor AI
Van Genderen benadrukt naast het belang van vertrouwen ook het cruciale belang van het opzetten van een protocol-landschap voor AI, zoals nu al gebeurt met bijvoorbeeld klinische studies waarin het effect van medicijnen wordt onderzocht. Ook hier kan het Ethieklab een rol spelen.
“Onlangs hebben Jeroen van den Hoven en ik een visie opgesteld waarin we pleiten voor de oprichting van een medisch AI-register. Hierin kun je een AI algoritme loggen en bijhouden alvorens er onderzoek mee te doen of deze te implementeren in de kliniek. Zo kan iedereen nagaan hoe de verdere ontwikkeling van het algoritme, met alle aanpassingen, is verlopen en hoe deze presteert op een populatie. Deze aanpak is in analogie met de gebruikelijke werkwijze van medisch onderzoek: eerst loggen en dan pas toetsen.”
Concreet worden
Het Ethieklab is niet alleen een theoretische exercitie, vertelt Jeroen van den Hoven, hoogleraar techniek en ethiek aan de TU Delft “We moeten onze theoretische ethische overwegingen toepassen op concrete gevallen. Misschien beginnen we met schaduw-modellen om te kijken hoe je ethiek in de workflow integreert, hoe zorgprofessionals op het model reageren. Mensen hebben de neiging om snel in te zoomen op de technologie, maar het gaat om het gebruik van de technologie en de inbedding ervan in werkprocessen. Dat zal uiteindelijk de waarde bepalen die wij vanuit het Ethieklab hopen toe te voegen.”
Ook de conceptuele dimensie is belangrijk, benadrukt Van den Hoven. “We moeten een helder en concreet beeld kunnen geven van de samenhang tussen specifieke applicaties en morele waarden. Onze uitgangspunten daarbij zijn ‘Innovating responsibly with AI’ en ‘designing for moral values’: waarden zoals betrouwbaarheid en moreel vertrouwen, verwijderen van bias, privacy respecteren. Dit is ook een benadering van ethiek die de WHO als de toekomst ziet. Wij werken dan ook samen met de WHO als het gaat om de toekomst van het verantwoorde gebruik van AI in de gezondheidszorg.”
Kernprincipes WHO
Het Ethieklab gaat uit van de zes kernprincipes die de WHO in 2021 heeft opgesteld1 voor het gebruik van AI in de digitale zorg: autonomie beschermen; het bevorderen van het menselijk welzijn, de menselijke veiligheid en het algemeen belang; zorgen voor transparantie, verklaarbaarheid en begrijpelijkheid; verantwoordelijkheid en aansprakelijkheid bevorderen; inclusiviteit en gelijkheid garanderen; AI bevorderen die responsief en duurzaam is.
Van Genderen: “Hoe richten we die zes principes zodanig in dat het werkbaar wordt en dat je een stappenplan kunt ontwikkelen om concreet in de ontwikkeling van een algoritme ethiek van A tot Z mee te nemen? We gaan de vijf door SAS gesponsorde promovendi die het werk van het Ethieklab in de praktijk brengen, hiervoor inzetten rondom drie werkpakketten.”
Bij het eerste pakket zal het zwaartepunt bij de TU Delft liggen. Het gaat om vragen zoals: wat betekent privacy als je een AI-model maakt; wat komt er kijken bij het verzorgen van de juiste data.
De kennis hieruit onderbouwt werkpakket twee: van theorie naar kliniek. Wat komt er bij privacy bijvoorbeeld kijken, wat mag er wel en niet volgens de wet in de klinische praktijk? Theorie moet hier tastbaar worden, zorgprofessionals kunnen duidelijk maken wat zij nodig hebben om een AI-model te kunnen vertrouwen.
In werkpakket drie wordt het zo opgebouwde raamwerk in de praktijk getest: werkt het ook in de praktijk met vertrouwen kweken; hoe willen zorgprofessionals data en modellen gepresenteerd krijgen. Hierbij worden concrete use cases ingezet, zoals hoe een AI model kan bepalen wanneer patiënten met hartfalen naar huis kunnen. Slaat wat het model oplevert aan bij patiënten en behandelaars, wekt het vertrouwen, is het uitlegbaar, hoe werkt de uitrol en het dagelijks gebruik?
"Met zo’n raamwerk, ondersteund door praktisch bewijs, willen we de huidige situaties voorkomen waarbij bedrijven met AI modellen komen die niet uitlegbaar of transparant zijn en soms zelfs schade opleveren voor patiënten”, legt Van Genderen uit. “Zo willen we toewerken naar verantwoord gebruik van data en veilige, transparante AI-modellen.”
Goed track record
SAS kan hier behalve met het sponsoren van promovendi ook aan bijdragen middels zijn wereldwijde netwerk en kennis, stelt account executive Healthcare Antonie Berkel. SAS heeft een goed track record als het gaat om AI en ethiek. Zo is Reggie Townsend, SAS VP of the Data Ethics Practice, lid van het National Artificial Intelligence Advisory Committee dat de Amerikaanse president en het National AI Initiative Office adviseert. Townsend was onlangs aanwezig bij de ondertekening van het decreet van president Biden ter bevordering van een veiligere, meer beveiligde en betrouwbare toepassing van artificial intelligence in het Witte Huis2.
“Nederland is een goede innovatiehub om over dit soort zaken na te denken”, vindt Berkel. “Het is goed om hier te beginnen. Maar we willen ook kijken in hoeverre we het raamwerk dat het Ethieklab oplevert in Europa of wereldwijd kunnen toepassen. Daarnaast hebben we een eigen Data Ethics Practice3, om ethische principes zoals van de WHO in ons werk, onze processen te verankeren. In onze technologie, onze bedrijfsvoering en technologie.”
Van den Hoven en Townsend hebben waardevolle adviseursrollen, meent Van Genderen: respectievelijk bij de Europese Commissie en als lid van het comité dat de Amerikaanse president adviseert over AI. Het Ethieklab profiteert van hun expertise en hun netwerk. “Zo kunnen we niet alleen wetenschappelijk onderzoek doen, maar ook aansluiten op wat maatschappelijk relevant is. En hierbij geldt: de TU Delft en Erasmus MC bepalen de wetenschappelijke agenda en wetenschappelijke output. Dit is essentieel voor transparantie en vertrouwen, principes die net zo belangrijk zijn als bij een AI-model zelf.”
Berkel benadrukt dat SAS ook geen enkele invloed op de wetenschappelijke agenda wil hebben. “Maar het is voor ons als bedrijf en sector wel super interessant om te kunnen volgen hoe zo’n raamwerk ontwikkeld wordt. Dan is het vervolgens aan ons als sector om het te gaan embedden in de technologie die wij de zorgsector aanbieden.”
Tastbaar maken
Wanneer is het Ethieklab voor Van Genderen geslaagd? “Ik ben ervan overtuigd dat we samen de WHO-principes tastbaar kunnen maken voor clinici, data engineers en data analisten die vanuit het ziekenhuis met datamodellen aan de slag gaan. Dat over een jaar of vijf het stappenplan op basis van de WHO-principes en het raamwerk van het Ethieklab standaard toegepast wordt. Nog belangrijker is dat we erop kunnen vertrouwen dat we alles gedaan hebben om vertrouwen te optimaliseren en bias te minimaliseren. Dit is van groot belang om AI te gebruiken in het opstellen van een behandelplan maar ook om aan de patiënt te kunnen uitleggen waarom een specifieke beslissing is genomen op basis van inzichten uit AI.”
Voor Van den Hoven hebben concrete resultaten uit alle werkpakketten en projecten hoge prioriteit, evenals operationalisering van de principes van de WHO. “Die instantie erkent als eerste dat het mooi is dat ze tot die consensus-principes zijn gekomen. Maar uiteindelijk gaat het hen er ook om dat het gebruik van een AI-model in willekeurig welk ziekenhuis veilig en verantwoord is in ontwikkeling en gebruik. Een belangrijk tweede doel is dat we hiermee ook – zoals we dat op andere domeinen proberen – proof of concept krijgen van hoe we theoretische waarden vertalen naar design requirements. Hoe we in de 21e eeuw ethiek bedrijven, komen tot internalisering en het juiste raamwerk van vereisten voor het gebruik van een AI-model.”
Ook voor SAS is ‘tastbaar maken’ heel belangrijk, vertelt Berkel. “We willen daarbij ook een breed draagvlak hebben: vanuit de wetenschap, de kliniek en vanuit de technologiesector zelf. We staan echt aan de vooravond van het toepassen van AI op grotere schaal. Als we specifiek naar de zorg kijken, hebben we nu echt kansen om bias te corrigeren, om een gelijker speelveld te creëren op het gebied van geleverde zorg. Ik wil graag dat we als sector ons steentje hieraan bijdragen.”
Lees in ICT&health 5 het eerste artikel over het Responsible and Ethical AI in Healthcare Lab.
Het artikel is voor abonnees ook online terug te vinden: Link