‘AI moet betrouwbaar en te vertrouwen zijn’

27 oktober 2023
‘AI moet betrouwbaar en te vertrouwen zijn’
AI
Premium

Vertrouwen, betrouwbaarheid, transparantie: woorden die schetsen waar het mondiaal eerste AI-ethieklab voor de zorg zich op richt. Het Erasmuc MC en de TU Delft, met ondersteuning van SAS, lanceerden afgelopen juni het Responsible and Ethical AI in Healthcare Lab (REAiHL). Mede-initiatiefnemers dr. Michel van Genderen (Erasmus MC) en prof.dr. Jeroen van den Hoven (TU Delft) willen er zo in samenwerking met technologieleverancier SAS voor zorgen dat kunstmatige intelligentie veilig ingezet kan worden in de zorg. De komende drie tot vijf jaar moet REAiHL helpen om een framework te ontwikkelen waaraan een AI-model moet voldoen voordat het ethisch verantwoord kan worden toegepast. Dit en volgend nummer gaan we in op het belang van dit ethieklab en ethiek in de zorg.

Innovatie gaat vooral om slim gebruik maken van data, onder meer via AI. Maar hoe kunnen we dat veilig en uitlegbaar doen? Het was voor Michel van Genderen, internist-intensivist in het Erasmus MC, reden om zich in zetten voor een AI-ethieklab1. Samenwerking met de TU Delft, dat al een eigen digitaal ethiekcentrum heeft, lag voor de hand. En SAS, dat zich al langer met de ethische impact van AI bezighoudt, kwam ook al snel in beeld.

Intensivering samenwerking

Dat de samenwerking tussen Erasmus MC en de TU delft op veel gebieden intensiveert, onderschrijft Jeroen van den Hoven, hoogleraar ethiek en techniek aan de TU Delft. “Veel technisch onderzoek in Delft heeft zijn weerslag in de zorg. Denk aan computer science, medische werktuigbouwkunde, klinische technologie. We zijn betrokken bij het Datahub AI-initiatief en hadden daar veel contact over.  Toen bleek ook dat we veel gemeen hadden met AI en medische ethiek.”

Zo heeft Van den Hoven in 2021 meegewerkt aan het WHO global report on ethics & AI in healthcare. Binnenkort brengt de WHO een adviesrapport uit over hoe het zorgveld kan omgaan met generative AI en Large Language Models, zoals ChaptGPT. “Omdat we als TU met ons digitale ethiekcentrum al veel bezig zijn met theoretische toepassing van AI in de zorg, leek samenwerking logisch. Het Erasmus MC werkt vanuit de Datahub al samen met SAS en Nederland biedt de mogelijkheid voor publiek private samenwerking in ICAI-labs. Daarbij kun je de al bestaande infrastructuur gebruiken. Het leek ons goed om in zo’n initiatief onze onderzoeksvragen en ambities tegen het licht te houden.”

Belangrijkste vraagstukken

Wat zijn de belangrijkste vraagstukken die het lab oppakt? Van Genderen noemt de bekende problemen: toename van zorgvraag en afname van personeel. “Dat wordt in de toekomst nijpender. We investeren al veel in personeel, maar snel meer mensen opleiden is moeilijk en biedt geen totaaloplossing. Dat betekent dat we ons moeten verdiepen in hoe technologische innovaties ons kunnen helpen om de huidige zorg te kunnen blijven leveren." 

Ook data en AI zijn ‘hot topics’, stelt Van Genderen. “Als we datamodellen, veilig, verantwoord en uitlegbaar willen toepassen, bijvoorbeeld hoe een zorgprofessional AI-inzichten in zijn of haar advies inpast voor een behandeling, moeten we nu al bedenken hoe we dit doen - maar ook hoe we dit kunnen uitleggen aan patiënten en collega’s.“

De TU Delft voegt als ‘buurman’ enorm veel ervaring toe met zijn digitale ethiekcentrum en WHO-contacten, vindt Van Genderen. “Wij brengen dat naar de kliniek, om te ervaren hoe zorgprofessionals, zorgmedewerkers en patiënten op AI-toepassingen kunnen gaan vertrouwen. En als je ziet hoe snel technologie zich ontwikkelt, is de inbreng van een technologie-partner een must. Want alleen kunnen wij dat niet bijhouden. Als je al die kennis kunt bundelen in een gecertificeerd ICAI-lab -  technologische kennis, theoretische kennis en klinische kennis –kan dat echte meerwaarde bieden voor de gezondheidszorg.”

SAS benadrukt dat het in de samenwerking meer wil doen dan technologie leveren. “We vinden het belangrijk dat we met al onze internationale kennis en ervaring van AI kunnen bijdragen aan de maatschappelijke opdracht die de TU Delft en het Erasmus MC hebben”, stelt Antonie Berkel, account executive Healthcare bij SAS. “Door onderzoekers te faciliteren die ethische vraagstukken gaan onderzoeken. Maar ook door onze kennis en ervaring met vergelijkbare initiatieven uit de zorg en daarbuiten te delen, meedenken in een flexibele schil om het Lab heen.”

Het ethieklab sluit aan bij de strategie van SAS voor verantwoorde innovatie. Zo heeft SAS met Reggie Townsend een AI-expert in huis die onder andere lid is van het comité dat de Amerikaanse president Biden adviseert met betrekking tot verantwoord AI-gebruik. Berkel hierover: “Wij leveren als SAS technologie, maar we kijken ook over de technologie heen: hoe zet je het organisatorisch neer, welke talenten en skills heb je nodig, hoe krijg je artsen en zorgprofessionals mee? Het onderwerp ethiek is hierin zeer belangrijk en relevant. Logisch dus om dit soort initiatieven te ondersteunen.” 

Bias en vertrouwen

Meer algemene uitdagingen die het ethieklab wil oppakken, zijn het tegengaan van vooroordelen (bias) in algoritmen en het zorgen voor voldoende vertrouwen in de herkomst van AI-toepassingen (zoals transparantie in hoe uitkomsten tot stand komen). 

“Het probleem van bias door bijvoorbeeld onvoldoende representatieve data speelt overal, niet alleen in de zorg, benadrukt Van den Hoven. “Maar ook vertrouwen is cruciaal, wil AI goed gebruikt worden.” Van den Hoven onderscheidt daarbij wat in de Engelse taal ‘confidence’ en ‘trust’ heet. Confidence gaat om betrouwbaarheid van een toepassing. Doet het wat het belooft, binnen een afgekaderd raamwerk? Dat kan net zozeer gelden voor een lift. Daarnaast heb je moreel vertrouwen (trust). “Puur ter voorbeeld: de loodgieter die jouw waterleiding repareert. Je hebt functioneel vertrouwen (confidence)  – is hij een vakman – en moreel vertrouwen – kun je vertrouwen dat hij je zilverwerk niet uit de keukenla meeneemt?”

In de praktijk zijn beide vormen van vertrouwen belangrijk om aan te spreken, benadrukt Van den Hoven. “Waar komt een toepassing vandaan, welke mensen hebben het ontwikkeld, zijn zij in geld geïnteresseerd of gaat het hen om de gezondheid van anderen? Pas als al die vragen goed beantwoord zijn, zullen zorgprofessionals beide vormen van vertrouwen in een toepassing kunnen krijgen.”

Ethiekstekkertje inpluggen

Een derde aspect van ethiek die de TU Delft inbrengt, is hoe je ethiek onderdeel maakt van een organisatie en diens processen, van de workflows. Van den Hoven: “Je kunt niet een ethiekstekkertje inpluggen en het dan afvinken. Het moet integraal onderdeel worden van de workflow, van de mindset van mensen, van hun werkomgeving, hun capaciteiten.”

Dat maakt ethiek ook een design issue. Het moet vanaf het begin meegenomen worden in alles: van algoritmen tot architectuur, van softwareontwikkeling tot inrichting van databases en modellen. “Je kunt niet een langdurig complex ontwerp- en ontwikkelproces ingaan met veel mensen en dan hopen dat er ergens ethiek ‘uitkomt’. Als wilt dat mensen verantwoordelijkheid kunnen nemen, moet het ook zo worden ontworpen dat dat in alle redelijkheid kan.”

Klinische praktijk

Hoe werkt dit in de dagelijkse klinische praktijk? Van Genderen wijst bij bias op concrete voorbeelden van algoritmen die gevoed zijn met data waarin bepaalde groepen ondervertegenwoordigd zijn, met als gevolg dat ze minder goede uitkomsten hebben voor bijvoorbeeld vrouwen (zoals bij hartafwijkingen), of mensen met een donkere huidskleur (denk aan het diagnosticeren van huidkanker). 

“De uitkomst van een model hangt af van de trainingsdata. Als zorgprofessionals geen zicht hebben in de totstandkoming van een model of niet goed weten hoe deze zich gedraagt (performance), kan het zijn dat zij een nieuw algoritme niet vertrouwen. Zeker als blijkt dat het model slechtere uitkomsten biedt voor bepaalde groepen. Natuurlijk wil je niet in zo’n situatie belanden. Dus moet je terug gaan naar de basis: hoe komt zo’n algoritme tot stand, met welke data wordt het gevoed, hoe kun je bias voorkomen en zo confidence en trust vergroten. Dat soort vraagstukken willen we oppakken met het ethieklab. Zodat we aan de gebruikers – artsen, verpleegkundigen – kunnen tonen hoe een algoritme technisch tot stand is gekomen. Zodat zij het ook durven gebruiken en we daarmee het potentieel van AI kunnen waarmaken. Alleen een CE-keurmerk is niet genoeg, dat geeft geen antwoord op deze vragen.” 

Referentie

1. Lees in dit artikel van juni 2023 meer over de oorsprong van het REAiHL.