Onderzoekers willen AI beter uitlegbaar maken voor artsen

di 25 mei 2021 - 09:45
AI-Kunstmatige-intelligentie
Onderzoek
Nieuws

De techniek achter AI (kunstmatige intelligentie) gebaseerde voorspellingen is voor artsen soms moeilijk te begrijpen. Dit ‘black box’-effect leidt ertoe dat veelbelovende AI-toepassingen voor bijvoorbeeld diagnostiek, voorspellen van ziektebeelden of behandeluitkomsten, nog beperkt toegepast worden. Reden voor onderzoekers van het Leids Universitair Medisch Centrum (LUMC), Amsterdam UMC en het Centrum Wiskunde & Informatica om AI beter uitlegbaar te maken. Zij krijgen hiervoor ruim 800.000 euro van het Gieskes-Strijbis Fonds.

Tanja Alderliesten, projectleider bij het LUMC, schetst de paradox op AI-gebied. AI wekt veel belangstelling als technologie en heeft veel mogelijkheden. Toch is het aantal praktische toepassingen nog beperkt van aard. Alderliesten en haar collega’s denken dat dit mede komt omdat de techniek erachter voor veel mensen een ‘black box’ is. “Artsen snappen niet goed hoe AI werkt en vinden het hierdoor lastig een voorspelling blindelings te vertrouwen.”

Knelpunt: AI als black box

Gabrielle Speijer (radiotherapeut-oncoloog HagaZiekenhuis, founder zorginnovatie-onderneming CatalyzIT)) en Rianne Fijten (senior wetenschapper Maastro Clinic) noemden AI als black box in dit artikel in ICT&health een vaak genoemd knelpunt. Dit omdat een algoritme zelf leert hoe het tot een oplossing komt. Sommige algoritmen doen dit op begrijpelijke wijze, zoals beslisbomen. Maar toch zullen veel onderzoeksvragen meer complexe algoritmen nodig hebben, die niet gemakkelijk te begrijpen zijn.

Heel simpel gezegd werkt het volgens Alderliesten zo: je stopt er heel veel patiëntendata in, aan de hand hiervan wordt er een model aangeleerd en dat model kan daarna een voorspelling doen voor nieuwe patiënten. Zo kan een model bijvoorbeeld voorspellen wat de beste behandeloptie is voor een patiënt op basis van bepaalde DNA-kenmerken. Dit is het black box-model.

Uitlegbare modellen

Door nieuwe vormen van AI te ontwikkelen die wél uitlegbare modellen kunnen leren, hopen de onderzoekers van het LUMC, Amsterdam UMC en het CW&I dat AI-toepassingen zoals deep learning en machine learning vaker hun weg vinden naar de klinische praktijk

Door artsen mee te nemen in het ontwikkelen van inzichtelijkere modellen, denkt Alderliesten de acceptatie voor gebruik in de kliniek te vergroten. “Daarnaast denken we dat het meenemen van de menselijke intelligentie een belangrijke verfijning van de modellen kan opleveren waardoor bijvoorbeeld verbanden tussen data gelegd kunnen worden die nog niet bekend waren.”

Combineren datastromen

Een ander doel van het project is het combineren van verschillende datavormen. Alderliesten: “AI in de zorg is zeer geschikt om bijvoorbeeld naar beelden, zoals CT-scans te kijken. Het model kan inzichtelijk maken waar er afwijkingen zitten op de scan. Maar er is natuurlijk nog veel meer data. Denk aan DNA-profiel, gender, gewicht, medische voorgeschiedenis, noem maar op. Door dit hele palet aan informatie mee te nemen, krijg je betere voorspellingen. Het is een grote vernieuwing om dat te combineren met beter uitlegbare modellen.”

Met de subsidie van het Gieskes-Strijbis Fonds kunnen Alderliesten en collega’s van Amsterdam UMC en CWI meteen aan de slag, stellen zij. “We willen hiermee een langlopende onderzoekslijn en een zogenaamd Innovation Center for AI opzetten.” De focus van de onderzoekers ligt voor nu op oncologie patiënten. “Maar het is ons ultieme streven om een algemeen bruikbare vorm van uitlegbare KI te ontwikkelen die bijvoorbeeld ook voor Alzheimer patiënten ingezet kan worden”, stelt Alderliesten tot besluit.

Meer informatie over het project staat op de website van het Gieskes-Strijbis Fonds.