Onderzoek: Explainable AI en het diagnoseproces

wo 1 juni 2022 - 12:16
AI-Onderzoek
Onderzoek
Nieuws

De interesse in data gedreven applicaties binnen de zorg groeit. Dat brengt ook nieuwe, grote, uitdagingen met zich mee. Zeker als het gaat om de toepassing van AI. Dit soort oplossingen en toepassingen zijn vaak 'black boxen'. Voor leken is het nauwelijks of moeilijk uit te leggen hoe ze werken. Daarom heeft onderzoeker Ralf Raumanns van Fontys onderzoek gedaan naar 'Explainable AI'.

In het onderzoek keek Raumanns naar de optie voor het inzetten van machine learning algoritmen om verschillende typen huidlaesies (huidafwijkingen) nauwkeurig te herkennen. De potentie van AI, of kunstmatige intelligentie, is groot. Het wordt bijvoorbeeld al ingezet voor de diagnose van prostaatkanker en het creëren van de meest optimale behandelplannen. Tijdens zijn onderzoek stuitte Raumanns ook op een beperking: Explainable AI.

"Medici moeten hun diagnoses kunnen uitleggen aan collega's en patiënten. Met een algoritme ontbreekt die 'uitlegbaarheid' en daarom blijft die potentie liggen." Het is nadrukkelijk ook niet de bedoeling dat AI de taak van een medische expert overneemt: "AI kan heel veel routinewerk verzetten en daarmee de expert ondersteunen. Daarvoor moet de AI 'explainable' worden, en dat is een belangrijk doel [RR2] van mijn onderzoek", aldus de Fontysonderzoeker.

Explainable AI onderzoek

De vraag is nu hoe de 'uitlegbaarheid' van 'Explainable AI' er dan uit ziet. In dit geval gaat het over hints, zo stelt Raumanns. "Wat we gebruiken zijn hints, dat zijn visuele kenmerken die artsen in de praktijk ook gebruiken in een diagnose. Bij huidlaesies moet je dan denken aan de mate van asymmetrie, de vorm van de rand en de kleur van een laesie. Dit maakt het voor de arts uitlegbaar."

Voor het trainen van het AI-model heeft Raumanns gebruik gemaakt van deze kenmerken. Zo is de performance verbeterd waardoor het model nauwkeuriger wordt. Daarvoor moest de onderzoeker wel iets unieks doen. Voor de training van het model gebruikte hij beeldensets die voorzien werden van op visuele kenmerken gebaseerde annotaties. Daarvoor werden geen experts gebruikt, maar crowdsourcing. "Duizenden beelden laten annoteren door artsen is niet haalbaar, dus hebben we crowdworkers en studenten ingezet om beelden van annotaties voorzien die bruikbaar zijn voor ons doel”, aldus Raumanns.

State-of-the-art deep learning

Voor de analyse van de medische beelden is in het onderzoek gebruik gemaakt van convolutional neural networks (CNN). Dit is een state-of-the-art deep learning toepassing voor beeldanalyse. Additionele annotaties, in deze toepassing van machine of deep learning, betekent het scoren van beelden op asymmetrie, rand en kleur. Daarmee kan overfitting beter voorkomen worden.

“Overfitting betekent dat het model op basis van onjuiste kenmerken conclusies gaat trekken. Dat kan in het geval van deze trainingsset bijvoorbeeld de nabijheid van een notitie van de arts zijn op het beeld, waardoor het model aanneemt dat hier iets verdachts te zien is op de huid. Je wilt dat het model leert abstraheren en op basis van de juiste kenmerken conclusies trekt. Handmatige annotaties zijn dan essentieel om het model verder te trainen. Niet alleen helpen die annotaties om het model de juiste hints te laten geven, het maakt de analyse ook vele malen efficiënter”, vertelt Raumanns.

Het project is nog niet klaar. In een volgende fase gaan de onderzoekers kijken naar het toepassen van het algoritme op beelden van longen. Daarnaast is Raumanss geïnteresseerd in het onderzoeken van eventuele bias in de datasets. “We hebben natuurlijk een beperkte dataset gebruikt om het model te testen. Zit daar een bias in qua leeftijd en gender? En doet het model dan wat we denken wat het doet op een andere set? Er is nog genoeg te doen.”

Gewaardeerd onderzoek

De onderzoekspaper van Raumanns en zijn coauteurs werd beloond met de MELBA (Machine Learning for Biomedial Imaging) lezersprijs. Binnen het vakgebied worden met name het pionierswerk en de originaliteit van het onderzoek zeer gewaardeerd.

“Dit onderzoek geeft een nieuwe impuls aan het vakgebied en zet belangrijke stappen naar een ‘Explainable AI’ en dus weg van de black box. Natuurlijk zitten er haken en ogen aan de technologie in concrete toepassing, maar we zien het vooral als ‘assistant technologie’, geen maker van beslissingen. Het kan veel werk in de zorg opvangen, maar ook is het mooi dat het crowdsourcen ook werkgelegenheid oplevert”, besluit Raumanss.