Vijf jaar geleden startte Koen Eppenhof met zijn promotieonderzoek. Hij wilde de toegevoegde waarde van kunstmatige intelligentie (AI) en deep learning bij de medische beeldanalyse aantonen. Chirurgische ingrepen die worden uitgevoerd op basis van MRI of CT-scans hebben te maken met de complicerende factor dat patiënten nooit helemaal stil, en bij het maken van vergelijkende scans nooit op exact dezelfde plek liggen.
Eppenhof heeft nu aangetoond dat die verschillen, real-time, kunnen worden gecorrigeerd met behulp van deep learning en een AI-algoritme.
Er was wel al langer software beschikbaar die binnen enkele minuten op verschillende momenten gemaakte MRI of CT-scans van een en dezelfde persoon kan vergelijken en analyseren. Het ideaalbeeld is echter dat de verschillende scans live, in real-time, vergeleken kunnen worden.
Het probleem
Artsen bepalen vaak met behulp van MRI of CT-scans wat precies geopereerd moet worden, of welk deel van een lichaam bestraald moet worden. Daarvoor worden scans gebruikt die op verschillende momenten gemaakt zijn. De arts markeert op de scan het te behandelen gebied. Dat wordt op de operatietafel gelokaliseerd met behulp van een nieuwe scan.
De verschillen, veroorzaakt door een iets andere positie van de patiënt of de 'vervorming' van organen door de ademhaling, moeten geanalyseerd worden om zo de exact juiste behandelplek te kunnen bepalen. Voor die analyse is een apart specialisme ontstaan: medische beeldregistratie.
Kunstmatig Intelligente oplossing
Bij de start van zijn promotieonderzoek kwam Eppenhof op het pad van kunstmatige intelligentie en deep learning. Inmiddels lijkt deze technologie zijn belofte, het versnellen van de medische beeldanalyses, waargemaakt te hebben. "In eerste instantie was ik op conferenties een van de weinige mensen die met deep learning werkten. Tegenwoordig wordt het door bijna iedereen in medische beeldanalyse gebruikt", aldus Eppenhof.
De uitdaging ligt in het koppelen van elke pixel in de originele afbeelding aan de overeenkomstige pixel in de nieuwe scan. Om dit te doen, 'trainde' Eppenhof een zogenoemd diep neuraal netwerk. Die draait op op Graphics Processing Units (GPU's) vergelijkbaar met de processors in game computers. Een cluster van die GPU's wordt gehost in een gekoelde ruimte van de High Tech Campus (Eindhoven).
Het neurale netwerk van GPU's moest zichzelf leren, door het vergelijken en analyseren van duizenden voorbeelden, hoe het zijn taak moet uitvoeren. Voor het leerproces waren echter te weinig afbeeldingen beschikbaar van longen in de verschillende stadia van het in- en uitademen.
Eppenhof besloot daarop het neurale netwerk te 'voeden' met een bestaand beeld dat op talloze manieren aangepast was. "Daarna liet ik het getrainde neurale netwerk los op een set van enkele tientallen echte CT-scans, geregistreerd door meerdere experts op basis van honderden erkende anatomische oriëntatiepunten, zoals de plaatsen waar bloedvaten splitsen of kruisen."
Deep learning bewijst toegevoegde waarde
Het bleek dat het getrainde netwerk van Eppenhof bijna net zo goed presteerde als de individuele experts. Daarnaast bleek het in staat beelden in minder dan een seconde te analyseren in plaats van de minuten die huidige software daarmee bezig is. “Dit onderzoek laat dus zien dat je diepe neurale netwerken kunt trainen met behulp van gesimuleerde gegevens in plaats van echte medische beelden. Het werkt eigenlijk ongelooflijk goed, en ik denk dat dat het belangrijkste resultaat van mijn onderzoek is."
Het onderzoek van Eppenhof en zijn conclusie zijn interessant voor het UMC Utrecht. Daar worden patiënten met prostaatkanker bestraalt in een MRI-scanner. De positiebepaling van de prostaat is van groot belang voor de precisie waarmee de straling toegediend moet worden. De prostaat beweegt, ondanks dat patiënten vrijwel helemaal stil liggen, omdat de blaas er tegenaan drukt. Die vult zich ook tijdens de behandeling met urine.
De methode die Eppenhof onderzocht heeft, is snel genoeg om de beweging van de prostaat te volgen waardoor het toedienen van de bestraling realtime bijgesteld kan worden. Onlangs werd bekend dat onderzoekers van onder andere het RadboudUMC een systeem ontwikkeld hebben dat met behulp van AI-algoritmen de agressiviteit van prostaatkanker kan bepalen.
Zwarte doos
Het is wel nog de vraag of deze versie van deep learning uiteindelijk in de praktijk toegepast gaat worden. Dat heeft vooral te maken met het feit dat niet duidelijk is hoe het neurale netwerk precies werkt.
Op dit moment is het nog een 'zwarte doos': het werkt, maar we weten niet precies hoe. Dat maakt de beoordeling door autoriteiten die verantwoordelijk zijn voor de veiligheid een stuk moeilijker. Volgens Eppenhof zal deze technologie nooit volledig automatisch kunnen werken. "Er moet altijd iemand zijn die kijkt of de computer geen fouten maakt."