Doet Deep Learning het beter dan de dokter?

do 25 januari 2018 - 13:21
Deeplearning2_edited
AI
Blog

Het foutpercentage bij patroon– en beeldherkenning door kunstmatig intelligente diagnostische systemen is de laatste twee jaar gedaald tot circa 2%. Dan rijst de vraag of AI het niet beter doet dan de dokter bij het interpreteren van röntgen/ en scanbeelden of bloeduitslagen. Met nadruk op beter en niet op slimmer!

Terminologie

Voor het juiste begrip even wat terminologie bij de kunstmatig intelligente diagnostiek. Onder kunstmatige intelligentie (AI) verstaat men het gebruik van regels, beslissingsmodellen en -bomen, logica en algoritmen door computersystemen. Tot op zekere hoogte kan de AI dan net zo beslissen als de mens. Bij de Machine Learning maakt het AI-systeem gebruik van statistiek en opgedane ervaringen voor het verbeteren van de uit te voeren taken. Zo ongeveer als de mens ook leert maar dan een stuk sneller. En bij Deep Learning beschikt het systeem over geheel zelfstandig leren. Dat verloopt via slimme algoritmen om zichzelf te trainen bij het optimaal uitvoeren van taken. Veelal gaat het daarbij om zogenaamde neurale multilaags computernetwerken op basis van het herkennen van beeldobjecten, spraak, gelaatsuitdrukkingen en het interpreteren van zeer grote hoeveelheden Deep Data.

Breed gebied

Deep learning AI-diagnostiek bestrijkt een steeds breder gebied. Eerst ging het om een aanvulling op de radiologie / MRI en pathologie. Al snel volgende de dermatologie, GGZ (Alzheimer, Dementie), IBM Watson (preventief en curatief), Parkinson, het opsporen van ziekten aan de hand van gelaatsexpressies en de thuisapp op de smartphone voor leken. Een geheel ander punt is dat deep learing AI-diagnostiek de gezondheidszorg in gebieden waar geen deskundige artsen aanwezig zijn aanmerkelijk kan verbeteren. Neurale netwerken als ‘ontwikkelingshulp.’ Kortom een ware gamechanger bij e-health.

Diagnostische winst

Betere c.q. nauwkeurigere diagnostiek spaart op onnodige behandelingen met risico’s, gezondheidsschade, verlies van  levens en oplopende kosten. Bij het vaststellen van kanker (o.a. long, huid, borst. bot en buik), tuberculose en bloedbeelden heeft AI-beeldherkenning in de praktijk zijn grote nut al bewezen. Waar menselijke ogen naar afwijkingen kunnen kijken kunnen neurale AI-netwerken met deep learning dat nu ook of zelfs beter. Zelfs de kleinste en potentieel mogelijke afwijkingen ontgaan het AI-algoritme met deep learning-faciliteiten niet. Het lijkt in feite al een kunstfout om deze dan ook niet in te gaan zetten. De medische wereld reageert vaak echter (te) traag op innovaties. 10-15 jaar was in het verleden normaal.

Geen wonderen

Er zit momenteel wel een beperking aan diagnostiek per deep learning beeldherkenning. Wat het systeem niet kent of opdracht toe had herkent het ook niet. M.a.w. het AI-systeem:
  • Niet instaat is om beelden te herkennen die niet in de lerende database zitten. Wel zou deep learning AI aan de hand van bepaalde parameters toch tot het toekennen van pathologie aan onbekende objecten kunnen besluiten.
  • Er andere afwijkingen zijn die niet tot de feitelijke zoekopdracht behoren. Bijvoorbeeld op zoek naar longkanker en een dilatatie met een dreigend aneurysma van grote vaten missen. De menselijk dokter let tevens op andere zaken
Dat vormt een van de belangrijkste redenen voor het samenwerken van mens en systeem. 1 plus 1 wordt dan een diagnostische 3!

IDH en beslissingsondersteuning

De dokter kan voorlopig nog niet met pensioen. Tal van deep learning diagnostische systemen  zijn in de eerste plaats ontwikkeld voor ondersteuning van de arts. Het gaat hierbij om het op gevisualiseerde en herkende data gebaseerde systemen voor beslissingsondersteuning en Insight drive healthcare (IDH). Een andere optie is het onderbrengen van richtlijnen in een neuraal-netwerk (-algoritme). Dat handelt 80% van de doorsneepraktijk zelfstandig af en gaat in consult voor de overige 20% met de menselijke behandelaar.

Nieuwe tak van industrie

Inmiddels is diagnostische software op basis van deep learning neurale netwerken een complete medische industrie aan het worden. Aanvankelijk ging het alleen om start-ups en zelfstandig opererende laboratoria al of niet gekoppeld aan onderzoeksinstituten. De laatstgenoemden zetten hun eigen specifieke aandoening gerichte AI-producten zelfstandig (commercieel) in de markt. Bijvoorbeeld Thirona en Screenpoint. Aan de hardwarekant springen genormeerde leveranciers van krachtige computersystemen en videokaarten in. De betaalbare supercomputer gewoon op het bureau van de specialist of in het lokale pathologielab. En HIRES-videokaarten met voor beelddiagnostiek geoptimaliseerde GPU’s (grafische processorunits). Sneller, beter, minder gezondheidsschade / een betere kans op genezing en tegen lagere kosten, dat zijn momenteel de grote troeven bij AI deep learning diagnostiek. Daar kan de medische wereld gewoon niet meer om heen. Geen broodrovende vijand maar een echt maatje dat professioneel helpt bij het optimaliseren van zowel de curatieve als preventieve zorg aan de cliënt. De redactie verneemt graag van de lezers waar deep leerning AI-diagnose een duidelijke meerwaarde hebben of zelfs de menselijke arts overtreffen.