AI weet meer, ziet meer, maar: is het ook slimmer dan de dokter?

AI wordt zo’n beetje de hemel in geprezen over wat het allemaal kan. Deels natuurlijk een hype, maar er zit een kern van waarheid in. Zeker bij medische toepassingen vormt kunstmatige intelligentie een goede ondersteuning voor de praktijk. Maar om nu de dokter meteen maar door een Emergency Medical Hologram (de EMH uit onder meer Star Trek Voyager) of een chatbot te vervangen gaat toch echt te ver.

Waarop kan (de nadruk op) kan medische AI nu beter scoren dan de menselijke behandelaar? Veel gehoord zijn:

  1. meer kennis in huis.
  2. Ziet meer, slimme patroonherkenning en verbanden leggen.
  3. Logischer en slimmer redeneren.

Laten wij eens dieper op dit drietal ingaan. Zowel voor wat betreft de positieve als de negatieve aspecten.

AI weet meer

AI beschikt over onmetelijke informatiebronnen. Met als voorbehoud dat deze informatie vooralsnog grotendeels door de mens is ingevoerd. Slechte, onvolledige of niet adequaat vertaalde gegevens bederven de kenniswaarde van kunstmatige intelligentie. Bagger is niet bruikbaar voor medische doeleinden. Het is vaak nog niet duidelijk wat AI-toepassingen niet weten.

Dat maakt de technologie als kennisbron voor behandelaars en preventieve toepassingen zeker niet ongeschikt. Er zit veel kennis in en het opzoeken, interpreteren en combineren van bronnen gaat een stuk efficiënter, goedkoper en sneller. Zoekmodellen zoals Google’s Med-PaLM kunnen heel nuttig zijn.

Maar: informatievervuiling

Na de aanvankelijke euforie over de wetenschappelijk en goed onderbouwde informatie uit AI-systemen dook echter het statement ‘AI, de grote vervuiler’ op. In de eerste instantie gaat het daarbij natuurlijk over slecht bronmateriaal. De onderbetaalde entryslaven gooien er alles maar in. Dat valt gelukkig wel goed te reguleren.

De problemen verergeren echter als er bewust desinformatie wordt ingevoerd. Influencers, farmaceutische industrie en niet zo frisse belanggroepen of mogendheden kunnen daar veel voordeel bij hebben. De betrouwbaarheid wordt verder in gevaar gebracht als de originele bronnen en gegevens vergeten worden en AI zelf aan het synthetiseren slaat.

Maatregelen zijn dringend gewenst. Zowel aan de entry-zijde met regels en een keurmerk. Als instructie van de gebruikers waar op te letten. Solide uitgevers kunnen hierbij een goed tegenwicht geven aan de maalstroom van medische data op social media.

AI ziet meer

Een van de eerste medische toepassingen van kunstmatige intelligentie was patroonherkenning. Goed geprogrammeerde en geïnstrueerde algoritmen zien bij beeldvorming veel meer dan de mens. En behalve het zien, speelt eveneens het beeld verbeteren om nog meer te zien een belangrijke rol. De radiologie is daardoor ingrijpend veranderd.

Een volgende sprong was die naar lokale beelddiagnose. AI-apps die bijvoorbeeld vlekjes, gedrag en lichamelijke symptomen herkennen. De dokter heeft hier veel aan, maar ook AI kan zich vergissen. Laat de finale (mee)beslissing dus voorlopig nog bij de echte (para)medicus liggen.

Maar: de patiënt wil het zeker weten

Sinds de patiënt een veeleisende klant is geworden, dreigt er een nieuw gevaar. Vroeger werd een stukje onzekerheid, het stelt weinig voor of het gaat van zelf wel over, gewoon geaccepteerd als uitleg. Daar neemt momenteel menig patiënt geen genoegen meer mee. Dus zette de zuchtende medicus nog maar een extra lab-bepaling of echootje in.

Tegenwoordig wil men echter het onderste uit de behandel & diagnose-kan. En daarbij kan AI wel het nodige bedenken. Zolang AI de boel aardig te relativeren weet, is er weinig aan de hand. Maar zodra de patiënt een reeks mogelijkheden met aanverwante therapieën krijgt voorgeschoteld, is het hek van de curatieve dam. Zeg dan maar eens dat het waarschijnlijk niet nodig is om er wat aan te doen.

Aan de andere kant kan de driehoek dokter-patiënt-AI elkaar natuurlijk ook versterken bij het nemen van beslissingen en het delen van kennis.

Slimmer dan de dokter?

Een EMH die net zo of zelfs slimmer dan de dokter is? Dat is uiteraard een interessante vraag die tevens perspectieven biedt bij personeelsgebrek. Doch wat is slim medisch gezien nu eigenlijk? In de praktijk een combinatie van intuïtie, onderbuikgevoel, feitenkennis & ervaring, je kunnen inleven (empathie), logisch deduceren en kunnen relativeren. Dat maakt een goede dokter of paramedicus.

AI heeft een aantal van deze eigenschappen nog niet. Om even op de EMH van Star Trek Voyager terug te komen. Die heeft geen empathie en gedraagt zich arrogant. Intuïtie en onderbuikgevoel blijft heel lastig om machine te leren door kunstmatige intelligentie. Ervaring opdoen, leren en over veel kennis beschikken plus meer zien kan medische AI zoals gezegd al behoorlijk goed.

Op dit moment is er een soort status quo over wat je AI kunt laten doen. Een eerste contact afhandelen, lichte triage en monitoring plus een stuk online begeleiding gaat prima. In het smart home kan je de zorg voor een belangrijk deel aan care-AI overdragen. Waar het er echt op aan komt, is de dokter of paramedicus nog altijd slimmer. Niettemin kunnen de mens en AI hierin medische partners worden.

Maar: kan AI ook dommer worden?

Het antwoord op deze vraag luidt helaas: ja. Met name als AI intern onvoldoende kritisch is. Het gevaar bestaat dat AI zich zelf vergiftigt. Bij generatieve AI loeren drie gevaren:

  1. Het combineren van onjuiste bronnen.
  2. Het zelf gaan deduceren op grond van slechte of foutieve informatie.
  3. Het zichzelf gaat trainen op basis van onbetrouwbare synthetische data.

De resultaten hiervan zijn al zichtbaar bij door ChatGPT gegeneerde onzinteksten. Ook hoogst vreemde niet kloppende illustraties. Dit zowel op hetgeen er in de illustratie of samengestelde foto of portret te zien is als in de context waarin deze geplaatst werd. Men spreekt in deze van Model Collapse (zie video). Dat willen wij allemaal niet in een medische setting!

Uitleg over AI Model Collapse.

Conclusie

AI kan veel toevoegen als het gaat om curatie en preventie op het gebied van weten, zien en meedenken. Bedachtzaamheid bij de toepassing daarvan valt echter dringend aan te raden. Europese wet- en regelgeving is in de maak. Kunstmatige intelligentie als partner voor de dokter, paramedicus en diens patiënt valt prima te doen. Maar of AI ook alles echt goed weet en ziet is een tweede. Slimmer dan de dokter is AI voorlopig nog niet.

Ulco Schuurmans.

ICT&health World Conference 2024

Ervaar de toekomst van de gezondheidszorg tijdens de ICT&health World Conference van 14-16 mei 2024! Claim alvast jouw ticket en dompel je onder in baanbrekende technologieën en innovatieve oplossingen. Ga in gesprek met collega-experts en verken de kracht van wereldwijde samenwerkingen.

Deel dit artikel!

Lees ook
Philips
Philips ondertekent Green Deal Duurzame Zorg
Meisjes krijgen steeds vaker te maken met mentale problemen. Een nieuwe e-learning voor professionals én cliënten kan helpen bij een meer gendersensitieve behandeling en het vergroten van de autonomie van cliënten.
Nieuwe e-learning kan ggz-wachtlijsten verkorten
Het Ikazia Ziekenhuis stapt over naar vloeibare zuurstof waarmee het de CO₂ -uitstoot met 86 procent verminderd.
Ikazia kiest voor duurzaam en stapt over op vloeibare zuurstof
monsters
Medicatie testen in een orgaanmachine
toestemming
Campagne gegevensuitwisseling: geef toestemming (of niet)
Innovatieplatform samenwerking onderzoek oncologie
Innovatieplatform voor effectievere ontwikkeling kankermedicatie
tumorgraad
Nauwkeurige tumorgraad meting met machine-learning
hart
Zorgverleners onmisbaar bij realiseren zorginnovaties  
thuismonitoring
Vaste plek voor Onco-Connect bij Meander MC
Covid-19 diagnostiek AI
AI-programma kan Covid-19 diagnoses stellen
Volg jij ons al?