Eind maart vond een bijeenkomst georganiseerd door Netwerk AI plaats over grote taalmodellen in de zorg. Welke mogelijkheden bieden deze modellen om de zorg te verbeteren en de administratielast te verlichten? En hoe kun je de betrouwbaarheid en veiligheid van deze modellen waarborgen? Deze en andere vragen kwamen aan bod tijdens de bijeenkomst.
Grote taalmodellen (Large Language Models of LLM’s) zijn kunstmatige intelligentiesystemen die in staat zijn om tekst te genereren, te vertalen en te begrijpen. Ze worden steeds vaker gebruikt in de zorg en hebben een enorme potentie om artsen in hun dagelijks werk te ondersteunen. Grote taalmodellen kunnen bijvoorbeeld medische literatuur samenvatten, patiëntvragen beantwoorden, dossiers samenvatten en gesprekken vertalen.
Grote taalmodellen (LLM's)
"Een open AI-toepassing als ChatGPT kan interessant zijn voor niet-klinische taken, maar er zijn wel beperkingen. Als je patiëntgegevens invoert in een open AI-toepassing, zijn die gegevens beschikbaar voor iedereen. Je schendt dan het beroepsgeheim en krijgt problemen met de AVG", aldus Jessica Workum, AI-specialist, internist-intensivist en klinisch farmacoloog in het Elisabeth-TweeSteden Ziekenhuis (ETZ) tijdens haar openingspresentatie over grote taalmodellen (LLM's).
"Daarnaast is de informatie die uit ChatGPT komt, niet altijd betrouwbaar en correct. Daar kun je als arts dus niet op varen. Wel kunnen ziekenhuizen het GPT-model toepassen binnen de besloten digitale omgeving van het eigen ziekenhuis. Als je een taalmodel combineert met medische kennis en patiëntendossiers, dan zijn de mogelijkheden eindeloos."
AI in het epd
Hoe ziet dat er concreet uit, AI in het epd? Tom van der Laan, CMIO en KNO-arts in het Universitair Medisch Centrum Groningen (UCMG), liet voorbeelden zien van hoe het UMCG en het EZT AI integreren in het epd Epic. Deze twee ziekenhuizen werden onlangs nog benoemd tot koplopers op het gebied van AI. AI kan een conceptantwoord schrijven op schriftelijke patiëntvragen, patiëntsamenvattingen maken op basis van notities en dossiergegevens, automatisch acties genereren zoals het plannen van een vervolgafspraak, een herhaalrecept klaarzetten, een ontslagbrief schrijven of een onderzoek aanvragen bij het lab.
Ook kan bij een consult spraak omgezet worden naar gestructureerde tekst. Daarnaast is er een chatfunctie waarmee je vragen kunt stellen over een patiënt ter voorbereiding op een consult, zonder het hele dossier door te hoeven. ‘De arts blijft altijd verantwoordelijk en moet de informatie wel checken, maar dan nog scheelt het enorm veel tijd’, aldus Van der Laan.
In de regio Rotterdam zijn vergelijkbare ontwikkelingen gaande met het epd Hix. Tijdens de bijeenkomst vertelde Aaram Omar Khader, cardioloog in opleiding, hoe in het Erasmus MC Digizorg wordt ontwikkeld. Dit is een softwareplatform met een app voor patiënten en een interface voor zorgverleners. De gegevens komen uit Hix en Digizorg zit daar als een schil omheen. AI ondersteunt de communicatie met de patiënt, biedt snel inzicht in patiëntgegevens, zet spraak om naar gestructureerde tekst, genereert automatisch taken en fungeert als virtuele assistent bij dagelijkse handelingen.
Omar Khader: ‘We kunnen niet meer om taalmodellen heen. Onze belangrijkste taak is om ze op de juiste manier in de zorg te laten landen. Dit hoeft niet heel ingewikkeld en duur te zijn. Als we samenwerken kan het snel gaan en kunnen we het inrichten zoals we het zelf willen.’
Haken en ogen
Generatieve AI biedt dus veel mogelijkheden, maar heeft ook haken en ogen, die tijdens de discussie ter sprake kwamen. Maakt AI de zorg persoonlijker door meer tijd voor de patiënt, of gaat het gebruik van AI juist ten koste van het menselijk contact? Hoe weet je of AI niet iets over het hoofd ziet wat je wel mee moet nemen in je diagnose of behandeling? En in het verlengde daarvan: hoe zit het met de foutmarge? Van mensen accepteren we dat ze af en toe fouten maken, van machines niet. Wat daar uitkomt moet altijd 100% kloppen. Moeten we daar misschien opnieuw naar kijken, omdat de tijdsbesparing die AI oplevert inmiddels geen luxe meer is maar een dringende noodzaak gezien de capaciteitsproblemen in de zorg?
Ook het onderwerp regelgeving kwam aan bod. Want als je AI wilt inzetten voor klinische beslisondersteuning, moet je voldoen aan de Europese richtlijn inzake medische hulpmiddelen (MDR) en dat vormt op dit moment nog een belemmering. De ontwikkelingen op dat gebied staan echter ook niet stil. Begin januari publiceerde de Wereldgezondheidsorganisatie (WHO) gedetailleerde richtlijnen over de ethiek en het beheer van grote taalmodellen (LLM's). Deze richtlijnen zijn essentieel voor diverse belanghebbenden, zoals overheden, technologiebedrijven en zorgverleners. Met de komst van nieuwe wet- en regelgeving en veel (in)formele richtlijnen is mogelijk een nieuw tijdperk aangebroken voor de medische AI-regulering.