Generatieve AI verandert de zorgsector: innovatieve AI-toepassingen bieden nieuwe mogelijkheden. De technologie helpt bijvoorbeeld bij het reduceren van administratieve lasten en kan ondersteunen bij een consult. De keerzijde: privacy- en cyberrisico’s. Z-CERT en het Programma Informatieveilig gedrag in de zorg (IVGZ) ondersteunen zorginstellingen bij het herkennen en beheersen van die risico’s. Het programma IVGZ zorgt voor bewustwording en veilig gedrag bij zorgprofessionals, terwijl Z-CERT beveiligingskennis en incidentrespons biedt. Beide partijen vullen elkaar zo aan en werken regelmatig samen. In dit interview gaan Lies van Gennip (projectleider Informatieveilig gedrag in de zorg) en Wim Hafkamp (Directeur Z-CERT) in op hoe zorginstellingen risico’s kunnen managen bij het toepassen van met name generatieve AI.
Generatieve AI is een game changer en vraagt om een ethisch kader, vinden zowel Hafkamp als Van Gennip. AI wordt al decennia ontwikkeld in bijvoorbeeld beeldherkenning (voor een snellere en nauwkeurige diagnose) en in de logistiek voor analyse van grote hoeveelheden data. Deze traditionele AI-toepassingen gaan vooral over machine learning en patroonherkenning en kennen een zorgvuldig proces van validatie en implementatie. Met generatieve AI en de opkomst van Large Language Models (zoals ChatGPT) ontstaat een nieuwe technologische ontwikkeling. Deze technologie wordt veel laagdrempeliger en breder toegepast en genereert nieuwe data. Dat gaat een stuk verder dan patroonherkenning.
Generatieve AI wordt nu al ingezet voor transcriptie van consulten. Dat bespaart zorgmedewerkers heel veel typewerk en creëert meer tijd voor patiëntenzorg. De potentiële toepassingen bieden steeds meer mogelijkheden, van leerplatformen die zorgprofessionals sneller toegang geven via medische kennis tot precisiegeneeskunde op de langere termijn (5-10 jaar).
Van Gennip en Hafkamp vinden allebei dat AI, ook generatieve AI, zorgvuldige implementatie vraagt om misbruik te voorkómen. Hafkamp hierover: “Bij AI speelt meer dan alleen de vraag: ‘hoe goed is de patroonherkenning?’ Er moet ook gekeken worden naar gevolgen voor bijvoorbeeld het verlies van menselijke interactie. Neem bijvoorbeeld de chatbots bij de huisartsenpraktijken. Voorheen was er een assistent en nu een computer waar je tegenaan praat.”
Hafkamp denkt dat veel mensen AI als black box zien en zich onvoldoende afvragen of adviezen kloppen. Bij verkeerde training en gebruik of onvoldoende data kan AI leiden tot bias en discriminatie. Maar ook aansprakelijkheid is een issue. Wie is verantwoordelijk wanneer AI verkeerde of schadelijke adviezen geeft? De bouwer van de AI-toepassing, de leverancier of de dokter als AI-gebruiker? Menselijke interactie blijft volgens Hafkamp nodig.
Kans én probleem
De kans, maar ook het probleem met generatieve AI, is a) de laagdrempeligheid en b) dat er zo breed mee wordt geëxperimenteerd, ook in de zorg, vult Van Gennip aan. “Maar bij generatieve AI zijn privacy, gegevensbeveiliging en betrouwbaarheid net zo belangrijk als bij andere digitale toepassingen.”
Het is niet voor niets dat NFU en NVZ pleiten voor een eenduidig en praktisch hanteerbaar ethisch kader voor toepassing van AI, om daarmee zowel bij de patiënt als bij de zorgprofessional vertrouwen te creëren en te behouden1. Techgiganten domineren de generatieve AI-markt, maar vallen niet onder de Europese privacy- en AI-wetgeving en hanteren mogelijk andere ethische normen. Als zorgverlener is het cruciaal om je hiervan bewust te zijn voordat je AI grootschalig inzet.
Veilig gebruik gen AI
Hoe kan een zorgorganisatie zorgen voor veilig gebruik van generatieve AI? Van Gennip zegt hierover: “Generatieve AI heeft een enorme impact op cybersecurity-risico’s. De technologie kan ten goede worden gebruikt in ziekenhuizen, bij huisartsen en in publieke gezondheid. Maar de technologie maakt de zorg tegelijkertijd kwetsbaarder voor cybercriminelen die generatieve AI gebruiken om bijvoorbeeld datasets te hacken.”
Zorginstellingen kunnen er volgens Van Gennip voor zorgen dat hun medewerkers die risico’s kennen én weten hoe ze weerbaar kunnen zijn. Bijvoorbeeld door alleen geanonimiseerde informatie in generatieve AI in te voeren, of alleen betaalde gen-AI toepassingen te gebruiken die ervoor zorgen dat ingevoerde data niet bij tech-giganten terecht komen. Het is niet voor niets dat de Autoriteit Persoonsgegevens onlangs waarschuwde dat het gebruik van een AI-chatbot kan leiden tot datalekken2.
Hafkamp vindt dat elke zorgorganisatie generatieve AI moet behandelen als nieuwe ICT, met alle stappen die daarbij horen, zoals beoordeling van de risico’s3. Met generatieve AI is er vaak sprake van grote concentratie aan data, zodat de potentiële impact van een datalek heel groot kan zijn. “Z-CERT ziet dat de beveiliging van Large Language Models (LLM’s) vaak beter kan. De internationale organisatie OWASP heeft een top 10 gemaakt van kwetsbaarheden bij LLM’s. Één daarvan is bijvoorbeeld prompt injection (zie kader, red.). Neem deze risico’s mee in de risicoanalyse en tref passende maatregelen.”
Cyberveiligheid vraagt bestuurlijke aandacht. Er is geen bestuurder die informatieveiligheid niet belangrijk vindt, maar velen onderschatten de impact van een cyberaanval. Hafkamp heeft drie adviezen voor bestuurders:
- Zorg dat je basisbeveiliging op orde is. In de praktijk zal het bij veel organisaties neerkomen op: zorg dat je organisatie voldoet aan de NEN 7510 en pas de daaruit volgende vereisten ook toe op applicaties en diensten die je inkoopt, dus inclusief AI.
- Zorg dat je tijdig informatie hebt over nieuwe kwetsbaarheden en dreigingen - ook als het AI-applicaties betreft - en acteer daar ook goed op.
- Ga oefenen en testen. Oefenen op je crisisorganisatie, dus neem daar cyberscenario's in mee. En testen: laat je eigen organisatie blootstellen aan real life hacktesten, want dan weet je hoe goed je beschermd bent. Doe iets met de resultaten daarvan.
Van Gennip voegt daaraan toe: “Cyberveiligheid bereik je pas als de goede techniek goed wordt ingezet en goed met allerlei maatregelen wordt omgegaan. Bij driekwart van de incidenten is onveilig gedrag van medewerkers medeoorzaak. Veilig gedrag vraagt meer dan kennis en vraagt leiderschap. Bestuurders hebben een belangrijke verantwoordelijkheid om daarvoor structureel aandacht, tijd en middelen vrij te maken.”
Veilig gebruik gen-AI
Wat is nodig voor veilig gebruik van generatieve AI in de zorg en wat bieden Z-CERT en ‘Informatieveilig gedrag in de zorg’? Volgens Van Gennip is gen AI een zeer snel veranderende game changer. Het is onmogelijk de mogelijkheden én de risico’s alleen - als instelling, of als dokter - te overzien. “Door samen te werken kunnen we de potentie van de technologie optimaal benutten én de risico’s managen. VWS neemt verantwoordelijkheid voor informatieveiligheid via Z-CERT en het programma Informatieveilig gedrag in de zorg. Zorgaanbieders en professionals en hun koepels hebben ook verantwoordelijkheid. Huidige en toekomstige professionals zullen in staat moeten zijn verantwoord met deze technologie om te gaan.”
Het is algemeen bekend dat de digivaardigheid van veel medewerkers in de zorg echt onvoldoende is om met traditionele digitalisering om te gaan5, laat staan met generatieve AI. Veilig gebruik vraagt ook aanpassing van professionele opleidingen op mbo/hbo- en wo- niveau. Van Gennip: “Ik ben het van harte eens met het advies van NVZ en NFU om naar analogie van Digivaardig in de zorg een programma AI-vaardig in de zorg op te zetten.”
Informatieveilig gedrag in de zorg biedt gratis webinars, leer- en deelbijeenkomsten en masterclasses aan voor informatieveiligheidsprofessionals in de zorg. Daar helpt het programma hen gedrag effectief te veranderen zodat privacy- en cyberrisico’s worden verkleind. Door een stappenplan te gebruiken en door van elkaar te leren. Het programma biedt verder concrete tools voor het bevorderen van veilig communiceren, het melden van een datalek en het toepassen van generatieve AI. Er is een specifiek aanbod voor huisartsen.
Dreigingen snel verhelpen
Een belangrijk onderdeel van Z-CERT is de waarschuwingsdienst voor kwetsbaarheden en nieuwe dreigingen, zodat dreigingen zo snel mogelijk kunnen worden gefixt, vertelt Hafkamp. “Daarnaast bieden we kennisproducten over vragen als ‘moet ik wel of niet verzekeren tegen cyberrisco’s?’. We hebben een aantal white papers geschreven over AI. Nu NIS2 van kracht is – en waarschijnlijk in het derde kwartaal van 2025 wordt omgezet in de Nederlandse Cyberbeveiligingswet - krijgt Z-CERT een wettelijke taak. Dan zal Z-CERT in de zorgsector aan zo’n 1200-1300 zorgaanbieders en 300 leveranciers in de zorgketen cyberbeveiligingsdiensten gaan leveren.”
Van Gennip stelt tot slot blij te zijn met NIS2, omdat de overheid daarmee het belang van cyberveiligheid ook voor de zorg onderstreept. “Met de huidige geopolitieke ontwikkelingen, wordt het steeds belangrijker de zorg te wapenen tegen cybersecurity-risico’s. Met de NIS2 worden bestuurders van grotere zorginstellingen ook persoonlijk daarvoor aansprakelijk.”
Prompt injection
(LLM’s zoals ChatGPT werken met prompts, waarmee je een opdracht kunt geven. Als de promptgenerator van de LLM niet goed is afgeschermd, dan kan jouw input on the fly worden gewijzigd door de aanvaller. Dan kan er een situatie ontstaan waarbij de beveiligingsmaatregelen omzeild worden, terwijl de gebruiker denkt met een goed beveiligde LLM te werken4.
CV
Lies van Gennip is projectleider Informatieveilig gedrag in de zorg. Zij is lid van de redactieraad van ICT&health.
Wim Hafkamp is directeur van Z-CERT.