‘Meer beveiliging nodig om misbruik LLM’s te voorkomen’

di 20 mei 2025 - 14:45
Security
Nieuws

De integratie van LLM’s en generatieve AI-oplossingen in de gezondheidszorg, bijvoorbeeld voor het ondersteunen van de radiologische diagnostiek, biedt aanzienlijke mogelijkheden om de zorg voor patiënten te verbeteren. Het gebruik van deze nieuwe technologieën zijn echter niet zonder risico. Zwitserse wetenschappers hebben daar onderzoek naar gedaan en in een rapport benadrukken zij het belang van het implementeren van (meer) beveiligingsmaatregelen om misbruik van kwaadwillende, met mogelijk schadelijke gevolgen voor patiënten, te voorkomen.

LLM’s en generatieve AI-tools, zoals OpenAI's GPT-4 en Google's Gemini, zijn krachtige hulpmiddelen die ook in de gezondheidszorg steeds vaker toegepast worden. Deze tools zijn hard op weg een revolutie teweeg te brengen in zowel onderzoek als de klinische praktijk.

Meerwaarde LLM’s en generatieve AI

Deze tools worden gebruikt voor verschillende taken, zoals ondersteuning bij klinische beslissingen, analyse van patiëntgegevens, de zoektocht naar nieuwe medicijnen en het verbeteren van de communicatie tussen zorgverleners en patiënten door het vereenvoudigen van medisch jargon. Een toenemend aantal zorgverleners onderzoekt manieren om geavanceerde taalmodellen te integreren in hun dagelijkse workflows.

“Hoewel de integratie van LLM's in de gezondheidszorg nog in de kinderschoenen staat, zal het gebruik ervan naar verwachting snel toenemen,” aldus hoofdauteur Tugba Akinci D'Antonoli, arts-assistent neuroradiologie op de afdeling diagnostische en interventionele neuroradiologie van het Universitair Ziekenhuis Basel.

Gevoelig voor cyberdreigingen

LLM's zijn echter gevoelig voor beveiligingsrisico's en kunnen worden misbruikt door kwaadwillende actoren om gevoelige patiëntgegevens te stelen, informatie te manipuleren of resultaten te wijzigen met behulp van technieken zoals datapoisoning of inferentieaanvallen.

AI-inherente kwetsbaarheden en bedreigingen kunnen variëren van het opzettelijk toevoegen van verkeerde of kwaadaardige informatie aan de trainingsgegevens van het AI-model tot het omzeilen van het interne beveiligingsprotocol van een model dat is ontworpen om beperkte uitvoer te voorkomen, wat resulteert in schadelijke of onethische reacties.

Kwetsbaarheden die niet inherent zijn aan AI reiken verder dan het model en hebben meestal betrekking op het ecosysteem waarin LLM's worden ingezet. In de radiologie zou een cybercrimineel beeldanalyseresultaten kunnen manipuleren, toegang kunnen krijgen tot gevoelige patiëntgegevens of systemen met malafide software (malware) kunnen infecteren.

Meer beveiliging nodig

De Zwitserse onderzoekers waarschuwen in hun rapport dat de cyberbeveiligingsrisico’s in relatie tot het gebruik van LLM's zorgvuldig moeten worden beoordeeld voordat ze in de gezondheidszorg worden ingezet, met name in de radiologie, en radiologen moeten beschermende maatregelen nemen wanneer ze met LLM's werken.

Om LLM's veilig te integreren in de gezondheidszorg, moeten instellingen zorgen voor veilige implementatieomgevingen, sterke encryptie en continue monitoring van modelinteracties. Door robuuste beveiligingsmaatregelen te implementeren en zich te houden aan best practices tijdens de ontwikkelings-, trainings- en implementatiefasen, kunnen belanghebbenden helpen de risico's te minimaliseren en de privacy van patiënten te beschermen.

“Ook is voortdurende training over cyberbeveiliging belangrijk. Net zoals we regelmatig stralingsbeschermingstraining krijgen in de radiologie, zouden ziekenhuizen routinetrainingen over cyberbeveiliging moeten implementeren om iedereen op de hoogte en voorbereid te houden”, aldus Dr. D’Antonoli.

EU AI-Act

Het is niet de eerste keer dat wetenschappers waarschuwen voor de beveiligingsrisico’s van (generatieve) AI. In 2023 publiceerde het Rathenau Instituut een rapport waarin gewaarschuwd werd voor de risico’s van generatieve AI, zoals discriminatie, onveiligheid, intellectueel eigendom en negatieve effecten op menselijke ontwikkeling. Daarin benadrukte men ook het belang van het maatschappelijk debat over de wenselijkheid van systemen zoals ChatGPT, Bard en DALL-E. In de gezondheidszorg zijn dataprivacy, bias en verantwoordelijkheid belangrijke aandachtspunten bij de inzet van AI.

Begin dit jaar trad de EU AI Act in werking. Die wet verbiedt bepaalde AI-toepassingen in de zorg die onaanvaardbare risico’s voor fundamentele rechten en waarden vormen. Verboden zijn onder andere AI-systemen die patiënten manipuleren of misleiden, zoals niet-transparante medische beslissingsondersteuning, en systemen die kwetsbare groepen uitbuiten, bijvoorbeeld ouderen met verminderde cognitieve functies. Ook sociale scoresystemen en gezichtsherkenning voor publieke surveillance zijn verboden, met enkele uitzonderingen. Deze richtlijnen beogen de bescherming van patiënten tegen schadelijke AI-praktijken en benadrukken de noodzaak van transparantie en ethisch gebruik van AI in de gezondheidszorg.