Wat gebeurt er met gegevens die artsen invoeren in ChatGPT?

ma 24 februari 2025 - 10:30
AI
Nieuws

Deskundigen op het gebied van gegevensbescherming raden ten zeerste af om patiëntgegevens in te voeren in ChatGPT en soortgelijke chatbots met Large Language Models (LLM's). Hoe kan kunstmatige intelligentie veilig worden gebruikt in de gezondheidszorg? Welke generatieve AI-tools zijn het veiligst en welke moeten worden vermeden?

Volgens een onderzoek gepubliceerd in BMJ Health and Care Informatics gebruikt een op de vijf huisartsen AI om klinische brieven op te stellen. Ondertussen bleek uit een onderzoek van Fierce Healthcare onder 107 huisartsen dat 76% LLM's gebruikt bij klinische besluitvorming. Meer specifiek gebruikt 60% ze om medicijninteracties te controleren, 40% voor behandelplanning en 70% voor patiëntenvoorlichting. Het werkelijke gebruik van ChatGPT in de dagelijkse medische praktijk kan zelfs nog hoger liggen, omdat sommige artsen terughoudend zijn om dit bekend te maken.

ChatGPT wint aan populariteit

AI-tools zoals ChatGPT, Perplexity, Copilot en Gemini worden steeds populairder, vooral onder jongere professionals in de gezondheidszorg die meer openstaan voor innovatie. Veel artsen blijven echter sceptisch vanwege zorgen over privacy en het risico op verkeerde informatie. Veel medewerkers in de gezondheidszorg weten nog niet goed hoe ze AI moeten gaan gebruiken.

Maar je hoeft niet regelmatig LLM's te gebruiken om de regels voor gegevensbeveiliging in de gezondheidszorg te schenden. Er is maar één prompt voor nodig. Weinig mensen realiseren zich dat elk gesprek met een chatbot wordt opgeslagen in de cloud - vaak buiten de Europese Unie. Dit leidt tot ernstige zorgen over mogelijke GDPR-overtredingen en het risico op het lekken van gevoelige gegevens. Welke AI-tools geven prioriteit aan privacy?

DeepSeek op de zwarte lijst

DeepSeek haalde de krantenkoppen na de lancering van zijn nieuwste model, waarvan wordt beweerd dat het het meest kosteneffectieve is onder de grote spelers in generatieve AI. Terwijl de Chinese LLM in augustus 2024 slechts ongeveer 7.000 gebruikers had, was dat aantal in januari gestegen tot meer dan 22 miljoen.

Er is echter een belangrijk punt van zorg. Volgens het gegevensgebruiksbeleid van DeepSeek worden alle gebruikersprompts opgeslagen en verwerkt om het model te trainen. Dit roept vragen op over gegevensbeveiliging, vooral onder toezicht van de Chinese overheid, waar transparantie een black box blijft.

Verschillende overheden en gegevensbeschermingsautoriteiten over de hele wereld hebben waarschuwingen afgegeven of beperkingen opgelegd aan het gebruik van DeepSeek vanwege grote zorgen over de privacy en beveiliging van gegevens. De nationale inlichtingendienst van Zuid-Korea (NIS) beschuldigde DeepSeek er bijvoorbeeld van “buitensporig” persoonlijke gegevens te verzamelen en alle ingevoerde gegevens te gebruiken voor trainingsdoeleinden. De Australische overheid verbood DeepSeek op alle apparaten van de federale overheid, uit bezorgdheid over de nationale veiligheid en de privacy van gegevens. Ook hebben verschillende Amerikaanse federale en staatsinstanties het gebruik van DeepSeek beperkt.

In de Europese Unie houden toezichthouders, waaronder de Italiaanse autoriteit voor gegevensbescherming, de gegevensverzamelingspraktijken van DeepSeek nauwlettend in de gaten. Er is bezorgdheid geuit over de naleving van de General Data Protection Regulation (GDPR) door de app, vooral met betrekking tot de opslag van gebruikersgegevens op servers in China.

Copilot, ChatGPT, Gemini en Perplexity geven ook aanleiding tot bezorgdheid

DeepSeek is niet het enige AI-model dat gesprekken en interacties met de chatbot opslaat voor trainingsdoeleinden. Het Amerikaanse ChatGPT en Perplexity, evenals het Franse model LeChat van Mistral AI, doen hetzelfde. In sommige gevallen kan dit echter worden beperkt via systeeminstellingen. In ChatGPT kunnen gebruikers bijvoorbeeld de optie Chatgeschiedenis & training uitschakelen. Als de geschiedenis is uitgeschakeld, worden nieuwe gesprekken niet gebruikt om de modellen te trainen of te verbeteren en verschijnen ze niet in de zijbalk van de geschiedenis. Ze worden echter nog steeds verwerkt in de cloud.

Microsoft 365 Copilot slaat interactiegegevens van gebruikers op, waaronder opdrachten en reacties, als onderdeel van de Copilot-activiteitengeschiedenis. Volgens Microsoft blijven deze gegevens binnen de Microsoft 365 cloudservice, zijn ze versleuteld en worden ze niet gebruikt voor verdere AI-training. Gebruikers kunnen hun Copilot-activiteitengeschiedenis ook verwijderen en het bedrijf beweert dat Copilot voldoet aan de GDPR.

Zelfs als een AI-chatbot geen gebruikersprompts verwerkt - die gevoelige gegevens kunnen bevatten - blijft een ander probleem bestaan: de meeste populaire LLM's werken in cloudomgevingen met servers in de VS. ChatGPT-gegevens worden bijvoorbeeld opgeslagen in het datacenter van Microsoft Azure in Texas, wat mogelijk in strijd is met de Europese GDPR-regelgeving. Deze zorg stond centraal bij het tijdelijke verbod van Italië op ChatGPT in maart 2023, dat werd opgeheven nadat OpenAI een optie introduceerde om het gegevensgebruik voor training te beperken.

Daarnaast zijn bedrijven die LLM's ontwikkelen kwetsbaar voor hacking en datalekken. Hoewel er tot nu toe nog geen chatgegevens zijn gecompromitteerd, heeft ChatGPT al te maken gehad met beveiligingsincidenten.

Zijn er veilige LLM-modellen?

Het antwoord is ja - open-source modellen bieden het hoogste niveau van privacy. Deze modellen draaien lokaal en verzenden geen gegevens naar externe servers, waardoor ze de veiligste optie zijn voor gebruik in de gezondheidszorg. Ze zijn echter niet zo eenvoudig te implementeren en te gebruiken als ChatGPT en vereisen installatie op lokale servers. Alleen gekwalificeerde IT-specialisten of data engineers kunnen ze effectief bedienen en trainen, en het implementeren van open-source modellen vereist een aanzienlijke investering in data-infrastructuur. De kosten kunnen aanzienlijk zijn, vaak hoger dan wat de meeste zorginstellingen zich kunnen veroorloven, om nog maar te zwijgen van de lopende kosten voor onderhoud en service.

Open-source modellen hebben een belangrijk voordeel: ze kunnen worden getraind op specifieke datasets, waardoor AI-tools kunnen worden ontwikkeld die zijn toegesneden op gespecialiseerde taken, zoals het samenvatten van elektronische medische dossiers of het integreren van gegevens uit verschillende bronnen, zelfs die niet interoperabel zijn. Enkele van de populairste open-source modellen zijn Llama 3 (Meta), Bloom, Mistral Small 3 en MPT-7B.

Een goed alternatief zijn de LLM-functies die direct beschikbaar zijn in IT-systemen voor de gezondheidszorg. Deze modellen worden veilig gehost binnen lokale netwerken, waardoor het niet meer nodig is om tussen applicaties te wisselen en tegelijkertijd aan de regelgeving voor gegevensprivacy wordt voldaan. Na verloop van tijd zullen toonaangevende IT-ontwikkelaars in de gezondheidszorg waarschijnlijk steeds meer van dit soort oplossingen integreren in elektronische patiëntendossiers.

Geanomiseerde prompts zijn oké

Geen enkel generatief AI-model in de cloud mag worden gebruikt om gevoelige patiëntgegevens te verwerken. De nummer één regel is om het invoeren van persoonlijke gegevens of informatie waarmee een individu kan worden geïdentificeerd (bijvoorbeeld op basis van leeftijd, locatie of unieke kenmerken) te vermijden. Artsen kunnen AI gebruiken om te helpen bij het stellen van een diagnose, om wetenschappelijk onderzoek te beoordelen of om medische richtlijnen te controleren, maar ze moeten waar mogelijk de optie uitschakelen waarmee zoekopdrachten kunnen worden gebruikt voor AI-training.

Open-source modellen bieden het hoogste niveau van gegevensbeveiliging, maar vereisen wel een aanzienlijke IT-infrastructuur. De meest eenvoudige aanpak is het testen van AI-functies die geïntegreerd zijn in IT-systemen voor de gezondheidszorg, omdat deze oplossingen zowel gemak bieden als voldoen aan de wetgeving voor gegevensbescherming. ChatGPT en soortgelijke AI-tools zullen blijven bestaan. Artsen moeten zich vertrouwd maken met deze technologieën om de vooruitgang in AI binnen de geneeskunde voor te blijven. Het is ook belangrijk dat ze begrijpen wat deze tools kunnen en waar hun beperkingen liggen.


Auteur

Artur Olesh
Redacteur Internationaal - ICT&health
Gastauteur