Steeds meer zorginstellingen laten zich ondersteunen bij het doen van administratieve taken door Artificial Intelligence (AI). Bij de implementatie van AI in de zorgsector is het van belang dat patiëntgegevens goed worden beschermd en dat de professionele verantwoordelijkheid wordt gewaarborgd. Om medisch specialisten te ondersteunen bij het gebruiken van de chatbots op een veilige en verantwoorde manier, heeft de commissie AI van de Federatie Medisch Specialisten een handreiking ontwikkeld.
De handreiking kwam tot stand na een uitgebreide inventarisatie van al bestaande huisregels voor het gebruik van generatieve AI in verschillende Nederlandse ziekenhuizen. In het document wordt onderscheid gemaakt tussen externe AI-chatbots, zoals het publiek toegankelijke ChatGPT, en interne AI-chatbots die specifiek door zorginstellingen worden aangeboden. “Met deze handreiking bieden we medisch specialisten concrete handvatten voor het veilig en verantwoord inzetten van AI-chatbots in hun dagelijkse praktijk”, licht de voorzitter van de commissie AI, Bart Geerts, toe
Aanbevelingen voor chatbot gebruik
In de handreiking zijn voor beide categorieën aanbevelingen opgenomen over het gebruik van chatbots en de maatregelen die daarbij moeten worden genomen. Zo bevat het document onder meer het advies om geen externe AI-chatbots te gebruiken in de directe patiëntenzorg. Daarvoor geldt het advies om alleen de interne AI-chatbots die door de zorginstelling worden aanbevolen te gaan gebruiken.
Om te stimuleren dat de chatbots verantwoord worden gebruikt, geldt het advies om scholing over taalmodellen te gaan volgen. Voor meer informatie of feedback kunnen belangstellenden contact opnemen met de commissie AI van de Federatie Medisch Specialisten via Sade Krijgsman-Faneyte.
Correcte medische informatie
Sinds de opkomst van ChatGPT wordt meer en meer ingezet op AI-chatbots om vragen van patiënten te beantwoorden en zorgprofessionals te ontlasten. Uit een enquête afgelopen zomer van de Amerikaanse organisatie KFF blijkt dat meer dan de helft van de Amerikanen geen vertrouwen heeft in AI-chatbots in de zorg. Ze geloven niet dat de chatbots correcte medische informatie kunnen geven.
Naast chatbots die artsen assisteren zijn ook de chatbots voor patiënten in opkomst. Het gaat dan bijvoorbeeld om AI-assistenten die vragen van een patiënt kunnen beantwoorden, laboratoriumresultaten kunnen toelichten en die suggesties kunnen doen voor hoe de levensstijl kan worden aangepast aan een specifieke ziekte.
Uit een Amerikaans onderzoek blijkt echter dat de meeste mensen nog niet zo overtuigd zijn van de betrouwbaarheid van AI-chatbots. Ze betwijfelen of ze feiten van fictie kunnen onderscheiden wanneer ze een chatbot medische informatie geeft. Slechts negen procent van de respondenten acht zichzelf hiertoe in staat. Een derde van de respondenten had er nog enigszins vertrouwen in, maar de meerderheid denkt dit niet te kunnen.