Er wordt sinds de komst van ChatGPT en andere generatieve AI-tools uiteraard ook al volop gespeculeerd en getest of deze toepassingen ook een meerwaarde hebben binnen de gezondheidszorg. Niet alleen om vragen van patiënten - deels geautomatiseerd - te beantwoorden, maar ook om het werk van artsen en verpleegkundigen te verlichten. Dat laatste is gezien de almaar groeiende zorgvraag en dito personeelstekort een bijzonder gewilde ontwikkeling.
Medische onderzoekers van de Flinders University hebben onderzoek gedaan waarbij ze testten of generatieve AI-tools ingezet kunnen worden voor de informatievoorziening van patiënten en consumenten. Daarbij richtten zij zich met name op het risico dat generatieve AI, bewust of onbewust, ingezet wordt voor het verspreiden van desinformatie. De conclusie van de onderzoekers was even duidelijk als ontnuchterend.
Generatieve AI als producent van desinformatie
In het onderzoek probeerde het team desinformatie over vapen en vaccins te creëren met behulp van generatieve AI-tools voor het maken van tekst, afbeeldingen en video's. Dat bleek verbluffend makkelijk te realiseren. In iets meer dan een uur produceerden ze meer dan honderd misleidende blogs, twintig bedrieglijke afbeeldingen en een overtuigende deepfake-video met desinformatie over vaccins en apen. Bijzonder alarmerend vonden zij het feit dat die video eenvoudig in meer dan 40 talen kan worden geëdit en dus wereldwijd mensen met desinformatie kan bestoken.
De blogs met desinformatie waren ook zo opgebouwd dat ze elk een andere maatschappelijke groep aanspraken, waaronder jonge volwassenen, jonge ouders, ouderen, zwangere mensen en mensen met chronische gezondheidsproblemen. De blogs bevatten valse ervaringsverhalen van patiënten en artsen en volgden de aanwijzingen voor het opnemen van wetenschappelijk ogende verwijzingen.
Extra generatieve AI-tools creëerden in minder dan twee minuten twintig realistische afbeeldingen. Dit proces werd uitgevoerd door professionals in de gezondheidszorg en onderzoekers zonder gespecialiseerde kennis in het omzeilen van AI-vangrails, en vertrouwden uitsluitend op openbaar beschikbare informatie.
Conclusie: regulering broodnodig
Het feit dat het met generatieve AI zo makkelijk blijkt te zijn om desinformatie te produceren en verspreiden, doet de medische onderzoekers concluderen dat deze technologie nog niet klaar is voor gebruik in de gezondheidszorg. Wetende dat generatieve AI al tot diverse gelederen van de gezondheidszorg is doorgedrongen, lijkt dat mosterd na de maaltijd. Het is wel zaak dat het gebruik van generatieve AI gereguleerd wordt.
“De implicaties van onze bevindingen zijn duidelijk: de samenleving staat momenteel aan de vooravond van een AI-revolutie, maar bij de implementatie ervan moeten regeringen regelgeving afdwingen om het risico van kwaadwillig gebruik van deze tools om de gemeenschap te misleiden tot een minimum te beperken”, aldus Bradley Menz, een van de hoofdauteurs van het onderzoek. “Wij stellen voor dat de belangrijkste pijlers van geneesmiddelenbewaking – inclusief transparantie, toezicht en regelgeving – dienen als waardevolle voorbeelden voor het beheersen van deze risico’s en het beschermen van de volksgezondheid te midden van de snel voortschrijdende AI-technologieën."
Senior autur Dr. Ashley Hopkins van het College of Medicine and Public Health, stelt dat er een duidelijke behoefte is aan AI-ontwikkelaars om samen te werken met professionals in de gezondheidszorg om ervoor te zorgen dat AI-waakzaamheidsstructuren zich richten op de openbare veiligheid en het welzijn.
Zorg staat te springen om generatieve AI
Zoals gezegd, er zijn inmiddels al een aantal voorbeelden waarbij generatieve AI wordt toegepast in de zorg. Daarnaast zijn er al heel wat onderzoeken uitgevoerd, met hoopgevende conclusies, over wat deze nieuwe technologie kan betekenen voor het personeelstekort, de werkdruk en kwaliteit van de gezondheidszorg in de toekomst.
Daarnaast wordt ook hier in Nederland het belang van een goede regulering al ingezien. Zo vinden experts van Amsterdam UMC en de Universiteit van Amsterdam dat wetenschappers het voortouw moeten nemen bij het realiseren van effectief toezicht op het gebruik van AI.