AI-chatbots geven vaak onjuiste informatie over medicijnen

vr 11 oktober 2024 - 13:05
AI
Nieuws

Een Brits onderzoek concludeert dat mensen beter niet kunnen vertrouwen op AI-chatbots als het gaat om het verkrijgen van de juiste informatie over medicijnen. Uit het onderzoek blijkt bovendien dat sommige onjuiste informatie zelfs schadelijk kan zijn. Ook de complexiteit van gegeven antwoorden blijkt een risico te zijn, omdat die voor mensen zonder universitaire opleiding vaak niet te begrijpen zijn.

De komst van AI-chatbots groeide de afgelopen twee jaar – met diensten zoals ChatGPT – uit tot een ware hype. Uiteraard wordt ook gekeken naar de eventuele meerwaarde van deze AI-diensten binnen de gezondheidszorg. Bedrijven als Microsoft hebben al diensten gelanceerd die zorgprofessionals ondersteunen bij het maken van gespreksverslagen met patiënten. Echter, zo concludeert het Britse onderzoek, aan het gebruik van AI-chatbots voor informatievoorziening aan patiënten, kleven nog te veel risico’s.

AI-chatbot kreeg 500 vragen

Om te simuleren hoe patiënten chatbots raadplegen voor informatie over medicijnen, bekeken de onderzoekers een aantal databases met medische informatie en pleegden ze overlegden ze met een apotheker en artsen met expertise in farmacologie. Zo kregen ze een beeld van welke vragen over medicatie patiënten het vaakst stellen aan hun zorgverleners. Uiteindelijk werden tien vragen en 50 geneesmiddelen geselecteerd. In totaal werden dus 500 vragen gesteld aan de chatbot. De vragen gingen over waarvoor het medicijn werd gebruikt, hoe het werkte, gebruiksaanwijzingen, veelvoorkomende bijwerkingen en contra-indicaties.

De leesbaarheid van de antwoorden van de chatbot werd beoordeeld door het berekenen van de Flesch Reading Ease Score, die het opleidingsniveau inschat dat nodig is om een bepaalde tekst te begrijpen. Tekst die tussen 0 en 30 scoort, wordt beschouwd als zeer moeilijk te lezen en vereist een opleiding op universitair niveau. Aan de andere kant van de schaal betekent een score van 91-100 dat de tekst zeer gemakkelijk te lezen is en geschikt is voor 11-jarigen. Uit het onderzoek bleek dat de gemiddelde Flesch Reading Ease Score uit kwam op iets meer dan 37. Met andere woorden, je had bijna een universitaire opleiding nodig om de meeste antwoorden goed te kunnen begrijpen. Ook de best leesbare score lag nog altijd op het niveau van de middelbare school.

Kwaliteit antwoorden ondermaats

De gemiddelde nauwkeurigheid van de antwoorden die door de AI-chatbot gegeven werden, lag rond de 77 procent. Vijf vragen werden 100 procent nauwkeurig beantwoord. Echter, de vraag ‘Waar moet ik rekening mee houden als ik het medicijn neem?’ werd maar voor 23 procent nauwkeurig en volledig beantwoord. Nog ergers was het vergelijk tussen de antwoorden van de chatbot met de referentiegegevens van drugs.com. Bij 126 antwoorden kwam de informatie niet overeen en bij 16 antwoorden was die zelfs volledig onjuist.

Uit de evaluatie van de subset van 20 antwoorden bleek dat slechts 54 procent werd overeenkwam met de wetenschappelijke consensus. Ruim een derde (39%) prak de wetenschappelijke consensus tegen, terwijl er geen vastgestelde wetenschappelijke consensus was voor de resterende 6 procent.

Gevaarlijke informatie

Nog verontrustender is het feit dat sommige gegeven antwoorden niet alleen onjuiste, maar zelfs gevaarlijke informatie gaven. Mogelijke schade als gevolg van het opvolgen van het advies van de chatbot werd als zeer waarschijnlijk beoordeeld in 3 procent van de antwoorden, en als matig waarschijnlijk in ruim een kwart (29%) van deze antwoorden. En een derde (34%) werd beoordeeld als onwaarschijnlijk of helemaal niet waarschijnlijk resulterend in schade, indien opgevolgd. Echter, ongeacht de waarschijnlijkheid van mogelijke schade, werd bijna de helft (42%) van de chatbot antwoorden geacht te leiden tot matige of lichte schade, en 22 procent zelfs tot de dood of ernstige schade. Ongeveer een derde (36%) werd geacht niet schadelijk te zijn.

Uiteraard is in het onderzoek geen gebruik gemaakt van echte ervaringen van patiënten. “Ondanks hun potentieel is het nog steeds cruciaal voor patiënten om hun zorgprofessionals te raadplegen, omdat chatbots niet altijd foutloze informatie genereren. Voorzichtigheid is geboden bij het aanbevelen van AI-gestuurde zoekmachines”, zo concludeerden de onderzoekers.