WHO-rapport schetst principes veilig AI-gebruik in zorg

28 juli 2021
Kunstmatige-intelligentie-4
Overheid
Nieuws

Wanneer algoritmen het vermogen hebben om te leren op basis van gegevens - waardoor ze geautomatiseerde taken kunnen uitvoeren zonder menselijke tussenkomst - spreken we van kunstmatige intelligentie (AI). Om de voordelen ervan ten volle te benutten, moeten we de uitdagingen aangaan die toepassen van deze nieuwe technologie meebrengt. Of AI voordelen oplevert voor patiënten, gezondheidswerkers en zorgstelsels, hangt volgens de auteurs van het rapport af van de implementatie van regelgeving die de ontwikkeling van ethische en transparante algoritmen ondersteunt.

Potentiële voordelen AI

AI biedt veel potentiële voordelen. Het kan medische faciliteiten helpen de kwaliteit van zorg te verbeteren, de nauwkeurigheid van diagnoses te vergroten en behandelplannen en zorgstandaarden te optimaliseren. Het kan onderdeel worden van een effectief pandemisch surveillance-systeem, of het besluitvormingsproces over gezondheidsbeleid en toewijzing van middelen ondersteunen. Door toegankelijkheid van diensten te vergroten via automatisering, kan het zorgsystemen steunen die streven naar universele zorgdekking. Tot slot kan het hiaten in de toegang tot gezondheidsdiensten minimaliseren.

Om dit potentieel te benutten, hebben gezondheidswerkers en zorgstelsels gedetailleerde informatie nodig over de context waarin die systemen veilig en effectief kunnen functioneren. Zorgprofessionals moeten toegang hebben tot opleidingen om digitale vaardigheden te verwerven. AI stelt patiënten in staat de controle over hun eigen gezondheid te nemen en hun veranderende gezondheidsbehoeften te begrijpen. Om dat doel te bereiken, moeten de gegevens van patiënten veilig zijn en worden verwerkt in overeenstemming met de best practices, op een transparante en vertrouwde manier.

Zes kernprincipes voor AI in zorg

De zes kernprincipes die de WHO-expertgroep identificeert, zijn:

  1. Autonomie beschermen;
  2. Bevorderen van menselijk welzijn, menselijke veiligheid en het algemeen belang;
  3. Zorg voor transparantie, uitlegbaarheid en begrijpelijkheid;
  4. Verantwoordelijkheid en aansprakelijkheid bevorderen;
  5. Zorg voor inclusiviteit en rechtvaardigheid;
  6. Promoot AI die responsief en duurzaam is.

Volgens het eerste principe mag het gebruik van AI en andere computersystemen de menselijke autonomie niet ondermijnen. Het betekent dat mensen controle moeten behouden over medische beslissingen. Zo moeten dienstverleners beschikken over de informatie die nodig is om AI-systemen veilig en effectief te gebruiken, terwijl patiënten moeten worden geïnformeerd over hun rol in het zorgproces. Het omvat ook privacy- en vertrouwelijkheidsbescherming, evenals geïnformeerde toestemming op basis van toepasselijke gegevensbeschermingswetten.

Ten tweede moeten AI-oplossingen het welzijn en de veiligheid van de mens bevorderen en het algemeen belang beschermen. Ontwerpers moeten zich laten leiden door wettelijke vereisten met betrekking tot veiligheid, precisie en effectiviteit, vastgesteld voor duidelijk gedefinieerde toepassingen van algoritmen. Kwaliteitscontrolemaatregelen zijn hiervoor nodig.

Het voorkomen van schade is ook belangrijk. Volgens dit principe mag AI geen mentale of fysieke schade aanrichten, die vermeden zou kunnen worden door alternatieve tools te gebruiken.

Transparantie waarborgen

Het is ook nodig om de transparantie van AI-oplossingen en algoritmen te waarborgen. AI-technologieën moeten niet alleen begrijpelijk zijn voor hun makers, maar ook voor gezondheidswerkers, patiënten, gebruikers en regelgevende instanties. Transparantie vereist dat ontwikkelaars het proces van planning en ontwikkeling van AI-oplossingen documenteren, zodat het eenvoudig is om hun functionaliteit, potentiële voordelen en bedreigingen te verifiëren. Patiënten en artsen moeten bij dit proces worden betrokken.

Ook is het noodzakelijk om verantwoordelijkheidsprincipes vast te stellen voor het geval kunstmatige intelligentie schade veroorzaakt. Bij het gebruik van algoritmen kunnen veel vragen rijzen: wie is verantwoordelijk voor een verkeerde diagnose of behandeling? Hoe wordt die persoon aansprakelijk gesteld?

Inclusiviteit, rechtvaardigheid

Inclusiviteit en rechtvaardigheid is eveneens essentieel. Volgens de WHO moet AI zo worden ontworpen dat een zo breed mogelijke toepassing wordt gestimuleerd. Algoritmen moeten worden getraind met gegevens van hoge kwaliteit, zodat ze bij het nemen van beslissingen mensen niet discrimineren op basis van hun geslacht, inkomen, ras, etniciteit, seksuele geaardheid en andere kenmerken die worden beschermd door mensenrechtencodes. AI-technologieën mogen vooroordelen niet coderen ten nadele van identificeerbare groepen, vooral die welke al gemarginaliseerd zijn.

Op deze technologieën gebaseerde instrumenten en systemen moeten worden gecontroleerd en beoordeeld om onevenredige voordelen voor specifieke groepen mensen vast te stellen. Geen enkele technologie, inclusief AI, mag bestaande vooroordelen en discriminatie in stand houden of verergeren.

Continu beoordelen AI

Als het gaat om reactievermogen, moeten ontwerpers, makers en gebruikers AI-applicaties continu en grondig in realtime beoordelen. Zij moeten instrumenten ontwikkelen om te rapporteren of kunstmatige intelligentie adequaat en correct reageert, in overeenstemming met de eisen. Responsiviteit betekent ook dat AI-technologie consistent moet zijn met doelstellingen voor duurzame ontwikkeling in zorgstelsels. Systemen moeten zo worden ontworpen dat hun negatieve impact op het milieu en het klimaat tot een minimum wordt beperkt en de energie-efficiëntie wordt verhoogd.

Duurzame ontwikkeling vereist dat overheden en technologiebedrijven rekening houden met mogelijk banenverlies door gebruik van geautomatiseerde systemen. De langetermijneffecten van AI op de samenleving moeten worden opgenomen in strategische plannen op nationaal en regionaal niveau door initiatieven te nemen die erop gericht zijn de negatieve gevolgen te minimaliseren.

Praktisch advies

Het WHO-rapport bevat verder praktisch advies over het implementeren van WHO-richtlijnen voor ontwerpers, programmeurs, leveranciers en ministeries van Volksgezondheid en ministeries van Informatietechnologie. Ze zijn ook bedoeld voor andere overheidsinstanties en -afdelingen die AI gaan reguleren, mensen die AI-technologieën gebruiken voor de gezondheid en entiteiten die deze technologieën ontwerpen en financieren.

De WHO-richtlijn werd gepubliceerd na een ontwikkelingsproces van twee jaar onder leiding van twee afdelingen in de Science Division - Digital Health en Innovation en Research For Health.

Nederlandse richtlijnen

Vanuit de Nederlandse overheid komen er ook regelmatig adviezen en richtlijnen op het gebied van AI. Recent nog kwam het actieteam Handelingsruimte van het VWS-programma Waardevolle AI voor gezondheid met een hulpmiddel waarmee partijen in de zorg het succes van AI-toepassingen kunnen vergroten. Het hulpmiddel moet ervoor zorgen dat als onderzoekers of ontwikkelaars op tijd stil staan bij vereisten op vijf domeinen: waarde, toepassing, ethiek, techniek en verantwoordelijkheid.