Mensenrechten en AI-tools in de zorg

vr 14 februari 2025
Mensenrechten en AI-tools in de zorg
AI
Premium

Artificial Intelligence (‘AI’) – ook wel kunstmatige intelligentie genoemd – is niet meer weg te denken in de huidige samenleving. Binnen de zorgbranche is de inzet van AI-tools de afgelopen jaren ook flink toegenomen. In een eerdere bijdrage (ICT&Health 2024, nr 6) hebben we de juridische implicaties besproken van de AI-verordening voor AI-tools in de zorg. Bij het gebruik van AI-tools in de zorg zijn mensen betrokken, zowel de gebruiker van de AI als de betrokken patiënt of cliënt. Dit maakt dat het van belang is om mensenrechten na te leven. Het Impact Assessment Mensenrechten bij gebruik van Algoritme (IAMA)1 kan hiervoor worden ingezet. In deze bijdrage bekijken we de voor de zorgpraktijk relevante mensenrechten en het IAMA nader en geven we uitleg.

Aangezien het IAMA gaat over mensenrechten, gaan we eerst in op de mensenrechten die in de zorgpraktijk een rol kunnen spelen. Mensenrechten zijn zowel in internationale als Europese en nationale wetgeving geregeld.  Deze rechten kunnen opgesplitst worden in drie thema’s:

  • Privacy-rechten: persoonlijke levenssfeer en integriteit.
  • Gelijkheidsrechten: gelijke behandeling, non discriminatie.
  • Vrijheidsrechten: vrijheid en informatie.

Binnen deze thema’s speelt de volgende wetgeving een rol: 

Internationale wetgeving:

Universele verklaring voor de rechten van de mens art 1, 2, 3, 7, 12 en 19 (UVRM).

Internationaal Verdrag inzake Burgerrechten en Politieke rechten (art 1, 2, 17, 19 en 26 BuPo).

Europese wetgeving:

Europees Verdrag voor de rechten van de mens (art. 8, 10 en 14 EVRM). 

Handvest voor de grondrechten van de burgers van de EU (art 3, 6, 7, 11, 20 en 21 Hv).

Nationale wetgeving:

Grondwet (art 1, 7, 10 en 11Gw).

Algemene wet gelijke behandeling (Awgb).

Wet gelijk behandeling op grond van handicap of chronische ziekte (Wgbh/cz).

De termen mensenrechten en grondrechten wordt veelal door elkaar gebruikt. Juridisch is dit niet helemaal zuiver. Grondrechten zijn breder en kunnen ook gelden voor rechtspersonen, dus bedrijven bijvoorbeeld. In de zin van mensenrechten zijn het grondrechten die gericht zijn op natuurlijke personen, dus bijvoorbeeld u als lezer van dit artikel. 

Impact AI in kaart brengen

AI-toepassingen gebruiken algoritmes om te leren van data en beslissingen te nemen. AI-systemen passen algoritmen toe om bijvoorbeeld patronen te herkennen. Het Impact Assessment Mensenrechten en Algoritmes (IAMA) is een instrument dat de impact van een AI-toepassing op grondrechten in kaart brengt. Het is in 2021 voor de overheid ontwikkeld in opdracht van het Ministerie van Binnenlandse Zaken door de Universiteit Utrecht. 

Het IAMA kan ingezet worden als een organisatie overweegt een AI-toepassing te (laten) ontwikkelen, in te kopen, te gaan gebruiken of als reflectie-instrument bij AI-toepassingen die al in gebruik zijn2. Het doel van een IAMA is om aandachtspunten en risico’s op het gebied van mensenrechten tijdig in beeld te krijgen, zodat er passende maatregelen genomen kunnen worden. Er wordt over de impact van het algoritme in een interdisciplinair team gediscussieerd en dit team kan keuzes maken over het ontwerp, de inzet of eventuele mitigerende maatregelen. Dit alles tezamen zorgt er ook voor dat een IAMA als verantwoording kan dienen om tot verantwoord gebruik van de AI-toepassing te komen. De opbouw van het IAMA is als volgt3:

Waarom?

Beoogde effecten (doel)
Aanleiding
Vragen, doelen, waarden...

Wat?

A) Date (input)
Randvoorwaarden
Vragen, organisatie techniek, data, wetgeving...

B) Algoritme (throughput)
Randvoorwaarden
Vragen, organisatie techniek, transpirantie, uitlegbaarheid

Hoe?

Implementatie en gebruik algoritme (output)
Randvoorwaarden
Vragen, organisatie techniek, data...

Mensenrechten

Nagestreefde doelen
Aangetaste grondrechten

Er wordt op een gestructureerde manier nagegaan waarom er een AI-toepassing wordt ingezet, wat de AI-toepassing precies gaat doen en met welke data (input, throughpout en output), en welke grondrechten er worden geraakt. Dit IAMA wordt uitgevoerd door de ontwikkelaars (van het AI-systeem) én de gebruikers (organisaties die het AI-systeem gebruiken) en betrokkenen (die direct of indirect worden geraakt door het gebruikte AI-systeem). Om een IAMA zo goed mogelijk in te vullen, is het belangrijk om binnen het team rondom het AI-systeem met personen in gesprek te gaan die verschillende disciplines en specialisaties hebben, maar ook om de patiënten niet te vergeten. 

Belangrijke vragen

Her en der in het IAMA komen specifieke vragen naar voren die alleen voor overheidsorganisaties van belang zijn, zoals bij het waarom, de vraag naar ‘publieke waarden’ en de vraag naar de wettelijke grondslag: deze is voor de inzet van een algoritme in de zorgpraktijk niet interessant. De vraag die hier in het IAMA wordt gesteld, is welke wettelijke grondslag er is om een AI-toepassing in te zetten. Deze grondslag speelt geen rol voor de zorgpraktijk maar wel voor de overheid. Wat wel van belang is dat - ingeval er een inbreuk op mensenrechten wordt gemaakt met de AI-toepassing - dit een wettelijke grondslag vereist4. In het IAMA komt dit bij het onderdeel ‘Mensenrechten’ in hoofdstuk 4 aan bod. 

Verder heeft het IAMA weliswaar een gestructureerde aanpak, maar ook in enige mate wat onnodige herhaling in zich. Dit maakt dat het IAMA - zoals het ontwikkeld is voor overheidsorganisaties - in de zorg niet direct goed toepasbaar is. 

Het IAMA heeft uitdrukkelijk ook tot doel om ethische beslissingen te kunnen nemen over de inzet van een AI-toepassing. Wat hiervoor ook gebruikt kan worden, zijn de Ethische richtsnoeren voor betrouwbare AI5. Deze geven een verdieping op de ethische aspecten van het IAMA, zoals ontwikkeld door de Universiteit van Utrecht. 

Tot slot is een Data Protection Impact Assessment (DPIA) vereist als er persoonsgegevens verwerkt worden in de AI-toepassing. Hier wordt in het IAMA naar verwezen, maar dit is verder niet opgenomen in het instrument. 

Beste van twee werelden

Om het beste van twee werelden - IAMA en Ethische Richtsnoeren voor betrouwbare AI - te verenigen, hebben wij (Brattinga en Verhoeven) een aangepaste IAMA gemaakt die én beter past bij niet overheidsorganisaties, én duidelijk aandacht heeft voor de ethische beslissing, maar bovenal praktisch goed uit te voeren is. Daar is vervolgens ook de DPIA aan toegevoegd. Dit is daarna getest in het onderzoeksproject Van sensoren naar zorg van Fontys6. Dit aangepaste impact assessment mensenrechten kent de volgende indeling:

Betrokken partijen
Doel
Betrokkenen / verantwoordelijken
Transparantie en uitlegbaarheid
Data governance
Data protection impact assessment
Grondrechten en ethische beginselen
Technische robuustheid
Rol van de mens
Verantwoording
Contractueel

De volledige uitwerking van het aangepaste impact assessment mensenrechten is bij de auteurs op te vragen. 

CV

Inge Brattinga is als docent werkzaam bij de Juridische Hogeschool Avans-Fontys. Zij is als onderzoeker verbonden aan het lectoraat Recht & Digitale Technologie. Daarnaast is zij als jurist werkzaam bij VRF Advocaten.

Noortje Lavrijssen is als onderzoeker verbonden aan het lectoraat Recht & Digitale Technologie van de Juridische Hogeschool Avans-Fontys. Daarnaast is zij als universitair docent Aansprakelijkheidsrecht werkzaam bij de Open Universiteit. 

Daniëlle Verhoeven heeft als student van de Juridische Hogeschool Avans-Fontys van februari t/m juli 2024 de toepassing van de IAMA onderzocht bij stressmetingen via een wearable van mensen met aanhoudende lichamelijke klachten en mensen met dementie: een onderzoeksproject van Fontys Paramedische Hogeschool, Fontys ICT en de Juridische Hogeschool Avans-Fontys in samenwerking met diverse praktijkpartners (Van sensoren naar zorg). 

Zie ook: Link

Referenties

Ministerie van Binnenlandse Zaken en Koninkrijkrelaties, ‘Impact Assessment Mensenrechten en Algoritmes’, rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrenchten-en-algoritmes.nl

Universiteit Utrecht, ‘IAMA in actie Lessons learned van 15 IAMA-trajecten bij Nederlandse overheidsorganisaties’, 20 juni 2024, pagina 2

Ministerie van Binnenlandse Zaken en Koninkrijkrelaties, ‘Impact Assessment Mensenrechten en Algoritmes’, pagina 5

Zie Artikel 8 EVRM

Europese Commissie, Deskundigengroep op hoog niveau inzake kunstmatige intelligentie, Ethische Richtsnoeren voor betrouwbare KI, Brussel: Europese Commissie 2018

Zie ICT&Health 2022, nr. 2, p. 14-16. (link)


Auteurs

Inge Brattinga
Gastauteur
Noortje Lavrijssen
Gastauteur
Daniëlle Verhoeven
Gastauteur