Wereldwijd zijn er veel initiatieven op het gebied van kunstmatige intelligentie (AI): slimme algoritmen die op basis van trainingsgegevens meer verbanden kunnen leggen dan voor een menselijk brein mogelijk is. Nu er meer AI in gebruik is, rijzen er zorgen over discriminatie van bepaalde individuen of groepen.
Het aantal voorbeelden van AI die onbedoeld vooroordelen bevatten of om een andere reden tot oneerlijke uitkomsten leiden, neemt toe. Voorbeelden van oneerlijke uitkomsten - bias - zijn ook te vinden in de geneeskunde, bijvoorbeeld minder nauwkeurigheid bij het identificeren van huidkanker bij personen met een donkere huidskleur door ongelijke vertegenwoordiging in trainingsgegevens. Bias in algoritmen is ongewenst, maar regelgeving om eerlijkheid te waarborgen, blijft achter bij de technische ontwikkelingen.
Eerlijkheid AI belangrijk
Vanwege het ontbreken van wet- en regelgeving zoeken organisaties naar geschikte randvoorwaarden om algoritmen eerlijk te houden. Zij hebben immers de plicht om het risico op discriminatie bij het ontwerp en de toepassing van AI zoveel mogelijk te voorkomen of te verkleinen, zoals ook gevraagd door Amnesty International en Access Now.
Machine learning (ML)-toepassingen zijn ook interessant voor het CIZ, dat de toegang bepaalt voor de wet langdurige zorg (Wlz) en zo een cruciale rol speelt tussen wetgeving en uitvoering. Het CIZ bepaalt namelijk via de Wlz de toegang tot financiële middelen voor de zorgverlening die binnen deze wetgeving valt. De instantie behandelt een forse stroom aanvragen per jaar.
Guido Huisintveld, informatiemanager bij het CIZ, heeft in dat kader een masterthesis geschreven als afsluiting van zijn masteropleiding Advanced Health Informatics Practice (AHIP) van hogeschool Inholland. Het lectoraat Medische Technologie heeft Guido begeleid bij het schrijven van publicaties naar aanleiding van deze masterthesis.
Ondersteuning door ML-toepassingen
Voor verschillende taken van het CIZ is het nodig om na te gaan of alle relevante informatie aanwezig is, wat de verwachte complexiteit is, of er signalen zijn die kunnen wijzen op een frauderisico en welk type onderzoek passend is voor de beoordeling. Dit zijn tijdrovende trajecten waarbij veel data wordt vastgelegd met betrekking tot de uiteindelijke beslissing.
Er zijn dus ML-mogelijkheden om ondersteuning te bieden en efficiënter te werken. Voorbeelden zijn de herkenning van documenten en beslissingsondersteuning. Een ander voordeel van ML is het beperken van menselijke vooroordelen met beslissingsondersteuning bij het nemen van complexe beslissingen.
Gebrek aan kaders
Door het eerder genoemde gebrek aan kaders en regelgeving zocht Huisintveld naar een ethisch correcte manier om datagedreven besluitvorming over meerdere domeinen toe te passen. Zijn vertrekpunt was het in kaart brengen van de ondersteuningsbehoeften van werknemers.
Huisintveld concludeert dat de ondersteuningsbehoeften die het risico op vooroordelen en oneerlijkheid helpen verminderen, te vinden zijn op drie gebieden:
- Binnen het gebied 'Organisatievisie, beleid en uitgangspunten' hebben medewerkers bijvoorbeeld behoefte aan een duidelijke visie op het gebruik van ML-applicaties en concrete algemene kaders en richtlijnen die bepalend zijn voor de verdere inrichting en het gebruik van de applicaties.
- In de categorie 'ontwerpen en ontwikkelen' is er behoefte aan ondersteuning door externe expertise zodra bevindingen uit datalabs leiden tot de wens tot verdere ontwikkeling en implementatie.
- In het domein 'werken met ML-applicaties' is behoefte aan verdere ondersteuning met kennis over de werking van het algoritme, het kunnen begrijpen van de resultaten en het gebruik van deze uitkomsten van ML-applicaties.
Lees het hele artikel in ICT&health 4, die op 24 augustus verschijnt.