Primeur: Waakhond publiceert rapport over algoritmerisico’s

19 juli 2023
AP
AI
Nieuws

Beter toezicht op algoritmes en AI is volgens de Autoriteit Persoonsgegevens zonder meer nodig. Innovaties zoals intelligente chatbots en gebrekkig inzicht in bestaande algoritmes zijn op dit moment de belangrijkste risico’s. Dit blijkt uit de eerste Rapportage Algoritmerisico’s Nederland, die de nieuwe directie Coördinatie Algoritmes van de Autoriteit Persoonsgegevens (AP) vandaag heeft gepubliceerd.

De rapportage van de Autoriteit Persoonsgegevens is een primeur die zeker een vervolg krijgt. De AP gaat vanaf nu namelijk elk half jaar een Rapportage Algoritmerisico’s Nederland publiceren. Op die manier is er steeds een actueel beeld van recente ontwikkelingen, actuele risico’s en bijbehorende uitdagingen.

Zeker is dat, om meer grip te krijgen op algoritmes en artificiële intelligentie (AI), de overheid en het bedrijfsleven nog grote stappen moeten maken. AP-voorzitter Aleid Wolfs: “We roepen het demissionaire kabinet dan ook op wat betreft regelgeving omtrent dit thema voortgang te blijven maken. Organisaties kunnen zelf al een stap zetten door meer personeel en scholing in te zetten voor de bewaking van algoritmes.”

Slimme chatbots

De waakhond persoonsgegevens roept ook het kabinet expliciet op om overheidsorganisaties één jaar te geven om het algoritmeregister verplicht te vullen met alle hoogrisico-algoritmes. Invullen van het register is nu nog niet verplicht, maar de AP ziet daar wel degelijk ruimte voor, nu een Kamermeerderheid ook voor verplichting pleit. Grip op AI en algoritmerisico's is nodig omdat twee uitdagingen op dit moment samenkomen. Ten eerste is er de snelheid waarmee AI-innovaties de samenleving binnendringen, zoals slimme chatbots. Deze innovaties bieden nieuwe kansen, maar ook nieuwe risico’s. Algoritmes kunnen bijvoorbeeld onbedoeld discriminerend zijn zoals onder andere bij de toeslagenaffaire aan de licht kwam.

AP-voorzitter Aleid Wolfsen: “Algoritmes en AI kunnen geweldig nuttig zijn, maar brengen ook risico’s met zich mee. Bijvoorbeeld het risico op discriminatie, oneerlijke uitkomsten, misleiding en gebrek aan transparantie en uitlegbaarheid. Om de kansen te benutten, moeten de risico’s goed beheerst worden. Het bewustzijn hierover neemt toe, maar veel overheden en bedrijven zijn nog zoekende naar de juiste manier om dit te doen.”

Algoritmerisico's

De Autoriteit Persoonsgegevens vindt dat de registratie van algoritmes met een hoog risico geprioriteerd moet worden om het behapbaar te houden. AI wordt maatschappelijk steeds breder ingezet en recente voorbeelden die soms felle discussies oproepen zijn onder meer ChatGPT en Bard. Ook in de medische wereld wordt AI steeds vaker ingezet voor het helpen bij diagnoses, triage of persoonlijkere behandelingen op maat. Goede regelgeving is voor al die ontwikkelingen hoognodig maar nog lang niet voldragen. Nieuw in de zorg is de opkomst van razend slimme AI-gestuurde medische chatbots zoals Med-Palm 2 van Google. Zodra dit daadwerkelijk toegepast gaat worden door professionals, en later misschien door consumenten, kleven daar risico’s aan die waar mogelijk met heldere regelgeving zoveel mogelijk gereduceerd moeten worden.

Europese AI-wetgeving op komst

De AP adviseert aangaande algoritmes in alle sectoren om alvast  aan te sluiten bij de (verwachte) classificatie van hoog-risico-systemen onder aankomende Europese wetgeving die nu in onderhandeling is. Het grootste deel van deze toekomstige wet is gericht op AI-systemen met een hoog risico. Dit zijn
AI-systemen in producten die onder specifieke EU-wetgeving vallen, zoals luchtvaartapparatuur, speelgoed en medische apparaten. Maar ook systemen die ingezet worden voor beoordeling en selectie in het onderwijs of door werkgevers, of die toegang bieden tot sociale zekerheid of een lening vallen hieronder. 

Terughoudend zijn met AI-innovaties

De waakhond waarschuwt in het rapport expliciet voor de inzet van de meest recente AI-innovaties. ‘Nieuwe AI-toepassingen staan volop in de aandacht en het is verleidelijk om hiermee te experimenteren. Bijvoorbeeld bij de beoordeling van sollicitanten, bij het opsporen van fraude, bij het beoordelen van klanten als een lening willen aangaan, of bij het beoordelen van patiënten. Maar dat kan alleen op een veilige manier als de risico’s adequaat worden beheerst. Zolang dat niet het geval is, doen organisaties er verstandig aan terughoudend te zijn. Breng voorafgaand aan de inzet, naast de voordelen, ook goed de risico’s in kaart.”