De eerste grote wet voor de implementatie en het gebruik van AI is 1 augustus in werking getreden. De zogeheten ‘EU AI Act’ geeft onder meer aan wat de regelgeving is voor de ontwikkeling van AI en het in de markt zetten ervan. Ook beschrijft de wet hoe kunstmatige intelligentie in de Europese Unie moet worden gebruikt. Dit geldt ook voor het gebruik van AI in de gezondheidszorg.
Het Europees Parlement heeft in maart dit jaar de Europese AI Act definitief goedgekeurd. De wet is bedoeld om mensgerichte en betrouwbare kunstmatige intelligentie te bevorderen en tegelijkertijd de gezondheid en veiligheid van mensen te beschermen als het gaat om democratie, rechtstaat en milieubescherming. Aandachtspunten met een hoog risico worden in de wet omschreven als:
- Implementatie van de technologie binnen medische hulpmiddelen.
- Gebruik voor biometrische identificatie.
- Bepalen van de toegang tot diensten zoals gezondheidszorg.
- Elke vorm van geautomatiseerde verwerking van persoonsgegevens.
- Emotionele herkenning om medische of veiligheidsredenen.
Geautomatiseerde herkenning
Met ‘Biometrische identificatie’ wordt bedoeld de geautomatiseerde herkenning van fysieke, fysiologische en gedragsmatige menselijke kenmerken. Dit zijn bijvoorbeeld het gezicht, de oogbewegingen, de lichaamsvorm, de stem, de prosodie, het looppatroon, de lichaamshouding, de hartslag, de bloeddruk, de geur en de kenmerken van toetsaanslagen. De toezichthouders schreven dat het vaststellen van de identiteit van een individu via biometrische gegevens overeenkomt met het opslaan van biometrische gegevens in een referentiedatabase. Dit staat los van het feit of een individu toestemming geeft of niet. De regelgeving voor biometrische identificatie sluit het gebruik van AI uit voor authenticatiedoeleinden, bijvoorbeeld om te bevestigen dat een individu de persoon is die hij zegt te zijn.
In de AI-wet staat ook dat er speciale aandacht moet zijn voor het bepalen of een persoon wel of geen toegang heeft tot essentiële publieke en private diensten. Denk hierbij aan: gezondheidszorg en de moeder-kindrelatie, arbeidsongevallen, ziekte, verlies van werk, afhankelijkheid of ouderdom en sociale - en huisvestingsbijstand. Deze onderdelen worden als een hoog risico aangemerkt in combinatie met het gebruik van AI. Het gebruik van de technologie voor de geautomatiseerde verwerking van persoonlijke gegevens wordt ook als een hoog risico beschouwd.
Trainen van AI-algoritmen
Door de EU-wet wordt het trainen van AI-algoritmen op datasets makkelijker. Relevante bevoegde autoriteiten die toegang verstrekken, kunnen nu hoogwaardige gegevens trainen, valideren en testen met AI-systemen. Als het gaat om het testen van AI-systemen met een hoog risico, moeten bedrijven deze in reële omstandigheden testen en geïnformeerde toestemming van de deelnemers hiervoor krijgen. Organisaties moeten ook minimaal zes maanden opnames of logboeken bijhouden van gebeurtenissen die plaatsvinden tijdens het testen van hun systemen. Als er ernstige incidenten plaatsvinden tijdens het testen dan moeten die worden gerapporteerd aan de markttoezichtautoriteiten van de lidstaten waar het incident zich heeft voorgedaan.
Geen emotionele herkenning
De wet zegt dat AI niet mag worden gebruikt voor emotionele herkenning van ‘emoties of intenties zoals geluk, verdriet, woede, verrassing, walging, schaamte, opwinding, schaamte, minachting, tevredenheid en amusement.’ Maar als AI wordt ingezet om emoties te herkennen bij fysieke toestanden zoals pijn of vermoeidheid, mag dat in bepaalde gevallen wel. Bijvoorbeeld om de vermoeidheidstoestand bij piloten of chauffeurs te detecteren. Op die manier kunnen ongelukken worden voorkomen.
Bij AI-systemen die interactie hebben met mensen of door AI gegenereerde of gemanipuleerde inhoud zoals deepfakes moeten duidelijk te traceren en te verklaren zijn. Bedrijven zijn ook verplicht om het risico op vooroordelen in hun AI-toepassingen te voorkomen of te verwijderen.
Uitzondering
De wet benadrukt het voornemen van de Raad om EU-burgers te beschermen tegen de potentiële risico's van AI. Daarbij is het niet de bedoeling om innovatie tegen te houden. Daarom ondersteunt de nieuwe wet de vrijheid van wetenschap. Onderzoeks- en ontwikkelingsactiviteiten worden niet ondermijnd. AI-systemen en -modellen die specifiek zijn ontwikkeld en in gebruik worden genomen voor wetenschappelijk onderzoek zijn wel toegestaan. In de verordening staat dat het noodzakelijk is om ervoor te zorgen dat deze verordening geen andere invloed heeft op de wetenschappelijke onderzoeks- en ontwikkelingsactiviteiten op het gebied van AI-systemen of -modellen voordat ze op de markt worden gebracht of in gebruik worden genomen.