De opkomst van generatieve AI-systemen versterkt bekende risico’s van digitalisering, zoals discriminatie en onveiligheid. Daarnaast brengt de technologie nieuwe risico’s met zich mee voor intellectueel eigendom en menselijke ontwikkeling. Het huidige en aangekondigde beleid moet daarom worden doorgelicht en aangescherpt. Organisaties, bedrijven en burgers moeten zich afvragen of ze generatieve AI verantwoord kunnen gebruiken. Dat concludeert het Rathenau Instituut in een begin december verschenen onderzoek.
Het Rathenau Instituut ontwikkelde de publicatie Generatieve AI op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Het onderzoek is gebaseerd op literatuurstudie, werksessies en interviews met deskundigen. Volgens het instituut is het een reële mogelijkheid dat het huidige en aangekondigde beleid, waaronder de aanstaande Europese AI-verordening, niet voldoende zijn om de risico’s van generatieve AI-systemen tegen te gaan.
Afgelopen woensdag, 6 december 2023, bleek tijdens een cruciale onderhandelingsronde over AI Act zelfs dat AI-bedrijven achter de schermen zelfs krachtig tegen strenge AI-regels lobbyen. Onder grote druk van Frankrijk, Duitsland en Italië dreigt de AI Act, volgens NRC, daardoor nu zelfs fors te worden afgezwakt terwijl er volgens het rapport dus juist strengere regulering nodig is.
Verantwoord gebruik
Het Rathenau Instituut beveelt beleidsmakers en politici aan om nationaal en Europees beleid door te lichten en aan te scherpen, en met de AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen. In de tussentijd zijn ondersteuning van toezicht, afspraken met ontwikkelaars en maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E.
“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus onderzoekscoördinator Linda Kool. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”
AI in gezondheidszorg
Kunstmatige intelligentie in de gezondheidszorg brengt ook de nodige risico's met zich mee.
Amsterdam UMC en de Universiteit van Amsterdam pleitten daarom onlangs bijvoorbeeld in Nature nog voor levende richtlijnen voor AI. Ten eerste is er de uitdaging van dataprivacy en -beveiliging. AI-systemen verwerken grote hoeveelheden gevoelige patiëntgegevens, waarbij de bescherming tegen datalekken en cyberaanvallen cruciaal is.
Daarnaast bestaat het risico van bias en ongelijkheid. AI kan ongelijke zorgresultaten produceren als het getraind is met vooringenomen data, wat kan leiden tot discriminatie van bepaalde groepen. Een ander heikel punt is de kwestie van verantwoordelijkheid en aansprakelijkheid. Veel AI-toepassingen zijn complex en hun besluitvormingsprocessen zijn niet altijd duidelijk en dat is een probleem in een sector waar vertrouwen essentieel is.
Risico’s AI
De opkomst van generatieve AI-systemen versterkt en compliceert volgens de Rathenau-publicatie de bekende risico’s van digitalisering. De productie van desinformatie wordt eenvoudiger en bescherming van data wordt ingewikkelder. En terwijl het al lastig was om transparantie te verkrijgen over de werking van AI-systemen, is dat bij de complexere generatieve AI-systemen vrijwel onmogelijk.
Ook brengt generatieve AI nieuwe risico’s met zich mee, zoals voor de bescherming van intellectueel eigendom. De invloed van enkele grote technologiebedrijven was al groot in maatschappelijke domeinen als de zorg of het onderwijs, maar breidt zich verder uit naar de wetenschap. Al met al zet generatieve AI druk op democratische processen zoals de toegang tot kennis, de nieuwsvoorziening en het publieke debat en het wordt daardoor nog lastiger om democratische zeggenschap over de technologie te krijgen .