Het is volgens Amsterdamse experts nodig dat generatieve AI, zoals ChatGPT, gereguleerd gaat worden door onafhankelijke wetenschappers.

Amsterdams pleidooi in Nature voor ´levende richtlijnen generatieve AI’

Onafhankelijke wetenschappers moeten het voortouw nemen bij het realiseren van effectief toezicht op het gebruik van AI. Dat vinden experts van Amsterdam UMC en de Universiteit van Amsterdam, twee kennisinstellingen voor wie kunstmatige intelligentie een belangrijk thema is. Zelf geven ze het goede voorbeeld met de recente publicatie in Nature over 'levende richtlijnen' voor het verantwoord gebruik van generatieve AI, zoals de bekende tool ChatGPT.

In een recent artikel gepubliceerd in het wetenschappelijke tijdschrift Nature wordt aangedrongen op de ontwikkeling van ‘levende richtlijnen’ voor het gebruik van generatieve kunstmatige intelligentie (AI). De kernboodschap van dit stuk is duidelijk: onafhankelijke wetenschappers moeten het voortouw nemen in de regulering van AI, omdat de technologie zowel voordelen als potentiële nadelen met zich meebrengt. Omdat (generatieve) AI in de gezondheidszorg steeds vaker wordt ingezet is het artikel in Nature met name zeer interessant voor zorgverleners.  

AI brengt risico’s mee

Generatieve AI stelt individuen in staat om automatisch teksten, afbeeldingen, audio en andere content te genereren. Terwijl het gebruik van deze technologie voordelen biedt, zoals het efficiënt genereren van content, brengt het ook aanzienlijke risico’s met zich mee. Een van de belangrijkste zorgen is het potentieel voor de verspreiding van misleidende informatie en ‘deep fakes’, die nauwelijks van echte content te onderscheiden zijn. Zo is bijvoorbeeld bekend dat ChatGPT, momenteel het bekendste Large Language Model, niet alleen vaak snel en goed werk doet, maar er soms eigenhandig lustig op los fabuleert of juist door de gebruiker misbruikt wordt voor het genereren van nepnieuws.

Oproep tot levende richtlijnen

De oproep tot levende richtlijnen komt van Claudi Bockting, hoogleraar Klinische Psychologie in Psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Ze waarschuwt voor de schadelijke gevolgen van ongecontroleerd gebruik van generatieve AI voor het vertrouwen tussen individuen, politieke instellingen en de wetenschap. Volgens Bockting moeten onafhankelijke wetenschappers de leiding nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. Ze benadrukt echter dat de meeste wetenschappers momenteel beperkte toegang hebben tot trainingsdata en financiering om deze technologie verantwoord te ontwikkelen.

De levende richtlijnen, zoals voorgesteld in het Nature-artikel, zijn tot stand gekomen na twee topbijeenkomsten met internationale organisaties, waaronder de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts, UNESCO en de Verenigde Naties. Dit consortium biedt een tegenwicht aan het trage tempo van overheidsregulering en de versnippering van richtlijnontwikkelingen. De auteurs benadrukken dat wetenschappelijke instituten verantwoordelijk moeten zijn voor toezicht op het gebruik van generatieve AI.

Verantwoording, transparantie en toezicht

De levende richtlijnen voor generatieve AI zijn gebaseerd op drie principes. Allereerst is verantwoording van essentieel belang, met daarbij de nadruk op menselijk toezicht in kritieke domeinen zoals wetenschappelijke publicaties en peer review. Ten tweede moet transparantie worden gehandhaafd ofwel moeten gebruikers van generatieve AI moeten altijd duidelijk aangeven dat ze deze technologie hebben toegepast.

Op die manier kan de wetenschappelijke gemeenschap de impact van AI op betreffend onderzoek en besluitvorming beoordelen. Tot slot is onafhankelijk toezicht een noodzaak, aangezien zelfregulering niet afdoende is, gezien de grote financiële belangen in de generatieve AI-sector. Externe, onafhankelijke controlemechanismen zijn van vitaal belang om ethisch en kwalitatief hoogstaand gebruik van AI-tools te waarborgen. Deze principes bieden een solide basis voor een verantwoord gebruik van generatieve AI, waarbij innovatie en maatschappelijke belangen in evenwicht worden gehouden.

Toezichtsorgaan AI nodig

De auteurs benadrukken dat het door hen voorgestelde wetenschappelijke instituut uitgerust moet worden met flink wat slagkracht, zoals voldoende rekenkracht om AI-modellen op ware grootte te testen en toegang tot brongegevens om de training van AI-tools te evalueren. Daarnaast is internationale financiering en juridische ondersteuning nodig, evenals samenwerking met leiders uit de technologische industrie, terwijl de onafhankelijkheid wordt gewaarborgd.

Kortom, het consortium benadrukt de dringende behoefte aan investeringen in een comité van experts en een toezichtsorgaan om generatieve AI op een verantwoorde manier vooruitgang te laten boeken. Dit zal een evenwicht creëren tussen technologische innovatie en maatschappelijk welzijn, terwijl het potentiële risico’s minimaliseert. De roep om levende richtlijnen onderstreept het belang van onafhankelijk toezicht en verantwoorde ontwikkeling van AI-technologie.

ICT&health World Conference 2024

Ervaar de toekomst van de gezondheidszorg tijdens de ICT&health World Conference van 14-16 mei 2024! Claim alvast jouw ticket en dompel je onder in baanbrekende technologieën en innovatieve oplossingen. Ga in gesprek met collega-experts en verken de kracht van wereldwijde samenwerkingen.

Deel dit artikel!

Lees ook
Gegevensuitwisseling
Mandaat EHDS: Nederland verzilvert 4 hoofdposities
Rathenau
Risico’s AI vragen om terughoudendheid in gebruik
Ketenmonitoring hackathon
Proefproject aanvullende ketenmonitoring en -logging afgerond
toestemmingsplatform
Eerste apotheek aangesloten op online toestemmingsplatform Mitz
mock-up operatiecentrum
Oefenenen in mock-up van nieuw operatiecentrum UMCG
Lichaamsgeluiden wearable
Akoestische wearable monitort lichaamsgeluiden
Digitaal contact
Uw Zorg Online en BeterDichtbij integreren digitale diensten
Partnerportaal
Eenmalig inloggen bij partnerportaal voor juiste informatie
Het programma HDAB-NL wil een veilige toegang waarborgen tot gezondheidsgegevens.
VWS start programma Health Data Access Body (HDAB-NL)
Hartcentrum samenwerking
Bundelen van krachten moet leiden tot één hartcentrum
Volg jij ons al?