Amsterdams pleidooi in Nature voor ´levende richtlijnen generatieve AI’

25 oktober 2023
AI
Beleid
Nieuws

Onafhankelijke wetenschappers moeten het voortouw nemen bij het realiseren van effectief toezicht op het gebruik van AI. Dat vinden experts van Amsterdam UMC en de Universiteit van Amsterdam, twee kennisinstellingen voor wie kunstmatige intelligentie een belangrijk thema is. Zelf geven ze het goede voorbeeld met de recente publicatie in Nature over 'levende richtlijnen' voor het verantwoord gebruik van generatieve AI, zoals de bekende tool ChatGPT.

In een recent artikel gepubliceerd in het wetenschappelijke tijdschrift Nature wordt aangedrongen op de ontwikkeling van ‘levende richtlijnen’ voor het gebruik van generatieve kunstmatige intelligentie (AI). De kernboodschap van dit stuk is duidelijk: onafhankelijke wetenschappers moeten het voortouw nemen in de regulering van AI, omdat de technologie zowel voordelen als potentiële nadelen met zich meebrengt. Omdat (generatieve) AI in de gezondheidszorg steeds vaker wordt ingezet is het artikel in Nature met name zeer interessant voor zorgverleners.  

AI brengt risico’s mee

Generatieve AI stelt individuen in staat om automatisch teksten, afbeeldingen, audio en andere content te genereren. Terwijl het gebruik van deze technologie voordelen biedt, zoals het efficiënt genereren van content, brengt het ook aanzienlijke risico's met zich mee. Een van de belangrijkste zorgen is het potentieel voor de verspreiding van misleidende informatie en 'deep fakes', die nauwelijks van echte content te onderscheiden zijn. Zo is bijvoorbeeld bekend dat ChatGPT, momenteel het bekendste Large Language Model, niet alleen vaak snel en goed werk doet, maar er soms eigenhandig lustig op los fabuleert of juist door de gebruiker misbruikt wordt voor het genereren van nepnieuws.

Oproep tot levende richtlijnen

De oproep tot levende richtlijnen komt van Claudi Bockting, hoogleraar Klinische Psychologie in Psychiatrie aan Amsterdam UMC en mededirecteur van het Centre for Urban Mental Health. Ze waarschuwt voor de schadelijke gevolgen van ongecontroleerd gebruik van generatieve AI voor het vertrouwen tussen individuen, politieke instellingen en de wetenschap. Volgens Bockting moeten onafhankelijke wetenschappers de leiding nemen bij het testen en verbeteren van de veiligheid en beveiliging van generatieve AI. Ze benadrukt echter dat de meeste wetenschappers momenteel beperkte toegang hebben tot trainingsdata en financiering om deze technologie verantwoord te ontwikkelen.

De levende richtlijnen, zoals voorgesteld in het Nature-artikel, zijn tot stand gekomen na twee topbijeenkomsten met internationale organisaties, waaronder de International Science Council, de University Based Institutes for Advanced Study, de European Academy of Sciences and Arts, UNESCO en de Verenigde Naties. Dit consortium biedt een tegenwicht aan het trage tempo van overheidsregulering en de versnippering van richtlijnontwikkelingen. De auteurs benadrukken dat wetenschappelijke instituten verantwoordelijk moeten zijn voor toezicht op het gebruik van generatieve AI.

Verantwoording, transparantie en toezicht

De levende richtlijnen voor generatieve AI zijn gebaseerd op drie principes. Allereerst is verantwoording van essentieel belang, met daarbij de nadruk op menselijk toezicht in kritieke domeinen zoals wetenschappelijke publicaties en peer review. Ten tweede moet transparantie worden gehandhaafd ofwel moeten gebruikers van generatieve AI moeten altijd duidelijk aangeven dat ze deze technologie hebben toegepast.

Op die manier kan de wetenschappelijke gemeenschap de impact van AI op betreffend onderzoek en besluitvorming beoordelen. Tot slot is onafhankelijk toezicht een noodzaak, aangezien zelfregulering niet afdoende is, gezien de grote financiële belangen in de generatieve AI-sector. Externe, onafhankelijke controlemechanismen zijn van vitaal belang om ethisch en kwalitatief hoogstaand gebruik van AI-tools te waarborgen. Deze principes bieden een solide basis voor een verantwoord gebruik van generatieve AI, waarbij innovatie en maatschappelijke belangen in evenwicht worden gehouden.

Toezichtsorgaan AI nodig

De auteurs benadrukken dat het door hen voorgestelde wetenschappelijke instituut uitgerust moet worden met flink wat slagkracht, zoals voldoende rekenkracht om AI-modellen op ware grootte te testen en toegang tot brongegevens om de training van AI-tools te evalueren. Daarnaast is internationale financiering en juridische ondersteuning nodig, evenals samenwerking met leiders uit de technologische industrie, terwijl de onafhankelijkheid wordt gewaarborgd.

Kortom, het consortium benadrukt de dringende behoefte aan investeringen in een comité van experts en een toezichtsorgaan om generatieve AI op een verantwoorde manier vooruitgang te laten boeken. Dit zal een evenwicht creëren tussen technologische innovatie en maatschappelijk welzijn, terwijl het potentiële risico's minimaliseert. De roep om levende richtlijnen onderstreept het belang van onafhankelijk toezicht en verantwoorde ontwikkeling van AI-technologie.