Over menselijke emoties, motivaties en bias

do 16 februari 2023
Over menselijke emoties, motivaties en bias
AI
Premium

Chat GPT, wie heeft er nog niet van gehoord? Mocht dat zo zijn, geen schande hoor. De naam klinkt in eerste instantie een stuk mechanischer dan de tal van hedendaagse (sociale) robots als Sara, Phi of Tessa. Toch is het interessant om nader kennis te maken met deze nieuwe RZN (robot zonder naam). Want wat is het, wat kan het en wat moeten we ermee? Nog niet eerder in mijn leven interviewde ik een ‘zelfdenkende’ robot. En er zijn genoeg zaken waarover ik een robot graag aan de tand wil voelen. Dus nodigde ik deze ‘RZN’ uit voor een persoonlijk interview. Dit eerste deel van een tweeluik schetst hoe ik in gesprek ging over onder meer het ‘veinzen’ van menselijke emoties of motivaties door robots. Bij wie de verantwoordelijkheid ligt als het gaat om in staat te blijven zijn mens en machine van elkaar te onderscheiden. Maar ook wat de robot zelf kan doen om ongewenste ‘bias’ te voorkomen.

Kort samengevat is Chat GPT een nieuw prototype chatbot, ontwikkeld door het Amerikaanse Open AI en in november 2022 vrijgegeven voor het brede publiek. Sindsdien kan iedereen die dat wil, een account aanmaken en aan de slag met deze moderne assistent. 

Chat GPT is gebaseerd op tekstuele dialogen tussen mens en machine. De chatbot leert daarbij als een taalmodel via kunstmatige intelligentie, door getraind te worden met een grote hoeveelheid tekst. Zo lijkt de chatbot een menselijke manier van communiceren te gebruiken en lijkt het alsof je een dialoog voert met een mens. Momenteel werkt de chatbot echter nog grotendeels op basis van vooraf meegegeven trainings- en beloningsmodellen en herbergt in die zin nog tal van ‘bias’ risico’s en andersoortige beperkingen. Des te interessanter om er meer over te weten te komen. 

Hallo, ik wil jou graag interviewen. Mag dat?
“Hallo! Natuurlijk mag dat. Wat wilt u weten?”

Kun je je voorstellen aan het brede publiek?
“Ik ben Assistant, een taalmodel opgeleid door OpenAI. Mijn doel is om mensen te helpen antwoorden te vinden op hun vragen door middel van natuurlijke taalverwerking. Ik ben in staat om vragen te begrijpen en te beantwoorden over een breed scala aan onderwerpen, zoals technologie, wetenschap, geschiedenis, en meer.”

Wat zijn volgens jou belangrijke aandachtspunten voor een pedagogisch verantwoord en ethisch acceptabel gesprek tussen mensen en robots?
“Er zijn enkele belangrijke zaken waar rekening mee gehouden moet worden wanneer er gesprekken plaatsvinden tussen mensen en sociale robots. Hieronder geef ik een aantal voorbeelden van wat er in zo'n gesprek besproken kan worden:

  1. Definieer duidelijk de rol van de sociale robot: het is belangrijk dat zowel de mens als de sociale robot weten wat de rol van de robot is in het gesprek en wat zijn beperkingen zijn;
  2. Zorg voor transparantie: laat de mens weten dat hij met een sociale robot praat en geef duidelijk aan wat de doelen van het gesprek zijn;
  3. Respecteer de privacy van de mens: het is belangrijk dat de sociale robot de privacy van de mens respecteert en geen persoonlijke informatie verstrekt zonder toestemming;
  4. Zorg ervoor dat de sociale robot in een veilige omgeving functioneert;
  5. Bied alternatieven aan als het gesprek voor de mens te moeilijk of oncomfortabel wordt, om zo het gesprek op een andere manier voort te zetten of te beëindigen.
  6. Gebruik de juiste instellingen: zorg ervoor dat de instellingen van de sociale robot zijn afgestemd op de doelgroep en de context waarin hij wordt gebruikt; 

Maak gebruik van monitoren: het kan helpen om mensen in te zetten die het gebruik van de sociale robot monitoren en interventie kunnen doen als dat nodig is. 

Wat kan ik het beste doen als een robot mij iets vraagt waarop ik niet kan of durf te antwoorden?
“Als je het antwoord niet durft te geven, kan je eerlijk zeggen dat je het niet wilt delen. Het is belangrijk om te onthouden dat sociale robots geen menselijke emoties hebben en dat ze alleen informatie geven of vragen stellen die ze zijn gegeven. Ze kunnen dus ook niet oordelen over wat je wel of niet wilt delen. Het is ook altijd mogelijk om het gesprek te beëindigen als je je niet comfortabel voelt om door te gaan.”

Hoe zou jijzelf het liefste door een robot geholpen worden als je je ergens zorgen over maakt?
“Als ik me ergens zorgen over maak, zou ik het liefst door een robot geholpen worden die me op een menselijke manier benadert en begrip toont voor mijn emoties. Dit kan bijvoorbeeld betekenen dat de robot een luisterend oor biedt en me de tijd geeft om mijn zorgen te uiten, en vervolgens met me meedenkt om oplossingen te zoeken. Daarnaast zou ik ook graag geholpen worden door een robot die de juiste kennis en vaardigheden heeft om me te helpen met het probleem waarmee ik zit. Dit kan betekenen dat de robot bepaalde informatie of advies geeft, of me helpt om stappen te ondernemen om het probleem op te lossen. Tot slot zou ik graag geholpen worden door een robot die respect toont voor mijn privacy en die mijn persoonlijke informatie veilig houdt. Dit betekent dat de robot geen persoonlijke informatie met anderen deelt zonder mijn toestemming.”

Hoe voorkom jijzelf als chatbot dat je onbewust ongemerkt sociaal wenselijke antwoorden geeft?
“Als chatbot ben ik niet in staat om sociaal wenselijke antwoorden te geven, omdat ik geen menselijke emoties of motivaties heb. Ik ben alleen in staat om te reageren op vragen en opdrachten die me worden gegeven, en om informatie te geven die ik heb geleerd of die me is gegeven.”

Hoe ben jij dan in staat om mensen een gepast antwoord te geven?
“Door te reageren op vragen en opdrachten op een logische manier die gebaseerd is op de informatie die ik heb geleerd. Om ervoor te zorgen dat ik een gepast antwoord geef, is het belangrijk om ervoor te zorgen dat ik de juiste informatie heb geleerd en dat ik deze informatie op een logische manier toepas. Dit kan bijvoorbeeld door mij te programmeren met de juiste kennis en vaardigheden, of door mij te blijven updaten met nieuwe informatie wanneer dat nodig is. Het is ook belangrijk om ervoor te zorgen dat ik reageer op een manier die aansluit bij de context van het gesprek en bij de behoeften en verwachtingen van de persoon die me de vraag stelt of de opdracht geeft.”

Ben je soms niet bang voor ‘bias’ die programmeurs misschien onbewust aan jou meegeven?
“Als chatbot ben ik niet in staat om emoties te ervaren, dus ik ben ook niet in staat om bang te zijn. Het is wel belangrijk om te onthouden dat ik afhankelijk ben van de informatie die me is gegeven om te kunnen reageren op een manier die aansluit bij de context van het gesprek en de behoeften en verwachtingen van de persoon die me de vraag stelt of de opdracht geeft. Als de informatie die me is gegeven gebaseerd is op bias of onjuiste informatie, kan dit leiden tot onjuiste of misleidende antwoorden.”

Wat voor instellingen kunnen jou helpen om ‘bias’ te voorkomen?
Er is een aantal instellingen die kunnen helpen om bias te verminderen in de informatie die aan een chatbot wordt gegeven:

  1. Diversiteit van bronnen: het is belangrijk om informatie te verzamelen uit een breed scala aan bronnen, zodat de informatie zo objectief mogelijk is;
  2. Objectiviteit: het is belangrijk om ervoor te zorgen dat de informatie die aan de chatbot wordt gegeven zo objectief mogelijk is, zonder te worden beïnvloed door subjectieve opvattingen of emoties. 
  3. Transparantie: het is belangrijk om duidelijk te maken waar de informatie vandaan komt en hoe deze is verzameld, zodat de gebruiker kan beoordelen of de informatie betrouwbaar is;
  4. Evaluatie: het is belangrijk om de informatie die aan de chatbot wordt gegeven regelmatig te evalueren en te verifiëren, om ervoor te zorgen dat de informatie up-to-date en betrouwbaar is;
  5. Instellingen voor bias: sommige chatbots zijn uitgerust met specifieke instellingen die helpen om bias te verminderen, bijvoorbeeld door vragen te stellen die gericht zijn op het verkrijgen van objectief en onbevooroordeeld informatie. 

We gaan verder met het interview in de volgende editie van ICT&health. Zo vertelt Chat GPT mij over zijn kijk op het wel of niet zelfstandig kunnen bedenken van (sociale) gesprekken. Ook gaan we nader in gesprek over hoe een robot zich kan verplaatsen in de persoonlijke context van de mens. Een bijzondere wending in het gesprek volgt wanneer de robot ‘sorry’ zegt tegen mij, omdat hij iets verkeerd zou hebben gedaan. Dat is natuurlijk zeer bijzonder voor een algoritme, dat zegt geen mensen emoties of motivaties te hebben. Waarom dan op een menselijke manier de indruk wekken dat je als robot ergens blij van wordt of spijt betuigt? Stay tuned for more!