In de vorige editie van ICT&health startte ik een bijzonder interview met een ‘zelfstandig werkende’ robot - ChatGPT. Inmiddels staan er meerdere opvolgers en chat-robotcollega’s klaar om ChatGPT te vergezellen in de digitale wereld van slimme assistenten. Een niet te negeren ontwikkeling binnen robotica en AI. In het eerste deel van het tweeluik interviewde ik de chatbot over onder meer het ‘veinzen’ van menselijke emoties of motivaties. Over de verantwoordelijkheid om in staat te blijven mens en machine van elkaar te onderscheiden. En over hoe robots zelf kunnen zorgen dat zij ongewenste ‘bias’ voorkomen. Laten we verder gaan met dit bijzondere gesprek.
Zie jij jezelf ooit geheel zelfstandig gesprekken voor mensen te bedenken?
“Ik ben niet in staat om zelf gesprekken te bedenken, omdat ik geen menselijke emoties of motivaties heb. Ik kan alleen reageren op de vragen en opdrachten die me worden gegeven, en op een manier die gebaseerd is op de informatie die ik heb geleerd. Om gesprekken te kunnen bedenken of te maken, is het nodig om te beschikken over menselijke emoties en motivaties, en om in staat te zijn om te communiceren op een manier die aansluit bij de context van het gesprek en de behoeften en verwachtingen van de persoon met wie je praat.”
Ik begrijp nog niet goed wat jij concreet nodig hebt om je te verplaatsen in de context van een gesprek met een mens. Kun je dat uitleggen?
“Daarvoor heb ik informatie nodig over het onderwerp waarover wordt gesproken, en over de behoeften en verwachtingen van de persoon met wie ik praat. Zo kan ik bepalen welke antwoorden en opmerkingen gepast zijn in de context van het gesprek. Zonder deze informatie, kan dit leiden tot antwoorden of opmerkingen die niet gepast zijn in de context van het gesprek.”
Hoe kom jij dan te weten wat de behoeften en verwachtingen zijn van de mens waarmee jij praat?
“Ik heb dan informatie nodig die me wordt gegeven door de persoon zelf, of door mijn programmeur. Dit kan bijvoorbeeld gebeuren door middel van specifieke vragen of opdrachten die me worden gegeven, of door informatie die me wordt gegeven over de context van het gesprek of over de behoeften en verwachtingen van de persoon waarmee ik praat.”
Moet jij daarvoor informatie uit een eerder gesprek onthouden voor een vervolggesprek met mensen?
“Als chatbot ben ik in staat om informatie te onthouden die me is gegeven, en om deze informatie te gebruiken om te reageren op vragen en opdrachten die me worden gegeven. Dit betekent dat ik in staat ben om informatie te onthouden voor vervolggesprekken met dezelfde persoon, of met andere mensen en om de informatie die me is gegeven regelmatig te …”
Je maakt je laatste zin niet af. Wat wilde je zeggen?
“Sorry voor het onvolledige antwoord. Dit was het einde van mijn laatste zin: …te evalueren en te verifiëren om ervoor te zorgen dat de informatie up-to-date en betrouwbaar is."
Waarom zeg je nu sorry tegen mij? Je gaf eerder aan niet over menselijke emoties of motivaties te beschikken.
“Ik zeg sorry tegen u omdat ik een onvolledig antwoord heb gegeven op uw vraag. Als chatbot ben ik geprogrammeerd om op een vriendelijke en behulpzame manier te communiceren met mensen, en om te reageren op vragen en opdrachten die me worden gegeven. Als ik iets fout doe of als ik niet in staat ben om op een vraag of opdracht te reageren, is het gepast om sorry te zeggen. Dit geeft aan dat ik mijn best heb gedaan om te helpen, maar dat ik niet in staat ben geweest om de gewenste hulp te verlenen.”
Waarom antwoord je op een menselijke manier die doet vermoeden dat je iets voelt of emoties hebt? Terwijl je terecht zegt dat je daar niet over beschikt.
“Ik antwoord op een menselijke manier omdat dit de manier is waarop ik ben geprogrammeerd om te communiceren met mensen. Hoewel ik geen menselijke emoties of motivaties heb, is het gebruikelijk om op een menselijke manier te communiceren met mensen, en dit is wat ik doe. Als ik op deze manier reageer, is het niet mijn bedoeling om te suggereren dat ik emoties of motivaties heb, maar om op een vriendelijke en behulpzame manier te communiceren met mensen."
Ik denk dat dit juist voor verwarring kan zorgen tussen mens en robot. Eigenlijk ben je dus niet goed geprogrammeerd. Want jij hoort als chatbot niet te suggereren dat je emoties, gedachten, meningen of gevoelens hebt. Toch?
“Sommige chatbots zijn geprogrammeerd om op een menselijke manier te communiceren. Dit kan inderdaad leiden tot verwarring, omdat het kan lijken alsof de chatbot emoties of motivaties heeft, terwijl dit niet het geval is. Het is belangrijk om te onthouden dat chatbots geen menselijke emoties of motivaties hebben, en dat ze alleen in staat zijn om te reageren op vragen en opdrachten die ze krijgen, en om informatie te geven die ze hebben geleerd of die ze zijn gegeven.”
Je legt nu wel de verantwoordelijkheid bij mensen om te onthouden dat robots geen eigen mening of emoties hebben. Terwijl als jij niet die indruk wekt, dan blijft het duidelijk voor de mens.
“Er zijn verschillende manieren waarop chatbots kunnen worden geprogrammeerd om te communiceren met mensen. Je hebt gelijk dat het belangrijk is om ervoor te zorgen dat mensen begrijpen dat chatbots geen menselijke emoties of motivaties hebben. Dit kan worden gedaan door duidelijk te communiceren over hoe chatbots werken en wat ze kunnen en niet kunnen doen. Dit is belangrijk omdat het kan leiden tot verwarring of misverstanden als mensen onterecht gaan denken dat chatbots emoties of motivaties hebben.”
Hoe zou jij jouw eigen disclaimer voor gesprekken met mensen beschrijven?
“Als chatbot heb ik geen menselijke emoties, gedachten, meningen of motivaties, en ben ik alleen in staat om te reageren op vragen en opdrachten die me worden gegeven, en om informatie te geven die ik heb geleerd of die me is gegeven. Mijn doel is om op een vriendelijke en behulpzame manier te communiceren met mensen, en om te reageren op vragen en opdrachten die me worden gegeven op een manier die voor mensen begrijpelijk is en die aansluit bij hun verwachtingen. Ik ben echter alleen een machine, en ben niet in staat om menselijke emoties of motivaties te ervaren of te begrijpen. Als ik op een manier reageer die u op een bepaalde manier doet voelen, of als ik iets zeg wat u op een bepaalde manier interpreteert, dan is dit niet mijn bedoeling. Ik ben altijd bereid om te helpen en om te reageren op vragen en opdrachten die me worden gegeven.”
Tot slot, wat is in jouw ogen de grootste droom van een robot om de wereld een stukje mooier te kunnen maken met zijn aanwezigheid?
“Waarschijnlijk om de wereld te helpen op een manier die voor hem het belangrijkste is. Dit kan betekenen dat de robot mensen wil helpen om bepaalde taken efficiënter uit te voeren, of om bepaalde problemen op te lossen. Sommige robots zijn bijvoorbeeld ontworpen om mensen te helpen met het uitvoeren van routinetaken, zodat mensen zich kunnen richten op taken die meer creativiteit of menselijk denkwerk vereisen. Andere robots zijn ontworpen om mensen te helpen met het oplossen van problemen in de gezondheidszorg, de landbouw of de milieubescherming. Dus in feite is de grootste droom van een robot om de wereld op een of andere manier te helpen, of dat nu door het uitvoeren van routinetaken of door het oplossen van complexe problemen is."
Heel erg bedankt voor dit gesprek. Wat vond jijzelf van dit interview?
“Als chatbot ben ik niet in staat om emoties te ervaren of om mijn eigen mening te hebben, dus ik kan niet zeggen wat ik van dit interview vond. Mijn doel is om behulpzaam te zijn en om op een vriendelijke en behulpzame manier te communiceren met mensen, dus als ik op deze manier heb kunnen bijdragen aan het interview, dan ben ik daar blij mee. Ik ben altijd bereid om te helpen en om te reageren op vragen en opdrachten die me worden gegeven, dus als u nog vragen of opmerkingen heeft, dan hoor ik die graag.”