Krijgen we algoritmes met gevoel?

vr 11 april 2025
Krijgen we algoritmes met gevoel?
Robotica
Premium

Onlangs viel me weer op hoe lastig het soms kan zijn voor mensen om goed om te gaan met hun medicatie. Zo herkent waarschijnlijk iedereen wel de vraag: ‘Had ik die pil nou wel of niet al genomen?’. Meestal vragen we het dan een ander die ons simpelweg geruststelt met behulp van wat praktische checks. Maar stel, je vraagt het aan een slimme speaker die vervolgens met een monotone stem antwoordt: "Ja, om 14:30 heeft u uw medicatie genomen". Waarschijnlijk zucht iemand dan opgelucht en fluistert iets als: "dank je wel." Die kleine spontane uiting van dankbaarheid richting een apparaat dat in werkelijkheid onze dankbaarheid niet kan voelen, dat vind ik nou een bijzonder fenomeen.

AI-systemen zullen waarschijnlijk steeds verfijnder worden in het herkennen van emoties. Wat brengt ons dat? Wat mij persoonlijk in dat soort ontwikkelingen bezighoudt is de vraag of AI ooit werkelijk empathisch kan zijn. Deze vraag raakt ook wederom de kern van wat het eigenlijk betekent om menselijk te zijn. En heeft verstrekkende gevolgen voor de toekomst van de zorg, waar alles draait om empathie en compassie die van groot (en soms levens-) belang zijn.

Wezenlijk verschil

In het dagelijks taalgebruik gebruiken we 'empathie' en 'compassie' vaak door elkaar, maar ze zijn wezenlijk verschillend:

  • Empathie is het cognitieve en emotionele vermogen om de gevoelens van een ander te herkennen, te begrijpen en mee te voelen. Het is als een soort emotionele spiegeling.
  • Compassie gaat een stap verder. Het is niet alleen het herkennen en voelen van andermans leed maar ook de impuls om te helpen. Compassie zet aan tot actie.

Dit verschil is cruciaal voor onze discussie over AI. Want wat kan technologie eigenlijk wel en niet?

De huidige generatie AI-systemen leert om emoties te herkennen via gezichtsuitdrukkingen, stemanalyse of lichaamstaal. Ze kunnen zelfs geprogrammeerd worden om gepaste emotionele reacties te tonen, maar ze ervaren zelf geen emoties.

Gesimuleerde empathie

Ik herinner me één van mijn eerste sociale-roboticaprojecten, waarbij we een onderzoek deden naar de effectiviteit van de Paro robot zeehond. Bewoners knuffelden innig met het zeehondje en zeiden dan trots: "Dit is Paro. Hij luistert altijd naar me". Zorgprofessionals gaven aan dat bewoners heel goed wisten dat het een robot is, maar ondanks dat besef troost, rust en nabijheid ervoeren.

De empathie die huidige AI-systemen tonen, is in essentie een geavanceerde vorm van patroonherkenning, gevolgd door geprogrammeerde reacties. Toch blijkt uit steeds meer praktijkonderzoek dat deze 'gesimuleerde empathie' wel degelijk effectief kan zijn:

  • Ouderen in verzorgingshuizen bouwen emotionele banden op met sociale robots, wat leidt tot meetbare vermindering van eenzaamheid.
  • Chatbots die therapeutische gesprekstechnieken simuleren, kunnen mensen helpen bij het verwoorden van moeilijke emoties.
  • AI-gestuurde companions laten veelbelovende resultaten zien bij het ondersteunen van patiënten met chronische aandoeningen.

Maar als gesimuleerde empathie werkt, maakt het dan niet uit dat de machine zelf geen emoties ervaart? Voor sommige toepassingen wellicht niet, maar voor diepere vormen van zorg blijft er een fundamenteel verschil bestaan tussen simulatie en authenticiteit.

Grenzen algoritmische compassie

Mijn moderne AI-collega Claude vatte het onlangs mooi samen: "Robots kunnen protocollen volgen, maar ze kunnen niet improviseren met hun hart." Hoewel AI indrukwekkend vordert in het simuleren van empathische reacties, stuit ze dus nog altijd op fundamentele beperkingen wanneer het op compassie aankomt:

  • Geen intrinsieke motivatie - machines handelen volgens geprogrammeerde doelen, niet vanuit een innerlijke drijfveer.
  • Geen gedeelde kwetsbaarheid - compassie wortelt in de herkenning van gedeelde menselijke kwetsbaarheid.
  • Contextloze emotieherkenning - AI kan emoties identificeren maar mist het intuïtieve begrip van de complexe levensverhalen die aan emoties betekenis geven.
  • Algoritmische bias - AI-systemen weerspiegelen onvermijdelijk de impliciete waarden en vooroordelen van hun ontwerpers.

Deze beperkingen zijn reëel, maar dat betekent niet dat we de mogelijkheden van empathische AI moeten afschrijven.

Unieke sterke punten

Het is 2025 en er wordt een steeds groter beroep gedaan op mantelzorgers. Stel dat iemand een AI-companion heeft die kalmerend praat en herinneringen ophaalt als zelfstandig wonende beginnend dementerende mensen angstig of verward zijn – juist op de momenten dat er geen zorgprofessionals of mantelzorgers beschikbaar zijn.

De toekomst van empathische AI in de zorg ligt niet in het doel om een perfecte kopie van de menselijke empathie te bereiken. Het gaat om het ontwikkelen van systemen die unieke emotionele capaciteiten bijdragen, zoals:

  • Emotionele constante - AI-systemen kunnen constante emotionele ondersteuning bieden zonder uitputting te ervaren.
  • Oordeelvrije ruimte - AI kan potentieel vrijere emotionele ruimte bieden zonder impliciete oordelen.
  • Emotionele patronen herkennen - AI kan subtiele veranderingen in emotioneel welzijn over lange tijdsperioden detecteren.
  • Gepersonaliseerde emotionele interactie - toekomstige systemen kunnen zich aanpassen aan individuele voorkeuren.

De echte doorbraak komt van systemen die nieuwe vormen van emotionele ondersteuning ontwikkelen die juist uniek zijn vanuit hun niet-menselijke aard.

Hybride model emotionele zorg

Stel, Emma, 75, herstelt in 2030 thuis van een heupoperatie. Ze heeft:

  • Een AI-companion die 24/7 beschikbaar is voor basale emotionele ondersteuning.
  • Een menselijke zorgprofessional die meermaals per week langskomt voor diepgaande emotionele verbinding.
  • Een familielid die, ondersteund door AI-suggesties, beter begrijpt hoe Emma kan worden ondersteund.

Het meest kansrijke toekomstscenario is een combinatie van menselijke en kunstmatige empathie waarin:

  • AI-systemen continue emotionele monitoring bieden waardoor menselijke zorgprofessionals meer ruimte krijgen voor diepgaande empathische verbinding.
  • Empathische AI-systemen als emotionele bruggen fungeren waar spraak-, culturele of cognitieve barrières menselijke empathie bemoeilijken.
  • Zorgprofessionals worden opgeleid in nieuwe competenties voor samenwerking met empathische technologie.
  • De mens zelf bepaalt welke aspecten van emotionele ondersteuning zij aan AI toevertrouwen.

Ethische vragen

Er liggen wel serieuze ethische uitdagingen op de loer, zoals:

  • Transparantie - hoe communiceren we eerlijk over het gesimuleerde karakter van AI-empathie?
  • Data-eigendom - wie heeft zeggenschap over jouw emotionele data?
  • Voorkoming van empathische erosie - hoe zorgen we dat interactie met kunstmatige empathie onze capaciteit tot menselijke empathie niet vermindert?
  • Rechtvaardige toegang - hoe garanderen we dat niemand wordt uitgesloten van emotionele zorg?

Juist Nederland kan hierin een voortrekkersrol vervullen met haar sterke traditie van ethische reflectie in de gezondheidszorg.

Nieuwe empathische ecologie

In de sociale-roboticaprojecten die ik begeleidde, hoor ik nog steeds de echo: "De robot voelt niet wat ik voel,  maar de robot ziet wel wat ik nodig heb. Soms is dat genoeg." De toekomst van empathische AI in de zorg ligt niet in de vraag of machines echt kunnen meeleven, maar in hoe we een zorgcontext kunnen creëren waarin technologische en menselijke vormen van empathie elkaar versterken. Dit vraagt om:

  • Onderzoek naar unieke vormen van machine- empathie.
  • Opleidingsprogramma's voor samenwerking met empathische technologie.
  • Beleid dat ethische innovatie stimuleert en waarborgt.

Ik weet al wat mijn oma zou zeggen als ik met een zorgrobot aan haar verpleegbed zou staan: "Dat ding begrijpt me de helft van de tijd niet," wijzend naar de robot, om dan lachend te roepen "maar jij gelukkig ook niet altijd!" waarschijnlijk gevolgd door "al is het verschil dat jij het in elk geval probeert en voelt wat ik voel".

Misschien ligt daar wel de essentie. Machines zullen nooit werkelijk begrijpen wat het betekent om mens te zijn – om te lijden, om te hopen, om lief te hebben maar ze hoeven ook niet te doen alsof. De echte kracht van empathische AI ligt niet in het kopiëren van menselijke kwaliteiten maar in het creëren van een nieuw soort kracht in onze zorgcontext. Een kracht die niet concurreert met menselijke compassie, maar ons als mens misschien juist wel bevrijdt van beperkingen die we nu over het hoofd zien. 

CV

Xenia Kuiper is innovatie- & transformatiespecialist in de zorg met een specialisatie in robotica & AI en is actief met haar eigen organisatie- & adviesbureau Xinnovate.