Deepfake-technologie helpt bij verwerken van trauma’s

di 1 oktober 2024 - 14:00
AI
Nieuws

Met behulp van deepfake-technologie is het mogelijk om een virtuele avatar te creëren waarmee cliënten in de ggz trauma’s beter kunnen verwerken. Zo kan bijvoorbeeld een slachtoffer van een misdaad praten met een dader: veiliger dan een echte ontmoeting en volgens gebruikers net zo levensecht. Theo Gevers, hoogleraar aan de Universiteit van Amsterdam (UvA) werkt aan deze therapeutische inzet van deepfake-technologie.

Gevers, groepsleider van de Computer Vision research group, werkt al zijn hele carrière aan beeldherkenning. Eerst ging dat handmatig, totdat AI-technologie deep learning opkwam. Daarmee werd beeldherkenning veel eenvoudiger en sneller mogelijk. Het genereren van beelden middels generatieve AI-technologie maakte een volgende stap mogelijk: het genereren van beelden. Daarbij ziet Gevers toepassingsgebieden zoals klimaatvoorspelling, nieuwe medicijn- en materiaalontwikkeling en gezondheidzorg.

Maken en detecteren deepfakes

Al in 1997 begon Gevers de mogelijkheid te onderzoeken om deep fakes te maken en te vinden. Daarnaast onderzochten hij en zijn team toepassingen zoals trauma- en rouwverwerking. Enkele jaren geleden kwam gen-AI op grote schaal beschikbaar via toepassingen zoals OpenAI’s ChatGPT en raakte het onderzoek in een stroomversnelling

In samenwerking met trauma-experts zoals psychologisch onderzoekers en GGZ-therapeuten werden veelbelovende resultaten geboekt, vertelt Gevers. “Voor sommige mensen kan rouw heel problematisch zijn, bijvoorbeeld als iemand plotseling of op een gewelddadige manier overlijdt. Deepfake-therapie als onderdeel van rouwbehandeling kan nabestaanden helpen.”

Inzet van deepfake

Inmiddels lopen er meerdere onderzoeken naar de inzet van deepfake-technologie bij therapeutische sessies voor zaken zoals depressie, trauma, rouw en PTSS. Zo kan de stem van een therapeut tijdens een videosessie gebruikt worden in combinatie met het beeld van een mogelijke dader van een misdrijf. Ook kan, wanneer beschikbaar, de stem van de mogelijke dader over die van de therapeut gelegd worden.

De therapeuten, die de avatars aansturen, werken met scripts. Hierbij is van tevoren goed nagedacht wat zij het beste kunnen antwoorden op bepaalde vragen. Zo wordt voorkomen dat bijvoorbeeld slachtoffers van een verkrachting die worstelen met de vraag of zij (deels) schuld zouden hebben, in gesprek met een echte dader verder gekwetst worden.

De visuele impact, het zien van de mogelijke dader, maakt volgens Gevers veel indruk. Met de stem erbij is de impact nog iets groter. Daarnaast is het mogelijk om de echte bewegingen van de therapeut te gebruiken, maar soms wordt er ook een ‘loop’ gemaakt waardoor 20 seconden bewegend beeld telkens wordt herhaald. Iets dat volgens Gevers nauwelijks opvalt.

Cliënten die deelnemen aan de experimenten geven aan dat de inzet van deepfake-technologie hen helpt bij trauma- en rouwverwerking. De methode wordt dan ook al vaker gebruikt om slachtoffers op een veilige manier te confronteren met de daders.

Vervolgstappen

Gevers stelt nu samen met psychologen, ethici en trauma- en rouwdeskundigen richtlijnen op die het welzijn van de slachtoffers centraal stellen. De deepfake-technologie is ondergebracht bij startup 3DUniversum, waarvan Gevers de medeoprichter is. Therapeuten kunnen zich aanmelden bij het platform, en na een intake daar zelf een foto en eventueel audiobestand uploaden om een deepfakesessie te organiseren.

Als volgende stap wil Gevers werken aan het automatiseren van de scripts voor gesprekken vóór en na een therapie. Zo moet er een AI-model getraind worden om een intakegesprek te verzorgen en daarmee het beperkte aantal therapeuten te ontlasten. Zo’n intake geeft een uitgebreid en gedetailleerd beeld van de psychische, medische, sociale en persoonlijke achtergrond van een cliënt. Dit helpt een behandelaar zoals een psycholoog om de problematiek van de cliënt beter te begrijpen, een juiste diagnose te stellen en een passend behandelplan op te stellen.

Lees ook deze blog over de mogelijkheden voor therapeutische inzet van deepfake-technologie.