AI maakt gezichten cliënten op video onherkenbaar

23 maart 2022
Kepler-beeld-AI
AI
Nieuws

Door het inzetten van de AI-technologieën deep learning en computer vision detecteert de Night Nurse software wanneer cliënten op leeftijd vallen, wanneer ze in fysieke nood verkeren en wanneer dementerende cliënten afdwalen en mogelijk de weg kwijtraken. Zorgpersoneel krijgt een automatische waarschuwing wanneer cliënten hulp nodig hebben.

Geautomatiseerde analyses

De software kan losse sensorsystemen - zoals bedmatten, bewegingssensoren en draagbare paniekknoppen - vervangen. Kepler claimt dat het systeem 99 procent van de valse alarmen elimineert die ouderwetse sensorsystemen geven. Verder werkt de oplossing van het in 2018 opgerichte Kepler met geautomatiseerde analyses van videobeelden.

Zorgpersoneel bekijkt alleen videobeelden als de oorzaak van een val of fysiek ongemak moet worden vastgesteld, bijvoorbeeld om vergelijkbare gevallen in de toekomst te voorkomen. Meestal gaat het om een fragment dat vanaf 30 seconden vóór een val van een cliënt is gemaakt. Bij de nieuwe upgrade zijn de gezichten van het personeel, de cliënten en bezoek in het beeldmateriaal onherkenbaar gemaakt. Zo moet de privacy van cliënten worden gewaarborgd, terwijl de valoorzaak in de kamer toch kan worden vastgesteld.

De toevoeging van het automatisch onherkenbaar maken van gezichten door Night Nurse-software voegt volgens Kepler het hoogst mogelijke niveau van privacy toe, te vergelijken met het automatische anonimiseren van foto’s door bijvoorbeeld Google Maps.

AI helpt bij privacy

“Nu machine learning- tools zich steeds verder verspreiden in de gezondheidszorg, is het van het grootste belang dat deze systemen voordelen bieden zonder dat de privacy en waardigheid van de patiënt in het geding komen”, stelt Harro Stokman, CEO van Kepler Vision Technologies. “Ons systeem biedt al veel meer privacy dan bestaande systemen, omdat de videobeelden alleen worden ‘gezien’ door een algoritme en niet door bewakingspersoneel. Het automatisch onherkenbaar maken van gezichten biedt een extra niveau van privacy voor zowel personeel, cliënten, en hun bezoek.”

Geen vooroordelen

Kepler Vision heeft onlangs samengewerkt met een onderzoeker van vooroordelen bij AI, het bedrijf Code4Thought. Zo wil Kepler er zeker van zijn dat haar machine learning-oplossing geen onbedoelde vooroordelen hebben.

Gebaseerd op de ISO-29119-11 standaard (richtlijnen ontworpen om black-box AI-gebaseerde systemen te testen op nauwkeurigheid en precisie) bewees de analyse van Code4Thought volgens de software-leverancier dat de algoritmes die Kepler gebruikt, in staat zijn om correcte voorspellingen te doen, ongeacht het geslacht van een patiënt. Er zijn ook richtlijnen opgesteld om in alle toekomstige updates vooroordelen van Kepler Vision’s algoritmes te voorkomen.