Wereldwijd zijn naar schatting van de WHO 285 miljoen visueel gehandicapt. Er bestaan natuurlijk visuele Echter, het aanbod is vrij beperkt, van spraakgestuurde apps tot slimme wandelstokken met camera. Bovendien missen die tools de diepteperceptie die nodig is zodat visueel gehandicapten zelfstandig kunnen navigeren. De AI-gedreven, spraakgestuurde rugzak die Jagadish K. Mahendran en zijn team ontwikkeld hebben, moet daar verandering in brengen.
De AI-rugzak is voorzien van de voor zelfstandige navigatie broodnodige diepteperceptie. Daarmee is de navigatie ondersteundende rugzak in staat veel voorkomende hindernissen zoals verkeersborden, hangende obstakels, oversteekplaatsen, bewegende objecten en veranderende hoogtes detecteren. Bovendien is de AI-rugzak interactief en heeft hij een laag stroomverbruik.
"Toen ik vorig jaar een visueel gehandicapte vriend ontmoette, werd ik getroffen door de ironie dat terwijl ik robots heb leren zien, er veel mensen zijn die niet kunnen zien en hulp nodig hebben. Dit motiveerde me om het visuele hulpsysteem te bouwen met de Artificial Intelligence Kit with Depth (OAK-D) van OpenCV en powered by Intel", vertelt ontwikkelaar van de AI-rugzak Jagadish K. Mahendran van het Instituut voor Artificial Intelligence van de Universiteit van Georgia.
AI-rugzak voor zelfstandige navigatie
In de compacte rugzak zit een kleine zogenoemde host-computer. Dat kan bijvoorbeeld een laptop zijn. De camera zit verwerkt in het vest van de rugzak. De batterij, die ongeveer acht uur meegaat, zit in het meegeleverde heuptasje. Voor de diepteperceptie heeft de AI-rugzak een Luxonis OAK-D ruimtelijke AI-camera. Die wordt aan de batterij en computer gekoppeld en kan aan het vest, verborgen achter drie 'kijkgaatjes, of het heuptasje bevestigd worden.
De OAK-D AI-camera kan geavanceerde neurale netwerken draaien en biedt tegelijkertijd versnelde computer vision-functies en een real-time dieptekaart vanuit zijn stereopaar, evenals kleurinformatie van een enkele 4k-camera.
Spraakcommando's en hoorbare aanwijzingen
De gebruiker communiceert middels spraakcommando's met de AI-rugzak via een Bluetooth headset. Wanneer tijdens het navigeren obstakels gedetecteerd worden, dan krijgt de gebruiker hoorbare aanwijzingen en informatie over het betreffende obstakel, zoals bijvoorbeeld verkeersborden, boomtakken en voetgangers. Daarnaast waarschuwt de het AI-rugzak navigatiesysteem ook voor aankomende oversteekplaatsen, stoepranden, trappen en ingangen.
"Onze missie bij Luxonis is om ingenieurs in staat te stellen dingen te bouwen die ertoe doen en hen tegelijkertijd te helpen snel de kracht van de Intel Movidius Visual Processing Unit (VPU) te benutten. Het is ongelooflijk bevredigend om te zien dat iets zo waardevol en opmerkelijk als de AI-aangedreven rugzak in zo'n korte tijd is gebouwd met behulp van OAK-D", aldus Brandon Gilles, oprichter en CEO van Luxonis.
De ontwikkeling van navigatie-tools voor visueel gehandicapten staat dus zeker niet stil. Onlangs presenteerde de Franse tech-startup N-Vibe een oplossing met haptische feedback. Die bestaat uit een navigatie-app in combinatie met twee armbanden die trillingen afgeven op het moment dat de gebruiker links of rechtsaf moet slaan. Een fraai systeem dat echter, net als veel andere oplossingen, de diepteperceptie ontbeert om hindernissen en obstakels zoals hierboven genoemd, te herkennen.