ALS-patiënt spreekt met behulp van een nieuwe innovatieve BCI

vr 16 augustus 2024 - 07:02
Technologie
Nieuws

Wetenschappers van UC Davis health hebben een nieuwe brein-computer interface (BCI) ontwikkeld die ALS-patiënten in staat stelt weer te communiceren. De BCI vertaalt de hersensignalen van de patiënt in spraak en is met een nauwkeurigheid van 97 procent het beste systeem in zijn soort. De sensoren van de BCI zijn al geïmplanteerd bij een ALS-patiënt die door de ziekte met ernstige spraakstoornissen kampte. Direct na de activering van het systeem kon deze patiënt via een computer die zijn hersensignalen omzet in spraak weer normaal praten.

ALS tast de zenuwcellen aan die de beweging in het hele lichaam regelen. De ziekte leidt tot een geleidelijk verlies van het vermogen om te staan, lopen en de handen te gebruiken. Het kan er ook toe leiden dat iemand de controle verliest over de spieren die gebruikt worden om te spreken, waardoor de patiënt niet meer verstaanbaar kan praten.

Hersensignalen vertalen naar spraak

De nieuwe technologie wordt ontwikkeld om de communicatie te herstellen voor mensen die niet kunnen spreken door verlamming of neurologische aandoeningen zoals ALS. Het kan hersensignalen interpreteren wanneer de gebruiker probeert te spreken en zet deze om in tekst die hardop wordt 'uitgesproken' door de computer.

“Onze BCI-technologie heeft een verlamde man geholpen om te communiceren met vrienden, familie en verzorgers. Deze technologie heeft de meest nauwkeurige spraakneuroprothese (apparaat) laten zien die ooit is gerapporteerd”, vertelt David Brandman, neurochirurg bij UC Davis. Hij is mede-hoofdonderzoeker en co-senior auteur van het onderzoek naar nieuwe BCI dat onlangs werd gepubliceerd in de New England Journal of Medicine.

Communicatiebarrière doorbreken

De nieuwe BCI zet de hersenactiviteit van een patiënt om in tekst op een computerscherm. Die tekst wordt vervolgens voorgelezen door de computer. Aan de ontwikkeling en klinische test van het systeem werd deelgenomen door een 45-jarige ALS-patiënt. Deze man had bij het begin van het onderzoek al te kampen met zwakte in zijn armen en benen (tetraparese). Daarnaast was zijn spraak al erg moeilijk te begrijpen (dysartrie) waardoor anderen voor hem moesten tolken.

In juli 2023 implanteerde Brandman de nieuwe BCI bij de patiënt. Hij plaatste vier micro-elektrode arrays in de linker precentrale gyrus, een hersengebied dat verantwoordelijk is voor de coördinatie van spraak. De arrays zijn ontworpen om de hersenactiviteit van 256 corticale elektroden op te nemen.

“We detecteerden dat deze sensoren poogden om spieren te laten bewegen en praten. We maakten opnames van het deel van de hersenen dat deze commando's naar de spieren probeert te sturen. En we luistern daar in feite naar en we vertalen die patronen van hersenactiviteit in een foneem, zoals een lettergreep of de eenheid van spraak, en dan de woorden die ze proberen te zeggen”, legt neurowetenschapper Sergey Stavisky uit. Hij is assistent-professor aan de afdeling neurologische chirurgie. Hij is mededirecteur van het UC Davis Neuroprosthetics Lab en mede-hoofdonderzoeker van het onderzoek.

Minder foutgevoelig

Ondanks de recente vooruitgang in BCI-technologie zijn de pogingen om communicatie mogelijk te maken traag en foutgevoelig geweest. Dit komt doordat de machine-learning programma's die hersensignalen interpreteren een grote hoeveelheid tijd en gegevens nodig hadden om getraind te kunnen worden. “Eerdere BCI-systemen voor spraak maakten vaak fouten. Dat leidde ertoe dat de patiënt vaak moeilijke te begrijpen was. Ons doel was om een systeem te ontwikkelen dat iemand in staat stelde om begrepen te worden wanneer hij of zij wilde spreken”, aldus Brandman.

De 45-jarige proefpatiënt gebruikte het systeem in diverse, ook spontane, gesprekssituaties. In beide gevallen gebeurde het decoderen van spraak in realtime, met voortdurende updates van het systeem om het nauwkeurig te laten werken. De woorden die het systeem decodeerde uit de hersensignalen werden op een scherm getoond en vervolgens voorgelezen met de stem van de patiënt zoals die voordat de ziekte toesloeg klonk. Daarvoor was de computerstem getraind met behulp van software waarbij gebruik gemaakt werd van bestaande audio opnames van de ‘pre-ALS’ stem van de patiënt. Tijdens de eerste trainingssessie met spraakgegevens had het systeem 30 minuten nodig om 99,6% nauwkeurigheid te bereiken met een woordenschat van 50 woorden.

97% nauwkeurig

Tijdens de eerste twee testsessies groeide de omvang van de potentiële woordenschat tot 125.000 woorden. Met slechts 1,4 uur aan extra trainingsgegevens behaalde de BCI een woordnauwkeurigheid van 90,2% met deze sterk uitgebreide woordenschat. Na verdere gegevensverzameling heeft de BCI een nauwkeurigheid van 97,5% weten te behouden. In totaal werden over een periode van 32 weken 84 sessies gehouden. Daarin werd de BCI meer dan 248 uur gebruikt door de patiënt.

“Op dit moment kunnen we ongeveer 97% van de tijd correct decoderen wat de patiënt probeert te zeggen, wat beter is dan veel commercieel verkrijgbare smartphone-applicaties die iemands stem proberen te interpreteren. Deze technologie is transformerend omdat het hoop biedt voor mensen die wel willen spreken, maar dat niet kunnen. Ik hoop dat technologie zoals deze spraak-BCI toekomstige patiënten zal helpen om met hun familie en vrienden te spreken”, aldus Brandman.

BCI ontwikkeling

Het inzetten van een brein-computer interface (BCI) om patiënten weer in staat te stellen te praten is een ontwikkeling waar ook in Nederland aan gewerkt wordt. Zo onthulden onderzoekers van het UMC Utrecht Hersencentrum in 2022 hun plannen om een volledig implanteerbare brein-computer interface technologie te ontwikkelen voor mensen met het locked-in-syndroom (LIS). Ook bij deze technologie is het doel dat de hersensignalen van een LIS-patiënt met behulp van de BCI wordt omgezet in verstaanbare spraak.

In 2023 kon een patiënt die twintig jaar daarvoor verlamd geraakt was door een beroerte, waarbij ze ook haar spraakvermogen verloor, dankzij een brein-computer interface en kunstmatige intelligentie (AI) weer kon praten. Ook de bij deze doorbraak betrokken wetenschappers hadden een manier gevonden om hersensignalen op te vangen, te interpreteren en over te brengen via een digitale avatar.