Dagelijks opinie, nieuws en achtergronden

Inloggen
Laatste nieuws

Spreken via hersensignalen

Hoogleraar Nick Ramsey: ‘door communicatie behouden onze patiënten kwaliteit van leven’

1 reactie
Erik van 't Woud
Erik van 't Woud

Neuralink, de start-up van miljardair Elon Musk, heeft grote plannen: het wil verlamde patiënten op den duur kunnen voorzien van een hersenimplantaat waardoor ze toch weer apparaten kunnen bedienen of mobiel kunnen worden. Musk – nooit verlegen om wat grootspraak – deed naar eigen zeggen al experimenten met ratten, een varken en een aap. Maar hoe reëel is zijn visie eigenlijk?

Neurowetenschapper Nick Ramsey, hoogleraar cognitieve neurowetenschap, (Hersencentrum Universitair Medisch Centrum Utrecht) doet al jaren onderzoek op dit gebied en kent de stand van zaken. Hij blijft met beide voeten op de grond, ook al omdat er nog heel wat fundamentele vragen over de werking van de hersenen openstaan. ‘Neem bijvoorbeeld’, merkt hij in een interview via een beeldverbinding op, ‘de onderzoeker die een aap had geleerd om via een elektrode in de hersenen een robotarm te besturen waarmee hij voedsel kon pakken. De onderzoeker ontdekte dat die arm ook wild begon te bewegen als er iemand de ruimte binnenkwam en zo de aandacht trok van de aap. De betrokken neuronen hadden dus kennelijk ook nog andere functies. Ik maak in dit geval nog weleens de vergelijking met de negentiende-eeuwse frenologie. Toen onderscheidde men bijvoorbeeld een hersenfunctie als “zedigheid”. Nu lachen wij daarom en weten we dat een dergelijke functie niet bestaat, maar ook wij beschouwen de hersenen nog steeds als modulair opgebouwd, met neuronen die specifieke functies hebben. Nu noemen we het bijvoorbeeld: aansturen van de vingers. Dat lijkt hard gecodeerd, maar het voorbeeld van de aap laat zien dat dit niet hoeft te kloppen.’

‘De vraag is: wanneer komt de intentie om te bewegen in de motorische schors aan?’

Honkbal

Hoe het proces van aansturen en ook aanleren van een beweging in de hersenen in zijn werk gaat, is niet duidelijk. ‘Het eenvoudigste voorbeeld is honkbal. De slagman staat klaar om de bal te slaan. Maar als die wijd is, moet hij op het laatste moment toch niet slaan, anders kost dat een punt. Je kunt de intentie om te bewegen dus blokkeren, maar hoe later in het proces: hoe moei­lijker dat is. De vraag is dus: wanneer komt de intentie om te bewegen in de motorische schors aan?’ Met zulke fundamentele vraagstukken krijg je te maken als je een brain-computer-interface (BCI) wilt bouwen.

Toch begint Ramsey het interview met uitleg hoe zijn team erin geslaagd is patiënten met een locked-insyndroom te voorzien van zo’n BCI, waardoor ze – zij het enigszins rudimentair – kunnen communiceren met de buitenwereld. In 2015 voorzagen zij een vrouw met ALS van een dergelijk systeem: het leverde een mooie publicatie op in NEJM. Momenteel volgt de Utrechtse hoogleraar drie patiënten met een BCI.

In feite is de hulp die deze patiënten krijgen, zo beaamt Ramsey, een extreme vorm van gepersonaliseerde geneeskunde. ‘Maar’, zegt hij relativerend, ‘het is niet helemaal duidelijk of wat wij doen onder geneeskunde valt. Wij herstellen weliswaar functionaliteit, maar onze patiënten zijn wel uitbehandeld, zoals dat heet.’ Dat bij uitstek ALS-patiënten baat kunnen hebben bij deze aanpak, blijkt volgens Ramsey uit onderzoek: ‘We weten dat het leeuwendeel van deze patiënten een goede kwaliteit van leven behoudt mits ze, ook bij toenemende beperkingen, met hun naasten kunnen communiceren.’

Muisklik

Hoe werkt het in grote lijnen? Bij de patiënt zijn onder de schedel elektroden geplaatst. En verder is onder het sleutelbeen een kleine zender aangebracht. Deze zender ontvangt de signalen van de elektroden via onderhuidse bedrading, versterkt ze en stuurt ze draadloos naar een spraakcomputer. De patiënte bedient vervolgens die spraakcomputer door in gedachten haar vingers te bewegen. Dit verandert het hersensignaal onder de elektroden. Dat signaal wordt vervolgens omgezet in een muisklik. Op een scherm voor haar kan ze het alfabet zien, plus enkele extra functies zoals het verwijderen van een letter of woord en het selecteren van woorden op basis van de letters die ze al heeft gespeld. De letters op het scherm lichten een voor een op. Ze selecteert een letter door de muisklik op het juiste moment met haar brein te beïnvloeden. Op die manier kan ze woorden schrijven, letter voor letter, die vervolgens worden uitgesproken door de spraakcomputer. Het duurt een tijdje voordat patiënten dit onder de knie hebben. Voor wie niet meer kan bewegen, is het louter mentaal aansturen van de motorcortex kennelijk niet gemakkelijk. Het duurt een paar maanden voordat ze toe zijn aan één klik per drie seconden.

‘Breinsignalen omzetten naar spraak, dat is de toekomst’

Neuronavigatie

Ramsey: ‘We richten de elektroden op het gebied dat de hand representeert, dat ongeveer een tiende van de motorcortex beslaat. Om zeker te weten dat we de juiste plek te pakken hebben, maken we eerst een functionele MRI om te bepalen waar zich dat gebied bij een patiënt precies bevindt, want er bestaan kleine individuele verschillen. Met neuronavigatie kunnen we de elektrodes vervolgens operatief zeer nauwkeurig aanbrengen. Ze worden direct onder de schedel op het weefsel geplaatst. Zo registreren we de elektrische activiteit alleen van dat gebiedje. We meten daarbij niet de activiteit van een neuron of een groepje neuronen, maar het “lawaai” van enige honderdduizenden neuronen. Ik denk dat je ongeveer een miljoen neuronen nodig hebt om je vinger te bewegen, maar die doen niet allemaal tegelijk mee. Er zijn veel neuronen die af en toe meedoen. Door heel veel neuronen te registreren middelt dat verschijnsel uit. Onze ervaring is dat we met deze methodiek een bijna 100 procent betrouwbaar signaal krijgen. Daarmee bedoel ik: wil de patiënt een klik maken dan gebeurt dat ook, en omgekeerd: wil hij of zij dat niet, dan gebeurt er ook niets. Collega-onderzoekers in de Verenigde Staten hanteren een andere techniek. Zij werken met kleine naaldjes van 1 millimeter in lengte die wel de activiteit van enkele neuronen kunnen meten. Je hebt dan meestal vierhonderd tot duizend van die naaldjes nodig. Dat geeft een minder betrouwbaar signaal, maar zij kunnen weer meer detail onderscheiden, zoals verschillende vingers, en dat is voor ons weer lastiger.’

Taalcentrum

Ideaal zou uiteraard zijn als breinsignalen direct, dus zonder tussenkomst van muiskliks, kunnen worden omgezet in spraak. ‘Dat is inderdaad de toekomst’, zegt Ramsey. ‘Wat we nu weten is dat we daarbij niks hebben aan de taalcentra in de hersenen. Ze mediëren wel taal, maar hoe we daar specifieke woorden uit moeten halen, daar hebben we geen idee van.’ Een Amerikaanse groep meent een oplossing te hebben: ze maakten een AI-model van het menselijke ‘vocale systeem’. Vijf epilepsiepatiënten leverden daarvoor de ‘input’. Ze waren allen voorzien van geïmplanteerde elektrodes waarmee hun hersenactiviteit werd gemonitord als onderdeel van een epilepsiebehandeling. Dat gaf de onder­zoekers de gelegenheid de activiteit van de hersengebieden te registreren die betrokken zijn bij de aansturing van spraak. Ze lieten de patiënten honderden zinnen uitspreken. De informatie over de hersenactiviteit combineerden ze vervolgens met data uit eerder onderzoek over de wijze waarop bewegingen van de tong, lippen, kaken en larynx uiteindelijk geluid produceren. Met dat alles werd een deep learning-algoritme ‘gevoed’. Dat algoritme kon vervolgens na uitvoerige ‘training’ voorspellen welk woord, of beter nog welke zin, iemand wil uitspreken. Dat geeft het door aan een decoder die de signalen omzet in gesproken woord. Die meestal – maar lang niet in alle gevallen – verstaanbaar waren.

Maar of juist patiënten die zelf niet kunnen praten daarmee geholpen zijn, betwijfelt Ramsey. ‘Het is zeer de vraag of je de decoder die gebouwd is met data van patiënten die kunnen spreken en zichzelf dus horen, wat weer decodeerbare signalen geeft op de auditieve schors, kunt toepassen bij mensen die dat niet kunnen.’ Hij wil daarom nagaan of je ook in dit geval alleen op de sensori­motorcortex kunt vertrouwen. ‘We hebben voor onze spraak en bewegingen van ons gezicht een groot aantal spieren die allemaal een representatie hebben op dat deel van het brein. Daar moeten we bij spraaksyntheses dus gebruik van maken.’

Maar daar heb je wel andersoortige elektrodes voor nodig. ‘Twee derde van de grijze stof van de neocortex ligt namelijk in de sulci en daar kunnen we niet goed bij. Er wordt gedacht aan dunne naaldjes langs de witte stof, achter de grijze stof. Maar de kleine naaldjes worden binnen een jaar of vijf door het hersenvocht aangetast – dus dat probleem is nog niet opgelost.’

Eén spiertje

De vraag is of ook andere dan locked-inpatiënten op den duur voordeel kunnen hebben van een BCI, zoals Neuralink impliceert. Ramsey: ‘Onze gouden regel is: als je maar één spiertje kunt bewegen, dan is dat altijd beter dan wat wij kunnen bieden. Maar als we een apparaat kunnen uitrusten met veel meer versterkers dan nu mogelijk is, dan kan er toch een moment komen dat BCI beter gaat werken dan bestaande hulpmiddelen. Dan zouden we ook minder ernstig beperkte mensen kunnen helpen. Wij denken bijvoorbeeld aan kinderen met cerebral palsy.’

Ook het met een BCI aansturen van een robotarm of een exoskelet zou op den duur mogelijk kunnen zijn, maar of het zover komt, weet hij niet. ‘De risico’s zijn groot’, zegt Ramsey. ‘Een enkel signaaltje dat niet goed is gedecodeerd kan al leiden tot een val. Zo’n exoskelet moet van hyperintelligente mechanica worden voorzien, en dus vol zitten met sensoren en camera’s om te leren van mogelijke obstakels in de omgeving. Het grote probleem is: dat wordt extreem duur. Een robotarm bijvoorbeeld kost al gauw een half miljoen. Daarom zijn wij daar nu niet mee bezig.’

Lees meer
download dit artikel (pdf)
neurologie ALS
  • Henk Maassen

    Henk Maassen (1958) is journalist bij Medisch Contact, met speciale belangstelling voor psychiatrie en neurowetenschappen, sociale geneeskunde en economie van de gezondheidszorg.  

Dit artikel delen
Op dit artikel reageren inloggen
Reacties
  • Jan keppel hesselink, pijnarts, Bosch en Duin 18-03-2021 22:43

    "Dit stuk staat bol van wat ik graag noem 'neurofilosofie', terwijl veel zinvoller zou zijn om te kijken welke experimenten Egon dan wel gedaan heeft, hoe hij ze uitvoerde en wat de resultaten waren. De vraag in dit artikel is: Hij deed experimenten met ratten, een varken en een aap. Maar hoe reëel is zijn visie eigenlijk? En vervolgens wordt de weg van de neurofilosofie ingeslagen. Samen met de kwalificatie 'grootspraak' vind ik dit een heel bizarre aanpak. Of Egon heeft een te gek begin gemaakt, of zijn experimenten deugen niet. Dat gaan we toch niet 'bespiegelend' bespreken? En dan de context steeds meer de kant uit sturen om het vooroordeel 'grootspraak' te steunen???
    Een fatsoenlijke due diligence is het enige dat zin heeft n.a.v. zijn experimenten, niet een netwerk van filosofische en neurologische opmerkingen!"

 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.