Kan een hersenscanner onze geheime gedachten lezen?
Zit jij te wachten op een apparaat dat je gedachten kan lezen? Zou je je persoonlijke, geheime gedachten willen onthullen? Waarschijnlijk niet. Maar voor bepaalde patiënten zou het fantastisch nieuws zijn. Zoals Jean-Do uit de film The Diving Bell and the Butterfly (2007), die na een ernstige beroerte wakker wordt in het ziekenhuis en alleen nog maar zijn linkeroog kan bewegen. Hij lijdt aan het locked-in syndroom: hij is bijna volledig verlamd, maar kan wel zien en horen wat er om hem heen gebeurt. Stel je voor dat je niet kunt praten en niet kunt bewegen, dat je niet kunt zeggen dat je pijn of honger hebt. Jean-Do kon tenminste nog met één oog knipperen, maar vele locked-in-patiënten hebben geen enkele mogelijkheid om met de buitenwereld te communiceren. Hoe geweldig zou het voor hen zijn als hun gedachten gelezen konden worden?
‘Ik weet wat je in de scanner denkt!’
Sinds de opkomst van onderzoek met hersenscanners wordt vaak wild gespeculeerd over wat we allemaal zouden kunnen aflezen van deze scans. Met functionele Magnetische Resonantie Imaging (fMRI) bijvoorbeeld kunnen we iemands hersenactiviteit (via veranderingen in de bloedsamenstelling) meten terwijl hij of zij in levenden lijve in de scanner ligt. Tijdens haar fMRI-experimenten grapte een vroegere collega wel eens tegen haar proefpersonen dat ze tijdens het scannen kon zien of ze goed hun best deden, of dat ze stiekem aan iets anders lagen te denken. Ze hoopte hen daarmee te motiveren het experiment goed uit te voeren, maar het was eigenlijk helemaal niet waar. Uit de hersenactiviteit die je met fMRI vindt 1, kun je niet afleiden of iemand op dat moment aan voetbal, zijn aankomende deadline of aan vrijheid van meningsuiting denkt.
Wel kun je een proefpersoon trainen om aan twee verschillende dingen te denken, en op basis van hersenactiviteit proberen te onderscheiden of hij of zij aan het een of aan het ander denkt. Bijvoorbeeld als je je afwisselend voorstelt dat je je linker- en je rechterarm beweegt, dan zullen deze twee gedachten verschillende gebieden in je hersenen activeren.
De twee signalen die we dan meten, kunnen we koppelen aan een computer die bij overwegend ‘linkerarmactiviteit’ een pijltje op een scherm naar links beweegt en bij meer ‘rechterarmactiviteit’ een pijltje op een scherm naar rechts. Zo’n koppeling tussen brein en computer noemt men een Brain-Computer Interface (BCI). Een BCI kan niet zelf bedenken of iemand honger heeft, maar een patiënt kan zo wel leren met zijn gedachten een cursor op een computerscherm te bewegen of letters te typen. Op deze manier kan een patiënt zelf aangeven wat hij wil.
Kiezen uit het alfabet
Er zijn verschillende soorten BCI’s, gebaseerd op verschillende meettechnieken, die elk hun voor- en nadelen hebben. Hersenactiviteit bij een elektro-encefalogram (EEG) 2 wordt door de computer weergegeven als een hersengolf; zo’n signaal gaat namelijk op en neer, soms spontaan, soms als reactie op een bepaalde prikkel. Omdat we het EEG aan de buitenkant van de schedel meten, kunnen we niet precies zeggen waar in het brein een signaal is ontstaan, maar we kunnen wel zien of en hoe het signaal verandert in reactie op een bepaalde stimulus. In de loop der tijd zijn er verschillende kenmerkende golven gevonden die allemaal een naam hebben gekregen. Bijvoorbeeld de P300-golf, 3 die optreedt als een relevante stimulus, bijvoorbeeld een letter of plaatje dat van tevoren is afgesproken, op het scherm verschijnt tussen vele andere letters of plaatjes die niet relevant zijn. De persoon met de EEG-kap op richt dan sterk de aandacht op die bepaalde letter of dat plaatje, en dat wekt een hersengolf op die piekt rond de 300 milliseconden ná de stimulus – vandaar de naam P300. Zo kun je letter voor letter hele woorden of zinnen spellen 4.
Bron: Kijken in het brein © Edda Grol
Twee vragen per uur
Omdat de EEG-BCI niet bij iedereen even goed werkt, wordt ook de minder handzame en duurdere MRI-scanner ingezet als mogelijke BCI, bijvoorbeeld in onderzoek van Bettina Sorger en Rainer Goebel in Maastricht. 5 Een – in dit geval gezonde – proefpersoon lag in de MRI-scanner en dacht aan verschillende handelingen, bijvoorbeeld een pentekening maken of de tafel van vijf opzeggen. Bij elk van deze denkbeeldige handelingen werd een ander patroon van hersengebieden actiever dan de rest van het brein. Die unieke activiteitspatronen werden door de computer aan de letters van het alfabet gekoppeld, waardoor de ingebeelde handelingen elk bij een letter gingen horen. Door tijdens het scannen achter elkaar aan een aantal van deze handelingen te denken, kon de proefpersoon een woord spellen. De proefpersonen probeerden vervolgens vragen als ‘Wat is je hobby?’ door middel van hun hersenactiviteit te beantwoorden, waarop de fMRI-scanner deze antwoorden (bijvoorbeeld: ‘fotografie’) vrij goed wist te ontcijferen.
Stel je hierbij geen gesprek op normale snelheid voor: het ontcijferen van gedachten gaat erg traag. Elk woord moet letter voor letter vertaald worden. Voor het beantwoorden van twee vragen in bovenstaand onderzoek had men een uur nodig. En zo’n grote, dure MRI-scanner is natuurlijk geen praktisch apparaat waar je iemand gauw in legt als je wilt weten of hij honger heeft. Maar ook met EEG, waarbij de eenvoudige kap met elektroden volstaat, spel je helaas niet snel een compleet verhaal. BCI’s zijn omslachtig, omdat ze alleen werken als van tevoren nauwkeurig is bepaald welke hersenactiviteit gekoppeld kan worden aan de besturing van de computer. In het fMRI-voorbeeld uit Maastricht moest eerst bij iedere deelnemer worden uitgezocht welke handelingen een duidelijk activatiepatroon in bepaalde hersengebieden gaven en die activatiepatronen moesten vervolgens gekoppeld worden aan letters.
Verbetering of frustrerend?
Het ‘gedachtenlezen’ met een fMRI- of EEG-BCI zal dus niet snel perfect zijn. Een greep uit recente wetenschappelijke publicaties laat zien dat de nauwkeurigheid sterk wisselt per type BCI en per toepassing, en dat deze bovendien erg verschilt tussen proefpersonen. Voor een locked-in-patiënt is het misschien toch een hele verbetering aan te kunnen geven dat hij pijn heeft of iets niet wil, ook al is de techniek nog beperkt. Als je verlamd bent en het je bij één van de drie pogingen lukt een kunstarm te bewegen met je gedachten, neem je alle gefaalde pogingen, voorbereiding en training misschien graag voor lief.
Niet iedereen is het daarmee eens. Nick Ramsey, 6 hoogleraar aan het Universitair Medisch Centrum in Utrecht, is van mening dat onbetrouwbare BCI’s juist erg frustrerend zijn voor patiënten. Hij vergelijkt het met typen op een toetsenbord dat bij twee van de drie letters die je typt een geheel andere letter op het scherm geeft. Zijn onderzoeksgroep gaat daarom juist voor zo’n hoog mogelijke betrouwbaarheid. 7
De techniek die Ramsey gebruikt heet elektro-corticografie (ECoG). Bij deze techniek worden tijdens een hersenoperatie elektroden direct op het buitenste vlies van het brein aangebracht, en in sommige gevallen zelfs ín het hersenweefsel geïmplanteerd. Net als bij een EEG meten deze elektroden de elektrische signalen van actieve hersencellen. Het verschil met een standaard EEG is dat ECoG de signalen opvangt bij de hersencellen zelf. Deze signalen zijn nog niet vervormd geraakt, omdat ze niet door de schedel heen hoeven. Dit maakt ECoG de meest directe en nauwkeurige techniek om menselijke hersenactiviteit te meten – maar onderzoek ernaar is alleen mogelijk bij patiënten die om medische redenen, vaak vanwege epilepsie, elektroden geïmplanteerd krijgen. Er is dus maar een beperkt aantal proefpersonen mogelijk, en de onderzoekers kunnen uiteraard niet kiezen wáár ze de elektroden willen hebben. Dit maakt onderzoek naar de ECoG-BCI zeer uitdagend.
Het doel van Ramseys onderzoek is om de patiënt met zijn hersenactiviteit, bijvoorbeeld door achteruit te tellen, een muisklik te laten genereren op een computer. Er is ook onderzoek dat zich erop richt een robotarm te leren besturen. Futuristisch en bijzonder, maar volgens Ramsey kan dit vanwege de complexere handeling nooit volledig nauwkeurig worden. Ook kan de robotarm voorlopig alleen in een hightech laboratorium worden gebruikt, omdat er veel meer apparatuur bij komt kijken dan een implantaat en een computer. Thuis heb je er dus vooralsnog weinig aan. Ramsey wil een praktisch instrument ontwikkelen met een zo groot mogelijke betrouwbaarheid. Een BCI die de muisklik alleen maakt als de patiënt het écht zelf wil.
Willekeurige gedachten lezen kan (nog) niet, maar iemand kan wél met simpele, vooraf geoefende mentale activiteit een computer aansturen, via een BCI. Ramsey hoopt in de toekomst complexere hersenactiviteit te vertalen om zo intern gegenereerde spraak te kunnen herkennen, maar daar is nog jaren onderzoek voor nodig. En een geruststelling misschien: omdat BCI’s alleen werken na ontzettend veel oefenen, zal ‘gedachtenlezen’ ook dan alleen maar lukken als je zeer gemotiveerd bent om je geheimen prijs te geven.
Dit artikel is geschreven door Nienke van Atteveldt, Sandra van Aalderen en Meike Grol, en is gebaseerd op het hoofdstuk ‘Een computer besturen met je gedachten’ uit het boek Kijken in het brein. 8 Een eerdere versie van dit artikel is verschenen op Kennislink. 9
Noten
1 2 Kennislink: Hersenscans, wat meten ze nou precies?
3 Farwell L., & Donchin E. (1988). Talking off the top of your head: toward a mental prosthesis utilizing event-related brain potentials. Electroencephalography and Clinical Neurophysiology, 70 (6): 510-23.
4 Voor een P300 speller zie bijvoorbeeld YouTube
5 Sorger B., Reithler J., Dahmen B., Goebel R. (2012). A real-time fMRI-based spelling device immediately enabling robust motor-independent communication. Current Biology, 22 (14): 1333 – 1338
6 neuroprosthesis.eu
7 ‘Het Gretige Brein’, Uitzending Tegenlicht, 6 april 2014
8 kijkeninhetbrein.nl
9 Kennislink: Kan een hersenscanner gedachten lezen?
Op basis van hun recent verschenen boek Kijken in het brein schreven hersenwetenschappers Nienke van Atteveldt, Meike Grol en Sandra van Aalderen een artikel voor Blind. Een eerdere versie van dit artikel verscheen op Kennislink: Kan een hersenscanner gedachten lezen?