Spraaktherapie is uiteraard een eerste stap, maar naarmate de ziekte vordert en de spieren volledig verlammen, is dit geen optie meer. Je kan dan nog wel grijpen naar pen en papier of je telefoon, maar zelfs in het tijdperk waar emoji's en afkortingen tegen lichtsnelheid op een toetsenbord ingetikt worden, blijft spraak de snelste vorm van menselijke communicatie. Als arts kan je je patiënt dan informeren over spraaktechnologieën waar nu uitvoerig onderzoek naar verricht wordt. De meesten denken misschien spontaan aan de robotachtige stem van Stephen Hawking, de bekende fysicus, die sprak via een revolutionair spraaksynthesesysteem dat toen het neusje van de zalm was. Huidige technologieën hebben dit systeem ondertussen op gebied van snelheid, nauwkeurigheid en natuurlijkheid van spraak overtroffen.

Stephen Hawking gebruikte een niet-invasieve technologie die een combinatie van spierbewegingen in de wang en knipperen van de ogen detecteerde om een computer te besturen. Vandaag de dag is bijvoorbeeld de oogvolgtechnologie verbeterd waardoor spraaksystemen sneller en nauwkeuriger aangestuurd kunnen worden. Bovendien zijn oplossingen voor spraaksynthese ook meer comfortabel in gebruik, denk maar aan brillen waar die oogvolging ingebouwd is of touchscreens om zinnen te selecteren. Toch hebben zulke systemen die gebruik maken van spierbewegingen ook nadelen. Ze kunnen namelijk erg belastend zijn voor een patiënt met sterk verminderde spiercontrole. Mede hierdoor kunnen ze de aansturing van het spraaksysteem traag en weinig nauwkeurig maken.

Gelukkig zijn er vandaag systemen in de onderzoeksfase die spieren volledig omzeilen en spraak zoeken waar die ontstaat: in de hersenen

Gelukkig zijn er vandaag ook systemen in de onderzoeksfase die spieren volledig omzeilen en spraak zoeken waar die ontstaat: in de hersenen. Brain-machine interface (BMI) is een technologie die hersensignalen interpreteert en in dit geval rechtstreeks omzet naar spraak of tekst. Dit gebeurt via geïmplanteerde elektroden die hersensignalen opvangen en software die deze signalen omzet in verstaanbare taal. Zo bieden BMI's een manier om te communiceren zonder fysieke bewegingen of spraak. Elektroden spelen een cruciale rol bij deze technologie: hoe gedetailleerder en hoe meer signalen ze kunnen opmeten, hoe preciezer de BMI de hersenactiviteit kan interpreteren en vertalen. Electrocorticografie (ECoG)-elektrodes, bijvoorbeeld, die via een netje op het hersenoppervlak worden geplaatst, hebben een breed bereik, maar zijn minder specifiek en meten enkel de uitgemiddelde activiteit van groepen cellen. Implanteerbare elektrodes daarentegen zitten dichter bij de bron, de hersencellen, en kunnen de activiteit van afzonderlijke cellen registreren.

Onlangs is nieuw onderzoek gepubliceerd uit het lab van dr. Edward Chang aan het gerenommeerde UCSF waarbij een probe met een recordaantal elektrodes bij patiënten werd geïmplanteerd en hersenactiviteit registreerde terwijl de patiënten naar gesproken zinnen luisterden. Zo kregen de onderzoekers een goed beeld van welke cellen actief waren bij welke klanken, welke toonhoogte of gewoon bij stiltes. Ze vonden ook dat de cellen met eenzelfde voorkeur grotendeels samen gegroepeerd zijn. Onderzoek wees uit dat de combinatie van voorkeur en locatie van de cellen de code voor spraak vormt. Als we er nu in slagen om deze gedetailleerde informatie in een computermodel te integreren, kunnen we in principe een spraakprothese ontwikkelen die een natuurlijkere en snellere spraak kan produceren, en dat telkens als de patiënt nog maar denkt aan een woord.

En de robotstem? Er wordt gelijktijdig ook veel onderzoek gedaan om met behulp van AI de stem van de patiënt na te bootsen op basis van oude video's en opnames. De hoop is om zo ALS-patiënten op termijn hun oude stem terug te geven.

Spraaktherapie is uiteraard een eerste stap, maar naarmate de ziekte vordert en de spieren volledig verlammen, is dit geen optie meer. Je kan dan nog wel grijpen naar pen en papier of je telefoon, maar zelfs in het tijdperk waar emoji's en afkortingen tegen lichtsnelheid op een toetsenbord ingetikt worden, blijft spraak de snelste vorm van menselijke communicatie. Als arts kan je je patiënt dan informeren over spraaktechnologieën waar nu uitvoerig onderzoek naar verricht wordt. De meesten denken misschien spontaan aan de robotachtige stem van Stephen Hawking, de bekende fysicus, die sprak via een revolutionair spraaksynthesesysteem dat toen het neusje van de zalm was. Huidige technologieën hebben dit systeem ondertussen op gebied van snelheid, nauwkeurigheid en natuurlijkheid van spraak overtroffen. Stephen Hawking gebruikte een niet-invasieve technologie die een combinatie van spierbewegingen in de wang en knipperen van de ogen detecteerde om een computer te besturen. Vandaag de dag is bijvoorbeeld de oogvolgtechnologie verbeterd waardoor spraaksystemen sneller en nauwkeuriger aangestuurd kunnen worden. Bovendien zijn oplossingen voor spraaksynthese ook meer comfortabel in gebruik, denk maar aan brillen waar die oogvolging ingebouwd is of touchscreens om zinnen te selecteren. Toch hebben zulke systemen die gebruik maken van spierbewegingen ook nadelen. Ze kunnen namelijk erg belastend zijn voor een patiënt met sterk verminderde spiercontrole. Mede hierdoor kunnen ze de aansturing van het spraaksysteem traag en weinig nauwkeurig maken.Gelukkig zijn er vandaag ook systemen in de onderzoeksfase die spieren volledig omzeilen en spraak zoeken waar die ontstaat: in de hersenen. Brain-machine interface (BMI) is een technologie die hersensignalen interpreteert en in dit geval rechtstreeks omzet naar spraak of tekst. Dit gebeurt via geïmplanteerde elektroden die hersensignalen opvangen en software die deze signalen omzet in verstaanbare taal. Zo bieden BMI's een manier om te communiceren zonder fysieke bewegingen of spraak. Elektroden spelen een cruciale rol bij deze technologie: hoe gedetailleerder en hoe meer signalen ze kunnen opmeten, hoe preciezer de BMI de hersenactiviteit kan interpreteren en vertalen. Electrocorticografie (ECoG)-elektrodes, bijvoorbeeld, die via een netje op het hersenoppervlak worden geplaatst, hebben een breed bereik, maar zijn minder specifiek en meten enkel de uitgemiddelde activiteit van groepen cellen. Implanteerbare elektrodes daarentegen zitten dichter bij de bron, de hersencellen, en kunnen de activiteit van afzonderlijke cellen registreren. Onlangs is nieuw onderzoek gepubliceerd uit het lab van dr. Edward Chang aan het gerenommeerde UCSF waarbij een probe met een recordaantal elektrodes bij patiënten werd geïmplanteerd en hersenactiviteit registreerde terwijl de patiënten naar gesproken zinnen luisterden. Zo kregen de onderzoekers een goed beeld van welke cellen actief waren bij welke klanken, welke toonhoogte of gewoon bij stiltes. Ze vonden ook dat de cellen met eenzelfde voorkeur grotendeels samen gegroepeerd zijn. Onderzoek wees uit dat de combinatie van voorkeur en locatie van de cellen de code voor spraak vormt. Als we er nu in slagen om deze gedetailleerde informatie in een computermodel te integreren, kunnen we in principe een spraakprothese ontwikkelen die een natuurlijkere en snellere spraak kan produceren, en dat telkens als de patiënt nog maar denkt aan een woord. En de robotstem? Er wordt gelijktijdig ook veel onderzoek gedaan om met behulp van AI de stem van de patiënt na te bootsen op basis van oude video's en opnames. De hoop is om zo ALS-patiënten op termijn hun oude stem terug te geven.