Die neue Generation von Gehirn-Computer-Schnittstellen verändern die Kommunikation zwischen Mensch und Maschine:
- Gehirn-Computer-Schnittstellen sollen eine Kommunikation des Menschen mit einem Computer ermöglichen.
- Ein solches Gehirnimplantat erlaubt, motorische Befehle eines Querschnittsgelähmten etwa durch einen Roboterarm umsetzen zu lassen.
- Statt in den motorischen Cortex eines Patienten implantiert man die Schnittstelle in jenes Gehirnareal, in dem die Intention zur Bewegung entsteht.
Wie die innere Sprache in Gehirn repräsentiert wird
Die Rekonstruktion der inneren Sprache aus der neuronalen Aktivität mit Hilfe von Gehirn-Computer-Schnittstellen ist für Menschen mit schweren Sprachproduktionsdefiziten bedeutsam. Während die Dekodierung von offener Sprache Fortschritte gemacht hat, war die Dekodierung von imaginierter Sprache bisher nur begrenzt erfolgreich, vor allem weil die zugehörigen neuronalen Signale im Vergleich zu gesprochenen Sprache schwach und variabel sind und daher von Lernalgorithmen nur schwer dekodiert werden können. Proix et al. (2022) haben Datensätze von Menschen erfasst, denen zur Beurteilung ihrer Epilepsie Elektroden implantiert worden waren und die Aufgaben zur Produktion von offener und imaginärer Sprache durchführen mussten. Die Probanden wurden dabei gebeten, Wörter zu sagen und diese sich dann vorzustellen. Auf der Grundlage neuerer Theorien zur neuronalen Sprachverarbeitung extrahierte man in diesem Experiment konsistente und spezifische neuronale Merkmale, die für künftige Gehirn-Computer-Schnittstellen verwendet werden können, etwa zur Unterscheidung von Sprachelementen in artikulatorischen, phonetischen und vokalischen Repräsentationsräumen. Es gelang dabei nachzuweisen, dass die tieffrequente Hirnaktivität sowie die Kopplung insbesondere der Beta- und Gammawellen offensichtlich wichtige Informationen für die Entschlüsselung von inneren Monologen enthalten. Zudem zeigte sich, dass der Temporalcortex eine wichtige Rolle bei gedachtem Artikulieren spielt. Hochfrequente Aktivität lieferte dabei das beste Signal für offene Sprache, während die nieder- und höherfrequente Leistung als auch die lokale Querfrequenz zur imaginären Sprachdekodierung beitrugen, insbesondere in phonetischen und vokalischen, d.h. perzeptiven Räumen. Diese Ergebnisse zeigen, dass die tieffrequente Leistung und die Querfrequenzdynamik Schlüsselinformationen für die Dekodierung imaginierter Sprache enthalten.
Literatur
Proix, Timothée, Delgado Saa, Jaime, Christen, Andy, Martin, Stephanie, Pasley, Brian N., Knight, Robert T., Tian, Xing, Poeppel, David, Doyle, Werner K., Devinsky, Orrin, Arnal, Luc H., Mégevand, Pierre & Giraud, Anne-Lise (2022. Imagined speech can be decoded from low- and cross-frequency intracranial EEG features. Nature Communications, 13, 48-61.
Nachricht ::: Soziale Robotik ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::