Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Das Ziel: Sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen. Dieses Ziel ist nun erreicht worden:
„Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen. Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung!“
— Professorin Tanja Schultz, Leiterin des CSL
Die innovative Neurosprachprothese basiert auf einem Closed-Loop-System, das Technologien aus der modernen Sprachsynthese mit Gehirn-Computer-Schnittstellen verbindet. Dieses System wurde von Miguel Angrick am CSL entwickelt. Als Eingabe erhält es die neuronalen Signale der Nutzenden, die sich vorstellen zu sprechen. Es transformiert diese mittels maschineller Lernverfahren praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung an die Nutzenden aus. „Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache“, so Angrick.
Studie mit freiwilliger Epilepsiepatientin
Die in „Nature Communications Biology“ veröffentlichte Arbeit basiert auf einer Studie mit einer freiwilligen Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden und die sich zur klinischen Überwachung im Krankenhaus aufhielt. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System mittels maschineller Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. „Im zweiten Schritt wurde dieser Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt“, erläutert Miguel Angrick. „Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, wird auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt.“ Dies lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind zu denen für geflüsterte und vorgestellte Sprache.
Wichtige Rolle des Bremer Cognitive Systems Lab
„Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten“, erläutert Professorin Tanja Schultz den Hintergrund für die intensiven Forschungsaktivitäten auf diesem Gebiet, bei denen das Cognitive Systems Lab der Universität Bremen eine weltweit beachtete Rolle spielt. „Die Echtzeitsynthese akustischer Sprache direkt aus gemessener neuronaler Aktivität könnte natürliche Gespräche ermöglichen und die Lebensqualität von Menschen deutlich verbessern, deren Kommunikationsmöglichkeiten stark eingeschränkt sind.“
Die bahnbrechende Neuerung ist das Ergebnis einer langjährigen Kooperation, die im Rahmen des Forschungsprogramms „Multilaterale Zusammenarbeit in Computational Neuroscience“ gemeinsam vom Bundesministerium für Bildung und Forschung (BMBF) und der amerikanischen National Science Foundation (NSF) finanziert wird. Diese Kooperation mit Professor Dean Krusienski (ASPEN Lab, Virginia Commonwealth University) wurde gemeinsam mit dem ehemaligen Mitarbeiter des CSL, Dr. Christian Herff, im Rahmen des erfolgreichen Projektes RESPONSE (REvealing SPONtaneous Speech processes in Electrocorticography) aufgebaut. Sie wird aktuell mit CSL-Mitarbeiter Miguel Angrick im Projekt ADSPEED (ADaptive Low-Latency SPEEch Decoding and synthesis using intracranial signals) fortgesetzt. Dr. Christian Herff ist mittlerweile Assistenzprofessor an der Universität Maastricht.