Mit der Hilfe von künstlicher Intelligenz wieder sprechen können?
Manche besonders schwere Erkrankungen führen dazu, dass Betroffene letztendlich die Möglichkeit des Sprechens einbüßen. Forschenden ist es jetzt gelungen, die Sprache von Probanden erfolgreich wiederherzustellen, indem die Gehirnaktivität der Personen ausgelesen wurde und daraus ganze gesprochene Sätze generiert wurden.
Bei einer aktuellen Untersuchung der University of California San Francisco konnte die Sprache von Probanden erfolgreich wiederhergestellt werden, indem ganze Sätze durch eine neue Technologie direkt aus dem Gehirn ausgelesen und dann als Sprache umgewandelt wurden. Die Ergebnisse der Studie wurden in der englischsprachigen Fachzeitschrift „Nature“ veröffentlicht.
Der Prozess ist komplex und invasiv
„Zum ersten Mal zeigt eine Studie, dass wir ganze gesprochene Sätze durch die Gehirntätigkeit einer Person generieren können. Dies ist ein erfreulicher Beweis dafür, dass wir mit der Technologie, die bereits in Reichweite ist, in der Lage sein sollten, ein Gerät zu bauen, welches bei Patienten mit Sprachverlust klinisch geeignet ist“, erläutert Studienautor Dr. Edward Chang von der UC San Francisco in einer Pressemitteilung. Es handelt sich bei dem Vorgang um einen komplexen und invasiven Prozess, bei dem nicht genau das dekodiert wird, was das Subjekt denkt, sondern das, was es tatsächlich gesagt hat.
Woher stammten die gesprochenen Wörter?
An dem Experiment, welches von dem Sprachwissenschaftler Gopala Anumanchipalli geleitet wurde, nahmen Probanden teil, denen bereits große Anordnungen von Elektroden für ein anderes medizinisches Verfahren in das Gehirn implantiert wurden. Die Forschenden ließen diese Menschen mehrere hundert Sätze vorlesen, während sie die von den Elektroden erfassten Signale genau aufzeichneten. Die Autoren der Studie konnten ein bestimmtes Muster der Gehirnaktivität erkennen, welches dann entsteht, wenn die Probanden an Wörter dachten und diese bestimmten kortikalen Bereichen zugeordnet wurden, bevor die endgültigen Signale vom sogenannten Motorkortex zu den Zungen- und Mundmuskeln gesendet werden. Eine Art Zwischensignal kann zum Rekonstruieren der Sprache verwendet werden, sagen die Forschenden.
Virtuelles Stimmsystems des Betroffenen wurde erstellt
Durch die direkte Analyse des Audiomaterials konnte das Team bestimmen, welche Muskeln und Bewegungen betroffen sind und daraus wurde dann eine Art virtuelles Modell des Stimmsystems der Person aufgebaut. Anschließend übertrugen die Forschenden die während der Sitzung erfasste Gehirnaktivität mithilfe eines maschinellen Lernsystems auf dieses virtuelle Modell. Das ermöglichte im Wesentlichen die Aufzeichnung einer Gehirnaktivität, welche verwendet wird, um Aussprachen des Mundes zu steuern.
System bestimmt, welche Wörter durch Gesichtsmuskeln gebildet werden
Es ist wichtig zu verstehen, dass dieses Verfahren nicht abstrakte Gedanken in Worte verwandelt. Es versteht vielmehr die konkreten Anweisungen des Gehirns an die Gesichtsmuskeln und bestimmt aus den bekannten Wörtern, welche Wörter diese Bewegungen bilden würden. Die resultierende synthetische Sprache ist zwar nicht kristallklar, aber durchaus verständlich. Richtig eingestellt, könnte das System in der Lage sein, 150 Wörter pro Minute von einer Person auszusprechen, die ansonsten nicht zur Sprache befähigt ist.
Erzielte Genauigkeit ist eine erstaunliche Verbesserung
In Zukunft sollte an der Möglichkeit gearbeitet werden, die gesprochene Sprache perfekt zu imitieren. Trotzdem ist die Genauigkeit, die innerhalb der Studie erzielt wurde, eine erstaunliche Verbesserung der Echtzeitkommunikation im Vergleich zu den derzeit verfügbaren Möglichkeiten. Zum Vergleich: Eine betroffene Person mit einer degenerativen Erkrankung der Muskeln beispielsweise, spricht oft, indem sie Wörter einzeln mit ihrem Blick buchstabiert. Dies führt zu etwa fünf bis zehn Wörtern pro Minute, wobei andere Methoden für behinderte Menschen noch langsamer sind. Es ist schon eine Art Wunder, dass betroffene Menschen überhaupt wieder sprechen können, aber diese zeitaufwändige und weniger natürliche Methode ist weit entfernt von der Geschwindigkeit und Ausdruckskraft echter Sprache.
Weitere Forschung ist nötig
Wenn eine Person in der Lage wäre, die neu entwickelte Methode anzuwenden, käme dies viel näher an die gewöhnliche Sprache heran, wenn auch vielleicht auf Kosten der perfekten Genauigkeit, sagen die Forschenden. Das Problem bei dieser Methode bestehe darin, dass sehr sorgfältig gesammelte Daten von einem gesunden Sprachsystem benötigt werden, vom Gehirn bis zur Zunge. Für viele Menschen ist es nicht mehr möglich, diese Daten zu erheben, und für andere wird die invasive Erhebungsmethode sicher nicht von Ärzten empfohlen. Die gute Nachricht ist, dass die Ergebnisse zumindest ein Anfang sind und es gibt viele Bedingungen, bei denen das neue System theoretisch funktionieren würde. Das Sammeln dieser kritischen Gehirn- und Sprachaufzeichnungsdaten könnte zudem vorbeugend erfolgen, wenn ein Schlaganfall oder eine auftretende Degeneration befürchtet wird. (as)
Autoren- und Quelleninformationen
Wichtiger Hinweis:
Dieser Artikel enthält nur allgemeine Hinweise und darf nicht zur Selbstdiagnose oder -behandlung verwendet werden. Er kann einen Arztbesuch nicht ersetzen.