logo Stottertheorie.de



 

1. 2. Sprechmotorische Programme

Eine längere Äußerung oder Sprechsequenz besteht aus Phonemen (Sprachlauten), Silben, Wörtern, Phrasen und Sätzen, enthält aber auch Pausen, in denen eingeatmet wird. Alle diese Teilaktionen des Sprechens werden hier als Sprecheinheiten bezeichnet. Einige dieser Einheiten sind selbst wieder Sequenzen aus Einheiten geringerer Komplexität. Manche Einheiten – Sätze, Phrasen und im Deutschen die Komposita (zusammengesetzte Substantive) – sind variabel, andere dagegen – Phoneme, Silben, viele Wörter, häufig gebrauchte Redewendungen – sind relativ konstant. Aufgrund der Überlegungen im vorigen Abschnitt können wir davon ausgehen, dass, nachdem die Grundlagen des Sprechens erlernt wurden, einfache und relativ unveränderliche Einheiten wie Phoneme, häufig gebrauchte Silben und vertraute Wörter durch Programme vorwärtsgesteuert werden.

Es gibt noch weitere Argumente für eine Steuerung relativ konstanter Sprecheinheiten durch Programme: Basierend auf Resultaten der Aphasieforschung nehmen Johannes Engelkamp und Ralf Rummer an, dass ein Wort im Gehirn in zwei Formen repräsentiert ist: als akustische Wortform und als Sprechprogramm [1]. Die Abbildung 2 zeigt die Beziehungen der Wortformen und Sprechprogramme zu den Wortinhalten (Konzepten): Die akustischen Wortformen ermöglichen das Verstehen gesprochener Sprache, die sprechmotorischen Programme erlauben es, einen Inhalt unmittelbar auszusprechen – so, wie wir es beim spontanen Sprechen gewöhnlich tun: Der Inhalt ist mit einer Bewegungssequenz verknüpft, deren Ausführung das passende Wort erzeugt. Wortformen und Sprechprogramme sind außerdem direkt miteinander verknüpft; Wir können eine Lautsequenz, die wir hören, unmittelbar nachsprechen – selbst dann, wenn uns die Bedeutung unbekannt ist oder wenn die Lautfolge gar keine Bedeutung hat, wenn es sich also um ein "Pseudowort" handelt. Diese Fähigkeit ermöglicht es, neue Wörter sprechen zu lernen, ist also die Basis des aktiven Spracherwerbs. Die direkte Verknüpfung der Sprechprogrammen mit den akustischen Wortformen dürfte dagegen beim inneren Sprechen, also beim verbalen Denken, eine wichtige Rolle spielen. Ich werde diesen Punkt später ausführlich behandeln.
 

Sprachverarbeitung: akustische Wortformen und motorische Sprechprogramme

Abbildung 2: Wortformen und Sprechprogramme. Erläuterung im Text.
 

Ein Sprechprogramm ist eine motorische Routine, die durch das wiederholte Produzieren einer Sprecheinheit – also durch Übung – erworben wird. Ein Sprechprogramm für ein mehrsilbiges Wort enthält sowohl die Lautfolge als auch die Silbenstruktur, einschließlich der Betonung. Die Lautfolge und der Silbenrhythmus müssen also nicht während des Sprechens vom Gehirn synchronisiert werden, sondern diese Synchronisation ist bereits im Sprechprogramm enthalten: Wenn wir ein Wort sprechen lernen, lernen wir stets beides zugleich. Dass das Sprechprogramm für ein Wort dessen Lautfolge beinhaltet, bedeutet zudem, dass das Gehirn die Wörter nicht vor dem Sprechen aus den Lauten zusammensetzen muss. Daraus folgt für eine Theorie des Stotterns, dass Probleme bei der phonologischen Enkodierung oder bei der Synchronisation von Lautfolge und Silbenrhythmus als Ursachen des Stotterns ausscheiden.

Engelkamp und Rummer haben zwar nur behauptet, dass Wörter durch Sprechprogramme produziert werden, doch ich nehme an, dass das darüber hinaus für alle Sprecheinheiten gilt, die wir aus dem Gedächtnis unmittelbar „abspulen“ können, ohne Entscheidungen über Aussprache oder Formulierung zu treffen – also auch für häufig benutzte Phrasen, Redewendungen, Sprichwörter und sogar für auswendig gelernte Gedichte oder einen Rollentext im Theater. Gerade das „Abspulen-Können“ solcher Sprechsequenzen scheint mir ein klares Zeichen dafür zu sein, dass dafür motorische Programme vorhanden sein müssen. Ferner gibt es natürlich Sprechprogramme für alle häufig benutzten Silben und Laute. Beim normalen spontanen Sprechen wird ein Sprechprogramm jedoch in der Regel die Artikulation eines Wortes oder einer häufig gebrauchten Phrase umfassen.

Die bisherigen Überlegungen lassen sich folgendermaßen zusammenfassen: Das spontane Sprechen vertrauter Wörter und Phrasen ist weniger eine Sache von Planung als vielmehr von Verhaltensroutinen, die, nachdem sie eingeübt wurden, durch Programme gesteuert und durch ein begleitendes Monitoring überwacht werden.

 nach oben 

 nächste Seite 


Fußnoten

Aphasien

Patienten mit einer Broca-Aphasie verstehen gesprochene Sprache, haben aber Schwierigkeiten, beim Sprechen auf die Wörter zuzugreifen. Sie sprechen unflüssig, suchen nach Worten und gebrauchen häufig Umschreibungen. Im Gegensatz dazu können Patienten, die unter einer Wernicke-Aphasie leiden, zwar fließend sprechen, haben aber Probleme, Sprache zu verstehen und ihr eigenes Sprechen zu kontrollieren. Es fällt ihnen schwer, zusammenhängende sinnvolle Sätze zu bilden. Sie wiederholen sich häufig; in schweren Fällen wird die Rede vollkommen unverständlich. Diese Beobachtungen lassen vermuten, dass im ersten Fall die Verknüpfung zwischen den Inhalten und den Sprechprogrammen, im zweiten Fall die Verknüpfung zwischen den Inhalten und den akustischen Wortformen gestört ist.  (zurück) 
 

Akustische Wortformen

Engelkamp und Rummer sprechen von "acoustic word nodes" (Wortknoten) und beziehen sich damit auf ein konnektionistisches Modell der Sprachverarbeitung im Gehirn. Der Konnektionismus nimmt an, dass Wissen in den Verbindungen zwischen den Knoten eines neuronalen Netzes gespeichert wird. Solche Knoten könnten einzelne Neuronen oder auch Gruppen von Neuronen sein. Weil uns der Gegensatz zwischen hierarchischen und konnektionistischen Modellen hier nicht interessieren muss, und weil "Wortknoten" nach Kreuzworträtsel klingt, benutze ich den Ausdruck "akustische Wortform".  (zurück) 
 

Wortinhalte (Konzepte)

Die Basis des Sprachverstehens bilden Verknüpfungen der Wörter zu nichtsprachlichen Repräsentationen – also zu Erinnerungen an visuelle, akustische und andere sensorische Eindrücke. Beispielsweise dürfte das Wort „Hund“ mit einem visuellen Schema verknüpft sein, mit dessen Hilfe wir ein Tier als Hund identifizieren. Außerdem könnten Verknüpfungen bestehen zu Erinnerungen an Verhaltensmerkmale von Hunden, wie etwa Bellen, oder an persönliche Erfahrungen mit ihnen. Doch mit welcher sensorischen Repräsentation sollten Wörter wie „und“ oder „Verfassungsgerichtsurteil“ verknüpft sein? Wollten wir jemandem die Bedeutung dieser Wörter erklären, müssten wir es mit Hilfe von Wörtern tun. Und so dürfte der größte Teil der Inhalte der Wörter der Erwachsenensprache aus Verknüpfungen zu anderen Wörtern bestehen, die erst über weitere Wortverknüpfungen auf nichtsprachliche Repräsentationen führen.  (zurück) 
 

Phonologische Enkodierung

Die Vorstellung, dass das Gehirn im Rahmen der Sprechplanung die Wörter aus Einzelphonemen zusammenfügt und einen "phonologischen Plan" erstellt, aus dem dann eine Folge von Artikulationsbewegungen abgeleitet wird, ist eine gängige Annahme und Bestandteil des Sprachproduktionsmodells von Willem Levelt [2]. Doch um ein vertrautes Wort zu sprechen, müssen wir nicht zuvor dessen Lautfolge aus dem Gedächtnis abrufen, um daraus eine Folge von Artikulationsbewegungen abzuleiten. Statt dessen greifen wir unmittelbar auf das motorische Sprechprogramm zu, starten es, und hören die Lautfolge, während wir sprechen. Das Sprechprogramm enthält z.B. auch alle Lautübergänge und alle wortabhängigen oder durch Dialekteinfärbung bedingten Aussprachebesonderheiten der Laute.

Andererseits mü:ssen wir uns ein Sprechprogramm durchaus als ein Programm vorstellen, das zunächst aus Programmen für die Artikulation geläufiger Silben und Phoneme zusammengefügt und danach durch Wiederholung automatisiert wird. Wir dürfen uns diese Programme auch nicht zu starr vorstellen: Sie können durch übergeordnete Programme modifiziert werden, so beim Deklinieren und Konjugieren, aber auch in Sprachspielen wie dem Lied „Drei Chinesen mit dem Kontrabass“. Es fällt uns nicht schwer, ein Wort willentlich falsch oder unvollständig zu sprechen, und auch bestimmte Arten von Versprechern zeugen von einer gewissen Variabilität und Störanfälligkeit der Sprechprogramme. Ich nehme jedoch nicht an, dass hier die Ursachen des Stotterns zu suchen sind.  (zurück) 
 

 nach oben 

 nächste Seite 

Quellen

  1. Engelkamp & Rummer (1999)
  2. Levelt (1995)

 zum Literaturverzeichnis