Nach dem Modell des mentalen Lexikons von Engelkamp und Rummer [1], das auf Erkenntnissen der Aphasieforschung basiert, ist ein Wort im Gehirn in zwei Formen gespeichert: als akustische Wortform und als Sprechprogramm [1]. und als sprechmotorisches Programm. Einerseits wissen wir, wie sich das Wort anhört und können es dadurch verstehen; andererseits wissen wir, wie wir Lippen, Zunge usw. bewegen müssen, um das Wort auszusprechen.
Abbildung 2 zeigt die Beziehungen der Wortformen und Sprechprogramme zu den Wortinhalten (Konzepten): Die akustischen Wortformen verknüpfen die gehörte Lautfolge eines Wortes mit der Wortbeduetung, und die sprechmotorischen Programme verbinden eine Wortbedeutung (einen Begriff) mit dem dazugehörigen motorischen Programm und erlauben es, einen Inhalt unmittelbar auszusprechen – so, wie wir es beim spontanen Sprechen gewöhnlich tun.
Wortformen und Sprechprogramme sind außerdem direkt miteinander verknüpft. Wir können eine Lautfolge, die wir hören, unmittelbar nachsprechen – selbst dann, wenn uns die Bedeutung unbekannt ist oder wenn die Lautfolge gar keine Bedeutung hat, wenn es sich also um ein Pseudowort handelt. Diese Verknüpfung zwischen Hören und Sprechen ermöglicht es uns, neue Wörter sprechen zu lernen, sie ist also die Basis des aktiven Spracherwerbs.
Die umgekehrte Verknüpfung (von den Sprechprogramme zu den akustischen Wortformen) ist die Basis für das innere Sprechen, z.B. beim stillen Lesen, beim inneren Wiederholen von Namen, Telefonnummern oder Texten, um sie einzuprägen, und beim sprachlichen Denken. Interessanterweise sind das Bedingungen, unter denen kein Stottern auftritt – ich werde darauf noch ausführlich eingehen.
Abbildung 2: Wortformen und Sprechprogramme.
Ein Sprechprogramm ist eine motorische Routine, die durch das wiederholte Produzieren einer Sprecheinheit – also durch Übung – erworben wird. Ein Programm für ein mehrsilbiges Wort enthält sowohl die Lautfolge als auch die Silbenstruktur, einschließlich der Betonung. Die Lautfolge und der Silbenrhythmus müssen also nicht während des Sprechens vom Gehirn synchronisiert werden, weil diese Synchronisation bereits im Programm enthalten ist. Wenn wir ein Wort sprechen lernen, lernen wir stets Lautfolge, Silbenrhythmus und Betonung gleichzeitig.
EDa das Sprechprogramm für ein Wort dessen Lautfolge enthält, muss dass das Gehirn die Wörter nicht vor dem Sprechen aus den Lauten zusammensetzen. Daraus folgt für eine Theorie des Stotterns, dass Probleme bei der phonologischen Kodierung oder bei der Synchronisation von Lautfolge und Silbenrhythmus als Ursachen des Stotterns ausscheiden.
Engelkamp und Rummer haben nur behauptet, dass Wörter durch Sprechprogramme produziert werden. Doch aufgrund der Überlegungen um vorigen Abschnitt können wir annehmen, dass das für alle Sprecheinheiten gilt, die wir aus dem Gedächtnis unmittelbar „abspulen“ können, ohne Entscheidungen über Aussprache oder Formulierung zu treffen – also auch für häufig benutzte Phrasen, Redewendungen, Sprichwörter und sogar für auswendig gelernte Gedichte oder einen Rollentext im Theater. Und natürlich gibt es Programme für alle häufig benutzten Silben und Laute.
Beim normalen spontanen Sprechen wird ein Sprechprogramm jedoch in der Regel die Artikulation eines Wortes oder einer häufig gebrauchten Phrase umfassen. Das spontane Sprechen vertrauter Wörter und Phrasen ist also weniger eine Sache von Planung als vielmehr von Verhaltensroutinen, die, einmal eingeübt, durch Programme gesteuert und durch ein begleitendes Monitoring überwacht werden.
Patienten mit einer Broca-Aphasie verstehen gesprochene Sprache, haben aber Schwierigkeiten, beim Sprechen die Wörter zu finden. Sie sprechen stockend, suchen lange nach Worten und gebrauchen häufig Umschreibungen. Im Gegensatz dazu können Patienten, die unter einer Wernicke-Aphasie leiden, zwar fließend sprechen, haben aber Probleme, Sprache zu verstehen. Dadurch können sie auch ihr eigenes Sprechen nur noch schlecht kontrollieren. Es fällt ihnen schwer, sinnvolle Sätze zu formen. Sie wiederholen sich häufig; in schweren Fällen wird die Rede vollkommen unverständlich. Diese Beobachtungen lassen vermuten, dass im ersten Fall die Verknüpfung zwischen Konzepten (Wortbedeutungen) und Sprechprogrammen, im zweiten Fall die Verknüpfung zwischen akustischen Wortformen und Konzepten gestört ist.
(zurück)
Engelkamp und Rummer [1] sprechen von „acoustic word nodes“ (Wortknoten) und beziehen sich damit auf ein konnektionistisches Modell der Sprachverarbeitung im Gehirn. Der Konnektionismus nimmt an, dass Wissen in den Verbindungen zwischen den Knoten eines neuronalen Netzes gespeichert wird. Solche Knoten könnten einzelne Neuronen oder auch Gruppen von Neuronen sein. Weil uns der Gegensatz zwischen hierarchischen und konnektionistischen Modellen der Sprachproduktion hier nicht interessieren muss, und weil AWortknoten“ nach Kreuzworträtsel klingt, benutze ich den Ausdruck „akustische Wortform“.
(zurück)
Die Basis des Sprachverstehens bilden Verknüpfungen der Wörter zu nichtsprachlichen Repräsentationen, also zu Erinnerungen an visuelle, akustische und andere sensorische Eindrücke. Beispielsweise dürfte das Wort „Hund“ mit einem visuellen Schema verknüpft sein, durch das wir ein Tier als Hund identifizieren. Außerdem könnten Verknüpfungen bestehen zu Erinnerungen an Verhaltensmerkmale von Hunden, wie etwa Bellen, oder an persönliche Erfahrungen mit Hunden.
Doch mit welcher sensorischen Repräsentation sind Wörter wie „und“ oder „Verfassungsgerichtsurteil“ verknüpft? Wollten wir jemandem die Bedeutung dieser Wörter erklären, müssten wir es mit Hilfe anderer Wörter tun. So dürfte der größte Teil der Inhalte der Wörter der Erwachsenensprache aus Verknüpfungen zu anderen Wörtern bestehen, die erst über weitere Wortverknüpfungen auf nichtsprachliche Repräsentationen führen.
(zurück)
Die Idee, dass das Gehirn bei der Sprechplanung die Wörter aus einzelnen Lauten zusammenfügt und einen „phonetischen Plan“ erstellt, aus dem dann eine Folge von Artikulationsbewegungen abgeleitet wird, ist eine gängige Annahme und Teil des Sprachproduktionsmodells von Willem Levelt [2]. Aus philosophischen Gründen halte ich diese Vorstellung für falsch.
Um ein vertrautes Wort zu sprechen, müssen wir nicht zuvor dessen Lautfolge aus dem Gedächtnis abrufen, um daraus eine Folge von Artikulationsbewegungen abzuleiten. Statt dessen greifen wir unmittelbar auf das motorische Sprechprogramm zu, starten es, und hören die Lautfolge, während wir sprechen. Das sprechmotorische Programm enthält z.B. auch alle Übergänge zwischen den Lauten und alle wortabhängigen oder durch Dialekteinfärbung bedingten Aussprachebesonderheiten der Laute.
Allerdings muss beim Erwerb eines Sprechprogramm für ein Wort dieses Programm zunächst aus Programmen für die Artikulation der Silben und Laute zusammengefügt und dann durch Wiederholung automatisiert werden. Wir dürfen uns diese Programme auch nicht zu starr vorstellen: Sie können durch übergeordnete Programme modifiziert werden, etwa beim Deklinieren und Konjugieren, oder in Sprachspielen wie dem Lied „Drei Chinesen mit dem Kontrabass“. Es fällt uns nicht schwer, ein Wort willentlich falsch oder unvollständig zu sprechen, und auch bestimmte Arten von Versprechern zeugen von einer gewissen Variabilität und Störanfälligkeit der Sprechprogramme.
(zurück)