Die Prosodie bezeichnet die Gesamtheit jener lautlichen Eigenschaften einer Sprache, die nicht an den Laut bzw. an das Phonem gebunden sind. Dazu zählen u. a. der Wort- und Satzakzent, die Intonation, die Satzmelodie, Tempo, Rhythmus und Pausen beim Sprechen. In der Kommunikationsforschung wird in der Prosodik die stimmliche Ausformung der Worte beobachtet: Spricht das Gegenüber sanft oder hart? Wann wird die Stimme erhoben? Wendet sie sich gegen etwas oder unterstreicht der Sprecher seine Zugewandtheit? Ist die Stimme kämpferisch oder setzt der Redner auf eine sanfte gefühlsbetonte Überzeugung? Ist die Stimme unsicher oder gibt sie innere Überzeugungen nur vor?
In der Kommunikationstheorie wird bei der gesprochenen Sprache zwischen Gesagtem und Gemeintem unterschieden. Erst durch das genaue Zuhören kann man oft erst verstehen, was eine Sprecherin oder ein Sprecher meint. Aufschluss erhält man in der Regel durch drei verschiedene Aspekte der Körpersprache: die Kinesik, also die Bereiche der Mimik, Gestik und Körperhaltung, die Proxemik, also das Verhalten im Raum und eben die Prosodik, also den Einsatz der menschlichen Stimme.
In der Sprache gibt es zwei Unterscheidungsmerkmale: die Stimme des Sprechers und den sprachlichen Inhalt selbst, einschließlich der Sprachlaute. Untersuchungen (Rutten et al., 2019) haben nungezeigt, dass sich im Gehirn der auditorische Cortex daran anpasst, was der Mensch jeweils hören will. Er konzentriert sich dabei entweder auf die Stimme eines Sprechers oder auf die gesprochenen Sprachlaute. Um das zu erreichen, verstärkt der auditorische Cortex verschiedene Aspekte der Stimme, je nachdem, welche Ziele verfolgt werden. Für die Unterscheidung von Stimmen werden dabei in erster Linie stimmenspezifische Informationen verarbeitet, während phonemspezifische Informationen für die Differenzierung von Sprachlauten eingesetzt werden. Das Gehirn passt sich also an die jeweilige Aufgabe an, und zwar in einer Weise, die mit den akustischen Informationen übereinstimmt, die in Sprachlauten verarbeitet werden. Das ist vermutlich auch bei der Verarbeitung anderer Sprachebenen wue Semantik, Syntax und Prosodie von Bedeutung.
Neugeborene lernen eine Sprache auch durch Prosodie
Neugeborene können frühestens im Alter von acht bis zehn Monaten, in der Regel erst mit einem Jahr, erste Wörter oder deren Vorstufen formulieren. Scheinbar mühelos lernen Babys Sprache, oft sogar mehrere Sprachen gleichzeitig. Wann der Weg zur Sprache beginnt, hängt davon ab, wie man Sprache definiert, denn eine affektive Sprache, die durch musikalische Elemente geprägt ist und Emotionen ausdrückt, besitzen Babys von Anfang an. Ihr Schreien ist sehr melodisch und bereits in den ersten Lebenstagen von melodischen Akzenten der Umgebungssprache geprägt. Regionale Unterschiede zeigen sich bereits in den ersten Babylauten, denn es wurde festgestellt, dass französische, schwedische, japanische und chinesische Babys mit Akzent weinen, d.h. sie bauen melodische Besonderheiten ihrer jeweiligen Muttersprache in ihr Weinen ein. Hören und Nachahmen sind grundlegend für die Sprachentwicklung von Babys, denn sie experimentieren mit einer Vielzahl von Lauten und werden dabei von ihrer Muttersprache beeinflusst, denn schon im letzten Drittel der Schwangerschaft lauschen Babys intensiv der Melodie und dem Rhythmus der Sprache der Mutter. Worte versteht das Neugeborene noch nicht und vieles wird durch die Flüssigkeit in der Gebärmutter und das Bauchgewebe gedämpft, aber Melodie und Rhythmus dringen durch. Schon die ersten Schreie von Neugeborenen tragen Spuren der Muttersprache, besonders deutlich in tonalen Sprachen, also Sprachen, in denen unterschiedliche Tonhöhen die Bedeutung der Wörter bestimmen. Nach der Geburt imitieren Babys viele verschiedene Laute, aber sie sind vor allem durch die Prosodie geprägt, denn Neugeborene von Müttern, die tonale Sprachen wie Mandarin sprechen, neigen dazu, komplexere Weinmelodien zu produzieren. Das Prinzip des Sprechens durch Melodie, Bogen, Kombination und Einführung rhythmischer Pausen ist bei allen Babys gleich, wobei das Baby mit einfachen auf- und absteigenden Melodiebögen beginnt, die dann aneinandergereiht werden. Durch die Vielzahl der Kombinationsmöglichkeiten ergibt sich ein riesiges Repertoire an melodischen Ausdrucksmöglichkeiten, mit denen Babys ihre Gefühle bereits auf sehr unterschiedliche Weise ausdrücken können, , wobei durch die Nachahmung von Melodiemustern Babys nicht nur ihre Bedürfnisse, Wünsche und Emotionen ausdrücken, sondern auch eine Bindung zur Mutter und zur Gemeinschaft aufbauen.
Warum man beim Einatmen nicht sprechen kann
Die Bedeutung des Sehens für das Verstehen von Sprache
Thézé et al. (2020) haben in einem Experiment untersucht, wie Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf, was sie sehen, d. h., sie beobachten die Lippenbewegungen und den Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu wiederholen, was sie verstanden hatten. In dem Versuchssetting, das verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein „v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass in den Fällen, bei denen die Informationen über Ohr und Auge identisch waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich hingegen die auditiven und die visuellen Informationen, dann verließen sich die Versuchspersonen entweder eher auf das, was sie hörten, oder auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“ sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das Hören dominiert, in den übrigen Fällen war das Sehen für die Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen auditiven und visuellen Zeichen kam, befanden sich die zerebralen Schwingungen im hinteren Temporal- und Okzipitallappen der beiden Personengruppen in jeweils anderen Phasen. Man weiß seit einigen Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind. Überraschenderweise konnte der Zusammenhang zwischen der Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten Hirnhälfte hergestellt werden, wobei aber diese Informationen normalerweise eher in der linken Hirnhälfte aufgenommen werden.
Prosodie ist ein wesentliches Merkmal der Lesekompetenz bzw. der Leseflüssigkeit, die sich eben aus den drei Aspekten Lesegenauigkeit, Lesegeschwindigkeit und Prosodie zusammensetzt. Erst Automatisierungsprozesse, denen eine verbesserte Dekodierung von Buchstaben und Wörtern zugrunde liegen, führen zu einem Lesen ohne Anstrengung, zu flüssigem und betontem Lesen, das die Aufmerksamkeit erst freisetzt für das eigentliche Verstehen eines Textes. Insofern verfügen erst flüssige Leser und Leserinnen über die Fähigkeit, bei parallel ablaufenden Dekodierprozessen Textverstehen und -reflexion hinsichtlich syntaktischer und semantischer Gesichtspunkte zu koordinieren und Bedeutungsinhalten durch prosodisches Lesen Ausdruck zu verleihen.
Literatur
Park, Jaehong, Choi, Seonmi, Takatoh, Jun, Zhao, Shengli, Harrahill, Andrew, Han, Bao-Xia & Wang, Fan (2024). Brainstem control of vocalization and its coordination with respiration. Science, 383, doi:10.1126/science.adi8081.
Rutten, Sanne, Santoro, Roberta, Hervais-Adelman, Alexis, Formisano, Elia & Golestani, Narly (2019). Cortical encoding of speech enhances task-relevant acoustic information. Nature Human Behaviour, doi:10.1038/s41562-019-0648-9.
Stangl, W. (2011, 4. Juni). Prägung. [werner stangl]s arbeitsblätter.
https://arbeitsblaetter.stangl-taller.at/LERNEN/Praegung.shtml
Stangl, W. (2024, 8. März). Warum man beim Einatmen den Redefluss unterbricht. arbeitsblätter news.
https:// arbeitsblaetter-news.stangl-taller.at/warum-man-beim-einatmen-den-redefluss-unterbricht/
Stangl, W. (2024, 1. April). Babygesänge: Wie aus Weinen Sprache wird. was stangl bemerkt ….
https:// bemerkt.stangl-taller.at/babygesaenge-wie-aus-weinen-sprache-wird.
Thézé, R., Giraud, A.-L. & Mégevand, P. (2020). The phase of cortical oscillations determines the perceptual fate of visual cues in naturalistic audiovisual speech. Science Advances, doi:10.1126/sciadv.abc6348.