Zum Inhalt springen

Prosodie

    Die Prosodie bezeichnet die Gesamtheit jener lautlichen Eigenschaften einer Sprache, die nicht an den Laut bzw. an das Phonem gebunden sind. Dazu zählen u. a. der Wort- und Satzakzent, die Intonation, die Satzmelodie, Tempo, Rhythmus und Pausen beim Sprechen. In der Kommunikationsforschung wird in der Prosodik  die stimmliche Ausformung der Worte beobachtet: Spricht das Gegenüber sanft oder hart? Wann wird die Stimme erhoben? Wendet sie sich gegen etwas oder unterstreicht der Sprecher seine Zugewandtheit? Ist die Stimme kämpferisch oder setzt der Redner auf eine sanfte gefühlsbetonte Überzeugung? Ist die Stimme unsicher oder gibt sie innere Überzeugungen nur vor?

    In der Kommunikationstheorie wird bei der gesprochenen Sprache zwischen Gesagtem und Gemeintem unterschieden. Erst durch das genaue Zuhören kann man oft erst verstehen, was eine Sprecherin oder ein Sprecher meint. Aufschluss erhält man in der Regel durch drei verschiedene Aspekte der Körpersprache: die Kinesik, also die Bereiche der Mimik, Gestik und Körperhaltung, die Proxemik, also das Verhalten im Raum und eben die Prosodik, also den Einsatz der menschlichen Stimme.

    In der Sprache gibt es zwei Unterscheidungsmerkmale: die Stimme des Sprechers und den sprachlichen Inhalt selbst, einschließlich der Sprachlaute. Untersuchungen (Rutten et al., 2019) haben nungezeigt, dass sich im Gehirn der auditorische Cortex daran anpasst, was der Mensch jeweils hören will. Er konzentriert sich dabei entweder auf die Stimme eines Sprechers oder auf die gesprochenen Sprachlaute. Um das zu erreichen, verstärkt der auditorische Cortex verschiedene Aspekte der Stimme, je nachdem, welche Ziele verfolgt werden. Für die Unterscheidung von Stimmen werden dabei in erster Linie stimmenspezifische Informationen verarbeitet, während phonemspezifische Informationen für die Differenzierung von Sprachlauten eingesetzt werden. Das Gehirn passt sich also an die jeweilige Aufgabe an, und zwar in einer Weise, die mit den akustischen Informationen übereinstimmt, die in Sprachlauten verarbeitet werden. Das ist vermutlich auch bei der Verarbeitung anderer Sprachebenen wue Semantik, Syntax und Prosodie von Bedeutung.

    Neugeborene lernen eine Sprache auch durch Prosodie

    Neugeborene können frühestens im Alter von acht bis zehn Monaten, in der Regel erst mit einem Jahr, erste Wörter oder deren Vorstufen formulieren. Scheinbar mühelos lernen Babys Sprache, oft sogar mehrere Sprachen gleichzeitig. Wann der Weg zur Sprache beginnt, hängt davon ab, wie man Sprache definiert, denn eine affektive Sprache, die durch musikalische Elemente geprägt ist und Emotionen ausdrückt, besitzen Babys von Anfang an. Ihr Schreien ist sehr melodisch und bereits in den ersten Lebenstagen von melodischen Akzenten der Umgebungssprache geprägt. Regionale Unterschiede zeigen sich bereits in den ersten Babylauten, denn es wurde festgestellt, dass französische, schwedische, japanische und chinesische Babys mit Akzent weinen, d.h. sie bauen melodische Besonderheiten ihrer jeweiligen Muttersprache in ihr Weinen ein. Hören und Nachahmen sind grundlegend für die Sprachentwicklung von Babys, denn sie experimentieren mit einer Vielzahl von Lauten und werden dabei von ihrer Muttersprache beeinflusst, denn schon im letzten Drittel der Schwangerschaft lauschen Babys intensiv der Melodie und dem Rhythmus der Sprache der Mutter. Worte versteht das Neugeborene noch nicht und vieles wird durch die Flüssigkeit in der Gebärmutter und das Bauchgewebe gedämpft, aber Melodie und Rhythmus dringen durch. Schon die ersten Schreie von Neugeborenen tragen Spuren der Muttersprache, besonders deutlich in tonalen Sprachen, also Sprachen, in denen unterschiedliche Tonhöhen die Bedeutung der Wörter bestimmen. Nach der Geburt imitieren Babys viele verschiedene Laute, aber sie sind vor allem durch die Prosodie geprägt, denn Neugeborene von Müttern, die tonale Sprachen wie Mandarin sprechen, neigen dazu, komplexere Weinmelodien zu produzieren. Das Prinzip des Sprechens durch Melodie, Bogen, Kombination und Einführung rhythmischer Pausen ist bei allen Babys gleich, wobei das Baby mit einfachen auf- und absteigenden Melodiebögen beginnt, die dann aneinandergereiht werden. Durch die Vielzahl der Kombinationsmöglichkeiten ergibt sich ein riesiges Repertoire an melodischen Ausdrucksmöglichkeiten, mit denen Babys ihre Gefühle bereits auf sehr unterschiedliche Weise ausdrücken können, , wobei durch die Nachahmung von Melodiemustern Babys nicht nur ihre Bedürfnisse, Wünsche und Emotionen ausdrücken, sondern auch eine Bindung zur Mutter und zur Gemeinschaft aufbauen.

    Die Erstsprache wird mühelos erlernt, wenn die Interaktionen mit einer sprachkompetenten Umwelt im richtigen Zeitfenster erfolgen. Die Zweitsprache erlernt sich sehr viel schwerer und auf ganz andere Weise als die Erstsprache. Lernen erfolgt jetzt regelbasiert und unter Kontrolle des Bewusstseins. Entsprechend bilden sich unbewusst ablaufende Automatismen für die Decodierung und Produktion von Sprache nur unvollkommen aus. Die Zweitsprache erreicht nur selten das Perfektionsniveau der Erstsprache. Die Prosodie – der Akzent und die Melodie der Erstsprache – hingegen, prägen sich so stark und irreversibel ein, dass sie ein Leben lang begleiten und meist auch die später erlernten Sprachen durchdringen. Beim Erlernen der Erstsprache werden neuronale Verarbeitungsroutinen ausgebildet, die sich später nicht mehr ändern lassen und auf denen alle anderen Lernprozesse aufbauen. Ein weiteres Beispiel für die frühe und irreversible Prägung der Phonemwahrnehmung ist das Unvermögen von Asiaten, die Phoneme „r“ und „l“ akustisch voneinander zu unterscheiden. Sie hören den Unterschied trotz deutlicher Aussprache nicht. Der Grund ist, dass in ihrem Sprachraum die Unterscheidung dieser Phoneme keine Rolle spielt. Als Babies verfügen sie über diese Fähigkeit, und wenn sie im westlichen Sprachraum aufwüchsen, würde sie auch erhalten bleiben. Exposition mit asiatischen Sprachen führt jedoch zu Verschaltungsänderungen, die diese Phonemkategorien zum Verschmelzen bringen. Ein weiteres Beispiel ist die Fähigkeit von Skandinavern, mehr als ein Dutzend verschiedener A-Schattierungen heraushören zu können. Auch dies ist Folge früher Prägung akustischen Unterscheidungsvermögens (Stangl, 2011).

    Warum man beim Einatmen nicht sprechen kann

    Menschen unterbrechen beim Einatmen ihrem Redefluss, was von einer präzisen Steuerung der Kehlkopfmuskulatur in Koordination mit der laufenden Atmung abhängt. Bei Säugetieren muss die Vokalisation mit der Atmung koordiniert werden, da die Vokallaute in den Atemwegen erzeugt werden. Park et al. (2024) identifizierten nun in einer Studie vokalisationsspezifische erregende laryngeale prämotorische Neuronen im Nucleus retroambiguus bei erwachsenen Mäusen, die sowohl notwendig als auch ausreichend sind, um den Stimmlippenschluss zu kontrollieren und Ultraschallvokalisationen auszulösen. Diese Studie enthüllt somit die Schaltkreise, die für die Stimmproduktion und die Koordination von Stimme und Atmung bei Säugetieren verantwortlich sind. Nervenzellen im Mittelhirn aktivieren die Sprechmuskulatur, aber beim Einatmen werden diese Nervenzellen von Nervenzellen im Hirnstamm gehemmt, was erklärt, warum das Einatmen zu einer Sprechpause führt.

    Die Bedeutung des Sehens für das Verstehen von Sprache

    Thézé et al. (2020) haben in einem Experiment untersucht, wie Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf, was sie sehen, d. h., sie beobachten die Lippenbewegungen und den Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu wiederholen, was sie verstanden hatten. In dem Versuchssetting, das verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein „v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass in den Fällen, bei denen die Informationen über Ohr und Auge identisch waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich hingegen die auditiven und die visuellen Informationen, dann verließen sich die Versuchspersonen entweder eher auf das, was sie hörten, oder auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“ sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das Hören dominiert, in den übrigen Fällen war das Sehen für die Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen auditiven und visuellen Zeichen kam, befanden sich die zerebralen Schwingungen im hinteren Temporal- und Okzipitallappen der beiden Personengruppen in jeweils anderen Phasen. Man weiß seit einigen Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind. Überraschenderweise konnte der Zusammenhang zwischen der Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten Hirnhälfte hergestellt werden, wobei aber diese Informationen normalerweise eher in der linken Hirnhälfte aufgenommen werden.

    Prosodie ist ein wesentliches Merkmal der Lesekompetenz bzw. der Leseflüssigkeit, die sich eben aus den drei Aspekten Lesegenauigkeit, Lesegeschwindigkeit und Prosodie zusammensetzt. Erst Automatisierungsprozesse, denen eine verbesserte Dekodierung von Buchstaben und Wörtern zugrunde liegen, führen zu einem Lesen ohne Anstrengung, zu flüssigem und betontem Lesen, das die Aufmerksamkeit erst freisetzt für das eigentliche Verstehen eines Textes. Insofern verfügen erst flüssige Leser und Leserinnen über die Fähigkeit, bei parallel ablaufenden Dekodierprozessen Textverstehen und -reflexion hinsichtlich syntaktischer und semantischer Gesichtspunkte zu koordinieren und Bedeutungsinhalten durch prosodisches Lesen Ausdruck zu verleihen.

    Literatur

    Park, Jaehong, Choi, Seonmi, Takatoh, Jun, Zhao, Shengli, Harrahill, Andrew, Han, Bao-Xia & Wang, Fan (2024). Brainstem control of vocalization and its coordination with respiration. Science, 383, doi:10.1126/science.adi8081.
    Rutten, Sanne, Santoro, Roberta, Hervais-Adelman, Alexis, Formisano, Elia & Golestani, Narly (2019). Cortical encoding of speech enhances task-relevant acoustic information. Nature Human Behaviour, doi:10.1038/s41562-019-0648-9.
    Stangl, W. (2011, 4. Juni). Prägung. [werner stangl]s arbeitsblätter.
    https://arbeitsblaetter.stangl-taller.at/LERNEN/Praegung.shtml
    Stangl, W. (2024, 8. März). Warum man beim Einatmen den Redefluss unterbricht. arbeitsblätter news.
    https:// arbeitsblaetter-news.stangl-taller.at/warum-man-beim-einatmen-den-redefluss-unterbricht/
    Stangl, W. (2024, 1. April). Babygesänge: Wie aus Weinen Sprache wird. was stangl bemerkt ….
    https:// bemerkt.stangl-taller.at/babygesaenge-wie-aus-weinen-sprache-wird.
    Thézé, R., Giraud, A.-L. & Mégevand, P. (2020). The phase of cortical oscillations determines the perceptual fate of visual cues in naturalistic audiovisual speech. Science Advances, doi:10.1126/sciadv.abc6348.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    Inhaltsverzechnis