Zum Inhalt springen

Prosodie

    Die Prosodie bezeichnet die Gesamtheit jener lautlichen Eigenschaften einer Sprache, die nicht an den Laut bzw. an das Phonem gebunden sind. Dazu zählen u. a. der Wort- und Satzakzent, die Intonation, die Satzmelodie, Tempo, Rhythmus und Pausen beim Sprechen. In der Kommunikationsforschung wird in der Prosodik  die stimmliche Ausformung der Worte beobachtet: Spricht das Gegenüber sanft oder hart? Wann wird die Stimme erhoben? Wendet sie sich gegen etwas oder unterstreicht der Sprecher seine Zugewandtheit? Ist die Stimme kämpferisch oder setzt der Redner auf eine sanfte gefühlsbetonte Überzeugung? Ist die Stimme unsicher oder gibt sie innere Überzeugungen nur vor?

    In der Kommunikationstheorie wird bei der gesprochenen Sprache zwischen Gesagtem und Gemeintem unterschieden. Erst durch das genaue Zuhören kann man oft erst verstehen, was eine Sprecherin oder ein Sprecher meint. Aufschluss erhält man in der Regel durch drei verschiedene Aspekte der Körpersprache: die Kinesik, also die Bereiche der Mimik, Gestik und Körperhaltung, die Proxemik, also das Verhalten im Raum und eben die Prosodik, also den Einsatz der menschlichen Stimme.

    Aus Untersuchungen weiß man, dass der Akzent und die Melodie der Erstsprache sich beim Menschen so stark und irreversibel einprägen, dass sie diesen ein Leben lang begleiten und meist auch die später erlernten Sprachen durchdringen. Beim Erlernen der Erstsprache werden neuronale Verarbeitungsroutinen ausgebildet, die sich später nicht mehr ändern lassen und auf denen alle anderen sprachlichen Lernprozesse aufbauen. So ist das Unvermögen von Asiaten, die Phoneme „r“ und „l“ akustisch voneinander zu unterscheiden darin begründet, denn sie hören den Unterschied trotz deutlicher Aussprache nicht. Das liegt daran, dass in ihrem Sprachraum die Unterscheidung dieser Phoneme keine Rolle spielt. Als Babies und Kleinkinder verfügen sie zwar prinzipiell über diese Fähigkeit, und wenn sie im westlichen Sprachraum aufwüchsen, würde diese auch erhalten bleiben, aber die Exposition mit asiatischen Sprachen führt zu Verschaltungsänderungen, die diese Phonemkategorien zum Verschmelzen bringen. Ein anderes Beispiel ist die Fähigkeit von Skandinaven, mehr als ein Dutzend verschiedener A-Schattierungen heraushören zu können.

    In der Sprache gibt es zwei Unterscheidungsmerkmale: die Stimme des Sprechers und den sprachlichen Inhalt selbst, einschließlich der Sprachlaute. Untersuchungen (Rutten et al., 2019) haben nungezeigt, dass sich im Gehirn der auditorische Cortex daran anpasst, was der Mensch jeweils hören will. Er konzentriert sich dabei entweder auf die Stimme eines Sprechers oder auf die gesprochenen Sprachlaute. Um das zu erreichen, verstärkt der auditorische Cortex verschiedene Aspekte der Stimme, je nachdem, welche Ziele verfolgt werden. Für die Unterscheidung von Stimmen werden dabei in erster Linie stimmenspezifische Informationen verarbeitet, während phonemspezifische Informationen für die Differenzierung von Sprachlauten eingesetzt werden. Das Gehirn passt sich also an die jeweilige Aufgabe an, und zwar in einer Weise, die mit den akustischen Informationen übereinstimmt, die in Sprachlauten verarbeitet werden. Das ist vermutlich auch bei der Verarbeitung anderer Sprachebenen wue Semantik, Syntax und Prosodie von Bedeutung.

    Warum man beim Einatmen nicht sprechen kann

    Menschen unterbrechen beim Einatmen ihrem Redefluss, was von einer präzisen Steuerung der Kehlkopfmuskulatur in Koordination mit der laufenden Atmung abhängt. Bei Säugetieren muss die Vokalisation mit der Atmung koordiniert werden, da die Vokallaute in den Atemwegen erzeugt werden. Park et al. (2024) identifizierten nun in einer Studie vokalisationsspezifische erregende laryngeale prämotorische Neuronen im Nucleus retroambiguus bei erwachsenen Mäusen, die sowohl notwendig als auch ausreichend sind, um den Stimmlippenschluss zu kontrollieren und Ultraschallvokalisationen auszulösen. Diese Studie enthüllt somit die Schaltkreise, die für die Stimmproduktion und die Koordination von Stimme und Atmung bei Säugetieren verantwortlich sind. Nervenzellen im Mittelhirn aktivieren die Sprechmuskulatur, aber beim Einatmen werden diese Nervenzellen von Nervenzellen im Hirnstamm gehemmt, was erklärt, warum das Einatmen zu einer Sprechpause führt.

    Die Bedeutung des Sehens für das Verstehen von Sprache

    Thézé et al. (2020) haben in einem Experiment untersucht, wie Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf, was sie sehen, d. h., sie beobachten die Lippenbewegungen und den Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu wiederholen, was sie verstanden hatten. In dem Versuchssetting, das verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein „v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass in den Fällen, bei denen die Informationen über Ohr und Auge identisch waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich hingegen die auditiven und die visuellen Informationen, dann verließen sich die Versuchspersonen entweder eher auf das, was sie hörten, oder auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“ sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das Hören dominiert, in den übrigen Fällen war das Sehen für die Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen auditiven und visuellen Zeichen kam, befanden sich die zerebralen Schwingungen im hinteren Temporal- und Okzipitallappen der beiden Personengruppen in jeweils anderen Phasen. Man weiß seit einigen Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind. Überraschenderweise konnte der Zusammenhang zwischen der Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten Hirnhälfte hergestellt werden, wobei aber diese Informationen normalerweise eher in der linken Hirnhälfte aufgenommen werden.

    Prosodie ist ein wesentliches Merkmal der Lesekompetenz bzw. der Leseflüssigkeit, die sich eben aus den drei Aspekten Lesegenauigkeit, Lesegeschwindigkeit und Prosodie zusammensetzt. Erst Automatisierungsprozesse, denen eine verbesserte Dekodierung von Buchstaben und Wörtern zugrunde liegen, führen zu einem Lesen ohne Anstrengung, zu flüssigem und betontem Lesen, das die Aufmerksamkeit erst freisetzt für das eigentliche Verstehen eines Textes. Insofern verfügen erst flüssige Leser und Leserinnen über die Fähigkeit, bei parallel ablaufenden Dekodierprozessen Textverstehen und -reflexion hinsichtlich syntaktischer und semantischer Gesichtspunkte zu koordinieren und Bedeutungsinhalten durch prosodisches Lesen Ausdruck zu verleihen.

    Literatur

    Park, Jaehong, Choi, Seonmi, Takatoh, Jun, Zhao, Shengli, Harrahill, Andrew, Han, Bao-Xia & Wang, Fan (2024). Brainstem control of vocalization and its coordination with respiration. Science, 383, doi:10.1126/science.adi8081.
    Rutten, Sanne, Santoro, Roberta, Hervais-Adelman, Alexis, Formisano, Elia & Golestani, Narly (2019). Cortical encoding of speech enhances task-relevant acoustic information. Nature Human Behaviour, doi:10.1038/s41562-019-0648-9.
    Stangl, W. (2002). Prägung.
    WWW: https://arbeitsblaetter.stangl-taller.at/LERNEN/Praegung.shtml (02-03-03)
    Stangl, W. (2024, 8. März). Warum man beim Einatmen den Redefluss unterbricht. arbeitsblätter news.
    https:// arbeitsblaetter-news.stangl-taller.at/warum-man-beim-einatmen-den-redefluss-unterbricht/
    Thézé, R., Giraud, A.-L. & Mégevand, P. (2020). The phase of cortical oscillations determines the perceptual fate of visual cues in naturalistic audiovisual speech. Science Advances, doi:10.1126/sciadv.abc6348.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Inhaltsverzechnis