Um den vollen Funktionsumfang dieser Webseite zu erfahren, benötigen Sie JavaScript. Hier finden Sie die Anleitung wie Sie JavaScript in Ihrem Browser einschalten.

Prosodie


Die Prosodie bezeichnet die Gesamtheit jener lautlichen Eigenschaften einer Sprache, die nicht an den Laut bzw. an das Phonem gebunden sind. Dazu zählen u. a. der Wort- und Satzakzent, die Intonation, die Satzmelodie, Tempo, Rhythmus und Pausen beim Sprechen. In der Kommunikationsforschung wird in der Prosodik  die stimmliche Ausformung der Worte beobachtet: Spricht das Gegenüber sanft oder hart? Wann wird die Stimme erhoben? Wendet sie sich gegen etwas oder unterstreicht der Sprecher seine Zugewandtheit? Ist die Stimme kämpferisch oder setzt der Redner auf eine sanfte gefühlsbetonte Überzeugung? Ist die Stimme unsicher oder gibt sie innere Überzeugungen nur vor?

In der Kommunikationstheorie wird bei der gesprochenen Sprache zwischen Gesagtem und Gemeintem unterschieden. Erst durch das genaue Zuhören kann man oft erst verstehen, was eine Sprecherin oder ein Sprecher meint. Aufschluss erhält man in der Regel durch drei verschiedene Aspekte der Körpersprache: die Kinesik, also die Bereiche der Mimik, Gestik und Körperhaltung, die Proxemik, also das Verhalten im Raum und eben die Prosodik, also den Einsatz der menschlichen Stimme.

Aus Untersuchungen weiß man, dass der Akzent und die Melodie der Erstsprache sich beim Menschen so stark und irreversibel einprägen, dass sie diesen ein Leben lang begleiten und meist auch die später erlernten Sprachen durchdringen. Beim Erlernen der Erstsprache werden neuronale Verarbeitungsroutinen ausgebildet, die sich später nicht mehr ändern lassen und auf denen alle anderen sprachlichen Lernprozesse aufbauen. So ist das Unvermögen von Asiaten, die Phoneme “r” und “l” akustisch voneinander zu unterscheiden darin begründet, denn sie hören den Unterschied trotz deutlicher Aussprache nicht. Das liegt daran, dass in ihrem Sprachraum die Unterscheidung dieser Phoneme keine Rolle spielt. Als Babies und Kleinkinder verfügen sie zwar prinzipiell über diese Fähigkeit, und wenn sie im westlichen Sprachraum aufwüchsen, würde diese auch erhalten bleiben, aber die Exposition mit asiatischen Sprachen führt zu Verschaltungsänderungen, die diese Phonemkategorien zum Verschmelzen bringen. Ein anderes Beispiel ist die Fähigkeit von Skandinaven, mehr als ein Dutzend verschiedener A-Schattierungen heraushören zu können.

In der Sprache gibt es zwei Unterscheidungsmerkmale: die Stimme des Sprechers und den sprachlichen Inhalt selbst, einschließlich der Sprachlaute. Untersuchungen (Rutten et al., 2019) haben nungezeigt, dass sich im Gehirn der auditorische Cortex daran anpasst, was der Mensch jeweils hören will. Er konzentriert sich dabei entweder auf die Stimme eines Sprechers oder auf die gesprochenen Sprachlaute. Um das zu erreichen, verstärkt der auditorische Cortex verschiedene Aspekte der Stimme, je nachdem, welche Ziele verfolgt werden. Für die Unterscheidung von Stimmen werden dabei in erster Linie stimmenspezifische Informationen verarbeitet, während phonemspezifische Informationen für die Differenzierung von Sprachlauten eingesetzt werden. Das Gehirn passt sich also an die jeweilige Aufgabe an, und zwar in einer Weise, die mit den akustischen Informationen übereinstimmt, die in Sprachlauten verarbeitet werden. Das ist vermutlich auch bei der Verarbeitung anderer Sprachebenen wue Semantik, Syntax und Prosodie von Bedeutung.

Die Bedeutung des Sehens für das Verstehen von Sprache

Thézé et al. (2020) haben in einem Experiment untersucht, wie Schwingungen im Gehirn am Verstehen von gesprochener Sprache beteiligt sind bzw. welcher andere Sinne wie Hören oder Sehen hauptsächlich beitragen. Bekanntlich verlassen sich Menschen, wenn sie verstehen wollen, was jemand sagt, nicht nur auf das Gehör, sondern auch darauf, was sie sehen, d. h., sie beobachten die Lippenbewegungen und den Gesichtsausdruck. Für ihr Experiment wurden Sätze nacheinander von sechs virtuellen Personen gesprochen, und zwar mit Hintergrundlärm, der das Hörverständnis stören sollte. Nach jedem der insgesamt 240 Sätze des Experiments hatten die Versuchspersonen eine Sekunde Zeit, um zu wiederholen, was sie verstanden hatten. In dem Versuchssetting, das verwirrende audiovisuelle Eindrücke erzeugt, platzierte man die französischsprachigen Versuchspersonen vor einem Bildschirm, auf dem eine virtuelle Person Satzpaare sagt, die sehr ähnlich klingen, zum Beispiel „Il n’y a rien à boire“ und „Il n’y a rien à voir“ (Es gibt nichts zu trinken/nichts zu sehen). Bei gewissen, von der virtuellen Person gesprochenen Sätzen, wurde ein Konflikt programmiert: Die Versuchsperson hörte den einen Satz, sah aber auf den Lippen den anderen Satz. Zum Beispiel sprach die Person ein „b“, die Lippen formten ein „v“. Die Versuchspersonen wurden nun aufgefordert, den Satz zu wiederholen, den sie verstanden hatten, wobei die elektrische Aktivität in ihrem Gehirn mit Elektroden aufgezeichnet wurde. Es zeigte sich, dass in den Fällen, bei denen die Informationen über Ohr und Auge identisch waren, die Sätze meistens korrekt wiederholt wurden, widersprachen sich hingegen die auditiven und die visuellen Informationen, dann verließen sich die Versuchspersonen entweder eher auf das, was sie hörten, oder auf das, was sie sahen. Wenn sie etwa ein „v“ hörten, aber ein „b“ sahen, wurde die Wahrnehmung in etwa zwei Dritteln der Fälle durch das Hören dominiert, in den übrigen Fällen war das Sehen für die Interpretation ausschlaggebend. Dabei zeigten sich Unterschiede zwischen Personen, die sich auf ihr Gehör verlassen, und denjenigen, die ihren Augen vertrauen, denn rund 300 Millisekunden vor dem Zeitpunkt, in dem es zu einer Übereinstimmung beziehungsweise zu einem Konflikt zwischen auditiven und visuellen Zeichen kam, befanden sich die zerebralen Schwingungen im hinteren Temporal- und Okzipitallappen der beiden Personengruppen in jeweils anderen Phasen. Man weiß seit einigen Jahrzehnten, dass in gewissen Situationen das Gehirn die visuellen Anhaltspunkte den auditiven vorzieht, und zwar verstärkt dann, wenn das Tonsignal gestört ist, etwa durch Umgebungslärm, doch nun konnte man zeigen, dass die Neuronenschwingungen an diesem Prozess beteiligt sind. Überraschenderweise konnte der Zusammenhang zwischen der Oszillationsphase und der Wahrnehmung der Sätze nur in der rechten Hirnhälfte hergestellt werden, wobei aber diese Informationen normalerweise eher in der linken Hirnhälfte aufgenommen werden.

Literatur

Rutten, Sanne, Santoro, Roberta, Hervais-Adelman, Alexis, Formisano, Elia & Golestani, Narly (2019). Cortical encoding of speech enhances task-relevant acoustic information. Nature Human Behaviour, doi:10.1038/s41562-019-0648-9.
Stangl, W. (2002). Prägung.
WWW: https://arbeitsblaetter.stangl-taller.at/LERNEN/Praegung.shtml (02-03-03)
Thézé, R., Giraud, A.-L. & Mégevand, P. (2020). The phase of cortical oscillations determines the perceptual fate of visual cues in naturalistic audiovisual speech. Science Advances, doi:10.1126/sciadv.abc6348.


Weitere Seiten zum Thema

You must be logged in to post a comment.

Diese Seiten sind Bestandteil der Domain www.stangl.eu



© Werner Stangl Linz 2021
/p> ............... ...............