Zum Inhalt springen

Paraverbale Kommunikation

    Als paraverbale Kommunikation werden Botschaften bezeichnet, die auf der Parasprache als jenem Anteil des Sprechens beruhen, der die individuellen Eigenschaften des Sprechers bezüglich Stimmeigenschaften und Sprechverhalten zusammenfasst. Der Begriff paraverbale Kommunikation bezeichnet somit das ganze Spektrum der Stimme, mit der Menschen eine Nachricht aussprechen. Die paraverbale Kommunikation beinhaltet daher die Stimmlage (hoch – tief, tragend – zitternd) die Lautstärke (angenehm – unangenehm laut – unangenehm leise), die Betonung einzelner Wörter oder Satzteile, das Sprechtempo (schnell – langsam), die Artikulation (deutlich – undeutlich) und die Sprachmelodie (eintönig – moduliert – singend). Menschen übermitteln in der direkten Kommunikation etwa ein Drittel der empfangenen Botschaft durch ihre Stimme, wobei dies zusammen mit der nonverbalen Kommunikation rund 90 Prozent der gesamten Nachricht ausmacht, sodass für die verbale Kommunikation wenig übrig bleibt. Am besten beobachten kann man die paraverbale Kommunikation etwa im Radio oder am Telefon, da nur die Stimme wahrgenommen wird. Komplementär dazu ist eine schriftliche Kommunikation (Brief, Email, SMS) weitgehend auf den verbalen Anteil reduziert.

    Für die Alltagskommuniation bedeutet das, dass eine menschliche Stimme hoch oder tief, piepsig oder rauchig klingen kann, sodass die Stimme eines Menschen oft so individuell ist wie sein Fingerabdruck. Zwar vermischt sich der Eindruck einer Stimme mit den Sprachinformationen, also dem Inhalt des Gesagten oder dem Dialekt, doch selbst der reine Klang der Stimme verrät vieles über ihren Besitzer, wie etwa über die Persönlichkeit, das Alter, das Geschlecht, die Stimmung oder die Identität. Vor allem die Stimmen von vertrauten Personen lassen sich leicht wiedererkennen, wobei manchmal schon ein kurzes Räuspern oder Lachen reicht. Menschen sind nach Untersuchungen auch in der Lage, sich an eine Stimme zu erinnern, selbst wenn sie diese kaum kennen, wobei das Gehirn zwischen leicht zu merkenden Stimmen und denen, die schnell wieder in Vergessenheit geraten, unterscheidet.

    Signale und die Wahrnehmung des sozialen Status haben Auswirkung auf fast alle menschlichen Interaktionen, wobei auch die Nutzung der Stimmlage eine Rolle spielt. In einem Experiment (Leongómez et al., 2017) wurde nachgewiesen, dass Statusunterschiede unter Gesprächspartnern die Stimmlage beeinflussen, wobei jemand, der dominanten Menschen begegnet, in einer höheren Tonlage spricht. Man hatte dabei je männliche und weibliche studentische Probanden gebeten, fiktive Jobinterviews am Bildschirm zu führen, wobei diesen computergenerierte Porträts von drei potenziellen zukünftigen Chefs gezeigt wurden, die einen neutralen, dominanten oder ehrfurchtgebietenden Eindruck machten. Während die Probanden beim neutralen Gesicht normal sprachen, wechselten sie bei den beiden anderen, gefühlt sozial höher stehenden Männern auch in eine höhere Tonlage. Man vermutet darin eine Art akustische Unterwerfungsgeste, also ein Zeichen der Ergebenheit, um zu zeigen, dass keine Gefahr droht und um mögliche Konfrontationen zu vermeiden. Auch die Art der Frage veränderte die Stimmhöhe, denn komplexe, zwischenmenschliche Fragen beantworteten die Probanden tendenziell in tieferer Tonlage.

    Arnal et al. (2015) haben untersucht, warum der menschliche Schrei eine alarmierende Wirkung hat, und zwar ist das seinen einzigartigen Schwankungen in der Lautstärke zuzuschreiben. Je schneller die Lautstärke einer Stimme variiert, umso stärker reagiert die Amygdala, das Angstzentrum des Menschen. Schreie haben im menschlichen Gehirn somit eine akustische Nische, wodurch ein Schrei letztlich seine Wirkung erfüllt. Im Gegensatz zum normalen Sprechen versetzen Schreie Menschen in Alarmbereitschaft und auch viele Säugetiere kommunizieren effizient über Schreie. Schreie zeigen Frequenzen zwischen 30 und 150 Hertz, wo weder Sprache noch Gesang verortet sind. Das gesprochene Wort liegt im Bereich langsamerer Frequenzen, bei etwa 5 Hertz, während die schnellen Frequenzen von Schreien raue Laute produzieren, die vom Menschen als störend oder aggressiv machend wahrgenommen werden. Testpersonen ordnen Töne im Versuch umso unangenehmer und schrecklicher ein, je rauer sie sind. Während normale Töne in erster Linie im Hörzentrum verarbeitet werden, aktivieren die Schreilaute bevorzugt die Amygdala, also das Angstzentrum im Gehirn, das eine wichtige Rolle bei der schnellen Bewertung von Gefahrensituationen spielt, damit der Mensch rasch auf bestimmte Reize reagieren kann.

    Es wird angenommen, dass markante Vokalisierungen, insbesondere aggressive Stimmen, durch ein automatisches Bedrohungserkennungssystem bei Menschen erhöhte Aufmerksamkeit erregen. Burra et al. (2018) haben gezeigt, dass die Aufmerksamkeitsverarbeitung bedrohlicher Stimmsignale in zwei verschiedenen Phasen der auditorischen Verarbeitung optimiert wird. Das Gehirn bemerkt eine wütende Stimme schneller als eine fröhliche oder neutrale Intonation und schenkt ihr auch länger Aufmerksamkeit, indem potenziell gefährliche Laute im Gehirn länger als positiv konnotierte analysiert werden. Mittels EEG konnte man diese Verzögerungen deutlich beobachten, offenbar will das Gehirn diese Laute länger untersuchen, um eine mögliche Gefahr zu beurteilen und adäquat zu reagieren. Weil die Aufmerksamkeit auf dem bedrohlichen Laut länger verbleibt, verzögert sich dadurch aber die motorische Reaktion. Diese erweiterte Aufmerksamkeit war übrigens nur bei weiblichen und nicht bei männlichen Probanden nachweisbar.

    In einer Studie haben Zäske et al. (2014) 48 Personen mehrere kurze Sätze einsprechen lassen und diese anschließend 24 weiteren Testpersonen vorgespielt. Diese Lernphase wiederholten die Forscher, so dass die Probanden insgesamt sechs Stimmen jeweils zwölfmal gehört hatten. In den Testphasen bekamen sie wiederum mehrere Stimmen zu hören – sowohl neue, als auch bereits aus der Lernphase bekannte Stimmen und sowohl mit denselben, als auch mit unbekannten Sätzen. Die Probanden waren erstaunlich gut in der Lage, die ihnen bekannten Stimmen von den fremden zu unterscheiden, obwohl sie von diesen zuvor nur wenige kurze Sätze gehört hatten, wobei sie die Sprecher auch dann wiedererkennen konnten, wenn das in der Lern- und Testphase Gesagte voneinander abwich, sodass es sich dabei nicht um die einfache Wiedererkennung eines bestimmten Reizes, sondern um echte Stimmerkennung unabhängig vom Gesagten handelte. Die Gehirnaktivität der Testpersonen zeigte, dass gelernte und später wiedererkannte Stimmen vom Gehirn demnach anders als solche verarbeitet wurden, die wieder vergessen werden, und zwar unabhängig vom Inhalt der Äußerungen. Denn sobald die Testpersonen eine Stimme hörten, an die sie sich später erinnern konnten, veränderte sich das Muster der EEG-Messungen. Das Gehirn legt offensichtlich bereits in der Lernphase für bestimmte Stimmen eine Gedächtnisspur an, die dann später wieder aktiviert, sodass die Stimme erfolgreich aus dem episodischen Gedächtnis abgerufen und damit als bekannt identifiziert werden kann. Diesen Effekt hat man auch für das Lernen und Wiedererkennen von Gesichtern und Wörtern beobachtet.

    In der Kommunikationstheorie wird bei der gesprochenen Sprache zwischen Gesagtem und Gemeintem unterschieden, wobei meist, um das eigentlich vom Sprecher Gemeinte zu verstehen, der Körpersprache eine große Rolle zukommt. Was Menschen inhaltlich sagen wollen, erhält erst durch die Körpersignale, die gesendet werden, die passende und oft emotionale Information, wie das Gesagte zu verstehen ist. Erst durch die eigene genaue Beobachtung kann man verstehen, was eine Sprecherin oder der Sprecher meint. Aufschluss erhält man in der Regel durch drei verschiedene Aspekte der Körpersprache: die Kinesik, also die Bereiche der Mimik, Gestik und Körperhaltung, die Proxemik, also das Verhalten im Raum und die Prosodik, also den Einsatz der menschlichen Stimme.

    Literatur

    Arnal, Luc H., Flinker, Adeen, Kleinschmidt, Andreas, Giraud, Anne-Lise & Poeppel, David (2015). Human Screams Occupy a Privileged Niche in the Communication Soundscape. Current Biology, doi: 10.1016/j.cub.2015.06.043.
    Burra, Nicolas, Kerzel, Dirk, Munoz Tord, David, Grandjean, Didier, Ceravolo, Leonardo (2018). Early spatial attention deployment toward and away from aggressive voices. Social Cognitive and Affective Neuroscience, doi: 10.1093/scan/nsy100.
    Leongómez, J. D., Mileva, V. R., Little, A .C. & Roberts, S. C. (2017). Perceived differences in social status between speaker and listener affect the speaker’s vocal characteristics. PLoS ONE, doi.org/10.1371/journal.pone.0179407.
    Zäske, R., Volberg, G., Kovács, G. & Schweinberger, S.R. (2014). Electrophysiological Correlates of Voice Learning and Recognition. The Journal of Neuroscience, 34,  10821-10831.


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    3 Gedanken zu „Paraverbale Kommunikation“

    1. Angela Merkels Stimme

      Wissenschaftler der Universität Marburg spielten Probanden Sprachaufnahmen von Angela Merkel und von zwei unbekannten Sprecherinnen vor, deren Alter in etwa dem der Politikerin entsprach. Die Gehirnströme der Probanden wurden mit einem Elektroenzephalographen aufgezeichnet, wobei sich die EEG-Signale beim Hören von Merkels Stimme deutlich von denen unterschieden, die bei den Aufnahmen der unbekannten Sprecherinnen auftraten. Damit konnte gezeigt werden, dass die Stimmen von sehr prominenten Menschen im Allgemeinen ein unbewusstes Signal im Gehirn hervorrufen, um sie zu identifizieren.
      Quelle: https://www.faz.net/aktuell/rhein-main/gehirn-erkennt-merkels-stimme-in-150-millisekunden-18277801.html (22-09-05)

    2. Videokonferenz

      Videokonferenzen rufen auf Grund fehlender nonverbaler Signale bei manchen Beteiligten Frustration und Irritation hervor. Das liegt teilweise daran, dass Menschen Face-to-Face-Interaktionen gewohnt sind, sodass das menschliche Gehirn selbst kleinste Diskrepanzen zwischen Bild und Stimme sofort bemerkt. Untersuchungen zeigen, dass interaktive Aufgaben wie die Videotelefonie durch Übertragungsverzögerungen von weniger als 100 Millisekunden beeinträchtigt werden können. Da die nonverbale Kommunikation wie die Körpersprache eher im Verborgenen bleibt, entsteht dabei oft Müdigkeit, da diese Form der Kommunikation zusätzlichen kognitive Anstrengung erfordert, um unvollständige nonverbale Signale zu interpretieren. So ist es etwa schwieriger, den richtigen Zeitpunkt zum Sprechen zu bestimmen, etwa um eine Frage zu stellen oder auf eine Aussage zurückzukommen, sodass virtuelle Gespräche nicht dynamisch und interaktiv genug sind.

    3. Computervermittelte Kommunikation (CvK)

      Computervermittelte Kommunikation (CvK) ist die Kommunikation über das Medium Computer. Dabei können alle Arten elektronisch übertragbarerer Medien verwendet und somit textbasierte und/oder audio-visuelle Inhalte übermittelt werden. Textbasierte CvK entsteht beispielsweise durch das Verfassen von E-Mails, die Teilnahme an Chats oder das Lesen von Newsgroups, Blogs und Foren. Dabei fehlen soziale Hinweisreize wie Mimik, Gestik und die paraverbale Kommunikation, sodass das äußere Erscheinungsbild des Kommunikationspartners nicht wahrgenommen werden kann. Anders ist es bei der audivisuellen CvK wie beispielsweise bei Audio-/Video-Konferenzen (z.B. Skype) oder in virtuellen Welten (z.B. Online Games). Hier können sich die Kommunikationspartner über Video-Chats oder Avatare gegenseitig (an)sehen, sodass soziale Hinweisreize einbezogen und das äußere Erscheinungsbild wahrgenommen werden kann.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert